ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

لیلا تاکایاما: ربات بودن چه شکلی است؟

Filmed:
1,183,118 views

ما هم‌اکنون میان ربات‌ها زندگی می‌کنیم: ابزارها و ماشینهایی مثل ماشین ظرفشویی و ترموستات آن قدر با زندگی‌های ما عجین شده‌اند که هرگز فکر نمی‌کنیم آن‌ها را ربات بنامیم. آینده با تعداد ربا‌ت‌های بیشتر چگونه خواهد بود؟ لیلا تاکایاما جامعه‌شناس بعضی از چالش‌های منحصربه فرد طراحی تعاملات انسان-ربات را به اشتراک می‌گذارد -- و این که چگونه آزمایش کردن با آینده‌های رباتیک در واقع ما را به بهتر فهمیدن خود سوق می‌دهد.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chanceشانس
to make a first impressionاحساس؛ عقیده؛ گمان,
0
760
2656
شما فقط یک شانس دارید
تا اولین تاثیر را بگذارید،
00:15
and that's trueدرست است if you're a robotربات
as well as if you're a personفرد.
1
3440
3176
چه ربات باشید چه انسان،
این جمله درست است.
00:18
The first time that I metملاقات کرد
one of these robotsروبات ها
2
6640
3016
اولین بار که من یکی از این ربات‌ها را دیدم
00:21
was at a placeمحل
calledبه نام Willowبید Garageگاراژ in 2008.
3
9680
2896
در موسسه‌ٔ «ویلو گِراج» در سال ۲۰۰۸ بود.
00:24
When I wentرفتی to visitبازدید کنید there,
my hostمیزبان walkedراه می رفت me into the buildingساختمان
4
12600
3016
وقتی برای بازدید آنجا رفتم،
میزبانم با من به ساختمان آمد
00:27
and we metملاقات کرد this little guy.
5
15640
1576
و ما این کوچولو را ملاقات کردیم.
00:29
He was rollingنورد into the hallwayراهرو,
6
17240
1656
او به سمت محل ورودی حرکت می‌کرد،
00:30
cameآمد up to me, satنشسته there,
7
18920
1816
به طرف من آمد، آنجا نشست،
00:32
staredخیره شدم blanklyخالی pastگذشته me,
8
20760
2256
خیره و بدون هیچ علاقه‌ای به من
از کنارم گذشت،
00:35
did nothing for a while,
9
23040
1656
برای مدتی هیچ کاری انجام نداد،
00:36
rapidlyبه سرعت در حال spunچرخش his headسر around 180 degreesدرجه
10
24720
1936
به سرعت سرش را ۱۸۰ درجه چرخاند
00:38
and then ranفرار کرد away.
11
26680
1536
و بعد فرار کرد.
00:40
And that was not a great first impressionاحساس؛ عقیده؛ گمان.
12
28240
2176
به عنوان اولین تأثیر، عالی نبود.
00:42
The thing that I learnedیاد گرفتم
about robotsروبات ها that day
13
30440
2176
آنچه من آن روز دربارهٔ ربات‌ها آموختم
00:44
is that they kindنوع of do theirخودشان ownخودت thing,
14
32640
2176
این بود که به نوعی
کار خود را انجام می‌دهند،
00:46
and they're not totallyکاملا awareمطلع of us.
15
34840
2136
و کاملاً از حضور ما آگاه نیستند.
00:49
And I think as we're experimentingتجربه کردن
with these possibleامکان پذیر است robotربات futuresآینده,
16
37000
3239
فکر می‌کنم وقتی آینده‌های
رباتی ممکن را آزمایش می‌کنیم،
00:52
we actuallyدر واقع endپایان up learningیادگیری
a lot more about ourselvesخودمان
17
40263
2673
درباره‌ٔ خود بسیار یاد می‌گیریم
00:54
as opposedمخالف to just these machinesماشین آلات.
18
42960
1656
بیشتر از آموختن درباره‌ٔ ماشین‌ها.
00:56
And what I learnedیاد گرفتم that day
19
44640
1336
من آن روز آموختم
00:58
was that I had prettyبسیار highبالا
expectationsانتظارات for this little dudeشخص.
20
46000
3416
که انتظارات من درباره‌ٔ این رفیق کوچک
فوق‌العاده زیاد بود.
01:01
He was not only supposedقرار است to be ableتوانایی
to navigateحرکت کن the physicalفیزیکی worldجهان,
21
49440
3176
او نه تنها قرار بود که بتواند مسیر را
در جهان واقعی پیدا کند،
01:04
but alsoهمچنین be ableتوانایی
to navigateحرکت کن my socialاجتماعی worldجهان --
22
52640
2656
که همچنین باید مسیر را
در جهان اجتماعی بیابد --
01:07
he's in my spaceفضا; it's a personalشخصی robotربات.
23
55320
2176
او در اتاق من است؛ این یک ربات شخصی است.
01:09
wWhywWhy didn't it understandفهمیدن me?
24
57520
2016
چرا من را نمی‌فهمید؟
01:11
My hostمیزبان explainedتوضیح داد to me,
25
59560
1256
میزبان برایم توضیح داد،
01:12
"Well, the robotربات is tryingتلاش کن
to get from pointنقطه A to pointنقطه B,
26
60840
3176
« خب، ربات تلاش می‌کند
از نقطه «آ» به نقطه «ب» برود،
01:16
and you were an obstacleمانع in his way,
27
64040
1776
و شما یک مانع بر سر راهش بودید،
01:17
so he had to replanreplan his pathمسیر,
28
65840
2016
او مجبور بود
دوباره برنامه‌ریزی کند،
01:19
figureشکل out where to go,
29
67880
1256
بفهمد کجا برود،
01:21
and then get there some other way,"
30
69160
1696
و بعد مسیر دیگری را برود،»
01:22
whichکه was actuallyدر واقع
not a very efficientکارآمد thing to do.
31
70880
2456
آنچه چندان روش مؤثری در عمل نبود.
01:25
If that robotربات had figuredشکل گرفته out
that I was a personفرد, not a chairصندلی,
32
73360
3256
اگر آن ربات فهمیده بود که من
یک انسانم، نه یکی صندلی،
01:28
and that I was willingمایلم
to get out of its way
33
76640
2096
و می‌خواهم از سر راهش کنار بروم
01:30
if it was tryingتلاش کن to get somewhereجایی,
34
78760
1656
اگر تلاش می‌کرد تا جایی برود،
01:32
then it actuallyدر واقع
would have been more efficientکارآمد
35
80440
2216
در واقع بعد از آن می‌توانست مؤثرتر باشد
01:34
at gettingگرفتن its jobکار doneانجام شده
36
82680
1256
در انجام دادن کارهایش
01:35
if it had botheredناراحت
to noticeاطلاع that I was a humanانسان
37
83960
2216
اگر اهمیت داده بود
که من یک انسان بودم
01:38
and that I have differentناهمسان affordancesمقرون به صرفه
than things like chairsصندلی ها and wallsدیوارها do.
38
86200
3576
و این که من قابلیت‌های متفاوت‌تری
نسبت به صندلی‌ها و دیوارها دارم.
01:41
You know, we tendگرایش داشتن to think of these robotsروبات ها
as beingبودن from outerبیرونی spaceفضا
39
89800
3216
می‌دانید، ما تمایل داریم فکر کنیم
این ربات‌ها موجوداتی فضایی هستند
01:45
and from the futureآینده
and from scienceعلوم پایه fictionداستان,
40
93040
2136
از آینده و داستان علمی‌-تخیلی آمده‌اند،
01:47
and while that could be trueدرست است,
41
95200
1416
اگرچه این می‌توانست درست باشد
01:48
I'd actuallyدر واقع like to argueجر و بحث
that robotsروبات ها are here todayامروز,
42
96640
2656
می‌خواهم دلیل بیاورم
که ربات‌ها امروز اینجا هستند،
01:51
and they liveزنده and work
amongstدر میان us right now.
43
99320
2776
و آن‌ها امروز دقیقاً میان ما
زندگی و کار می‌کنند.
01:54
These are two robotsروبات ها that liveزنده in my home.
44
102120
2856
این‌ها دو رباتی هستند
که در خانه‌ام زندگی می‌کنند.
01:57
They vacuumخلاء the floorsطبقه
and they cutبرش the grassچمن
45
105000
2496
آن‌ها خانه را جارو و علف‌ها را هرس می‌کنند
01:59
everyهرکدام singleتنها day,
46
107520
1216
هر روز،
02:00
whichکه is more than I would do
if I actuallyدر واقع had time to do these tasksوظایف,
47
108760
3376
بیشتر از آنچه ممکن است انجام بدهم
اگر برای انجام این وظایف وقت داشتم،
02:04
and they probablyشاید
do it better than I would, too.
48
112160
2336
آن‌ها احتمالاً بهتر از من هم انجام می‌دهند.
02:06
This one actuallyدر واقع takes careاهميت دادن of my kittyبچه گربه.
49
114520
2496
این یکی از بچه گربه‌ٔ من مراقبت می‌کند.
02:09
Everyهرکدام singleتنها time
he usesاستفاده می کند the boxجعبه, it cleansتمیز کردن it,
50
117040
2576
هر دفعه بعد از دستشویی گربه،
ربات آنجا را تمیز می‌کند،
02:11
whichکه is not something I'm willingمایلم to do,
51
119640
1976
آنچه من مشتاق انجام دادنش نیستم،
02:13
and it actuallyدر واقع makesباعث می شود
his life better as well as mineمال خودم.
52
121640
2576
در واقع او زندگی بچه‌گربه
و من را بهتر می‌کند.
02:16
And while we call these robotربات productsمحصولات --
53
124240
2416
در حالی که ما این ربات‌ها را
محصولات می‌نامیم --
02:18
it's a "robotربات vacuumخلاء cleanerپاک کننده,
it's a robotربات lawnmowerماشین چمن زنی,
54
126680
2696
این «یک ربات جارو کننده است،
این یک ربات علف هرس‌کُن است،
02:21
it's a robotربات littlerلیتلر boxجعبه,"
55
129400
1495
این ربات دستشویی گربه است.»
02:22
I think there's actuallyدر واقع a bunchدسته ای
of other robotsروبات ها hidingقایم شدن in plainجلگه sightمنظره
56
130919
4137
فکر می‌کنم تعداد زیادی از ربا‌ت‌های دیگر
هستند که ظاهرا قابل رویت نیستند
02:27
that have just becomeتبدیل شدن به so darnخندیدن usefulمفید است
57
135080
1856
که خیلی مفید محسوب می‌شوند
02:28
and so darnخندیدن mundaneعرفانی
58
136960
1456
و خیلی معمولی
02:30
that we call them things
like, "dishwasherماشین ظرفشویی," right?
59
138440
2496
که ما به آنها مثلا «ماشین ظرفشویی»
می‌گوییم، درسته؟
02:32
They get newجدید namesنام ها.
60
140960
1216
آن‌ها نام جدید می‌گیرند.
02:34
They don't get calledبه نام robotربات anymoreدیگر
61
142200
1696
به آن‌ها دیگر ربات گفته نمی‌شود
02:35
because they actuallyدر واقع
serveخدمت a purposeهدف in our livesزندگی می کند.
62
143920
2416
چون آن‌ها در واقع یک هدف
در زندگی ما دارند.
02:38
Similarlyبه طور مشابه, a thermostatترموستات, right?
63
146360
1496
مثل یک ترموستات، درسته؟
02:39
I know my roboticsروباتیک friendsدوستان out there
64
147880
1776
می‌دانم دوستان رباتیک من خارج از اینجا
02:41
are probablyشاید cringingسقوط
at me callingصدا زدن this a robotربات,
65
149680
2336
احتمالاً جا می‌خورند
که به این ربات می‌گویم،
02:44
but it has a goalهدف.
66
152040
1256
اما این یک هدف دارد.
02:45
Its goalهدف is to make my houseخانه
66 degreesدرجه Fahrenheitفارنهایت,
67
153320
2896
هدفش این است که دمای خانهٔ من
۱۹ درجه سانتی‌گراد باشد،
02:48
and it sensesاحساسات the worldجهان.
68
156240
1256
و این جهان را می‌فهمد.
02:49
It knowsمی داند it's a little bitبیت coldسرماخوردگی,
69
157520
1576
می‌داند کمی هوا سرد است،
02:51
it makesباعث می شود a planطرح and then
it actsعمل می کند on the physicalفیزیکی worldجهان.
70
159120
2616
برنامه می‌ریزد و بعد در دنیای واقعی
آن را اجرا می‌کند.
02:53
It's roboticsروباتیک.
71
161760
1256
این رباتیک است.
02:55
Even if it mightممکن not
look like Rosieروسی the Robotربات,
72
163040
2576
حتی اگر ممکن است ربات شبیه رُزی نباشد،
02:57
it's doing something
that's really usefulمفید است in my life
73
165640
2936
کاری انجام می‌دهد
که برای زندگی من مفید است
03:00
so I don't have to take careاهميت دادن
74
168600
1376
پس مجبور نیستم مراقب باشم
03:02
of turningچرخش the temperatureدرجه حرارت
up and down myselfخودم.
75
170000
2576
تا خودم درجه گرما را بالا و پایین ببرم.
03:04
And I think these systemsسیستم های
liveزنده and work amongstدر میان us now,
76
172600
3816
و من فکر می‌کنم حالا این سیستم‌ها بین ما
زندگی و کار می‌کنند،
03:08
and not only are these systemsسیستم های
livingزندگي كردن amongstدر میان us
77
176440
2336
و نه تنها بین ما زندگی می‌کنند
03:10
but you are probablyشاید
a robotربات operatorاپراتور, too.
78
178800
2656
که احتمالاً شما هم یک عامل رباتی هستید.
03:13
When you driveراندن your carماشین,
79
181480
1256
وقتی رانندگی می‌کنید،
03:14
it feelsاحساس می کند like you are operatingعامل machineryدستگاه.
80
182760
2216
حس می‌کنید که ماشین‌وار
آن را اجرا می‌کنید.
03:17
You are alsoهمچنین going
from pointنقطه A to pointنقطه B,
81
185000
2816
شما هم از نقطه «آ»
به نقطه «ب» حرکت می‌کنید،
03:19
but your carماشین probablyشاید has powerقدرت steeringفرمان,
82
187840
2216
اما ماشین شما احتمالاً
فرمان هیدرولیک دارد،
03:22
it probablyشاید has automaticاتوماتیک brakingترمز systemsسیستم های,
83
190080
2696
احتمالاً سیستم‌های پدالی خودکار دارد،
03:24
it mightممکن have an automaticاتوماتیک transmissionانتقال
and maybe even adaptiveتطبیقی cruiseکشتی تفریحی controlکنترل.
84
192800
3736
ممکن است که فرستنده خودکار داشته باشد
یا شاید حتی کنترل کننده‌ٔ سرعت هوشمند.
03:28
And while it mightممکن not be
a fullyبه طور کامل autonomousخود مختار carماشین,
85
196560
2936
و اگرچه یک ماشین کاملاً مستقل نیست،
03:31
it has bitsبیت of autonomyخودمختاری,
86
199520
1296
کمی استقلال هم دارد،
03:32
and they're so usefulمفید است
87
200840
1336
و آن‌ها بسیار مفید هستند
03:34
and they make us driveراندن saferامن تر,
88
202200
1816
و رانندگی ما را ایمن‌تر می‌کنند،
03:36
and we just sortمرتب سازی of feel
like they're invisible-in-useنامرئی در استفاده, right?
89
204040
3656
ما به نوعی احساس می‌کنیم
که آن‌ها نامرئی کار می‌کنند، درسته؟
03:39
So when you're drivingرانندگی your carماشین,
90
207720
1576
خب وقتی رانندگی می‌کنید،
03:41
you should just feel like
you're going from one placeمحل to anotherیکی دیگر.
91
209320
3096
شما باید فقط احساس کنید
که از یک مکان به مکان دیگری می‌روید.
03:44
It doesn't feel like it's this bigبزرگ thing
that you have to dealمعامله with and operateکار کن
92
212440
3736
احساس نمی‌کنید این یک کار بزرگ است
که مجبورید با آن کنار بیایید و اجرا کنید
03:48
and use these controlsکنترل ها
93
216200
1256
و از کنترل‌ها استفاده کنید
03:49
because we spentصرف شده so long
learningیادگیری how to driveراندن
94
217480
2176
چون زمان زیادی سپری کردیم
تا رانندگی بیاموزیم
03:51
that they'veآنها دارند becomeتبدیل شدن به
extensionsپسوند of ourselvesخودمان.
95
219680
2696
و آن‌ها افزونه‌های خودمان شده‌اند.
03:54
When you parkپارک that carماشین
in that tightتنگ little garageگاراژ spaceفضا,
96
222400
2696
وقتی ماشین خود را
در پارکینگ خیلی کوچک پارک می‌کنید،
03:57
you know where your cornersگوشه ها are.
97
225120
1576
می‌دانید گوشه‌های شما کجا هستند.
03:58
And when you driveراندن a rentalاجاره ای carماشین
that maybe you haven'tنه drivenرانده before,
98
226720
3256
وقتی ماشین اجاره‌ای را می‌رانید
که ممکن است قبلا آن را نرانده باشید،
04:02
it takes some time
to get used to your newجدید robotربات bodyبدن.
99
230000
3056
کمی زمان می‌برد
تا به بدن ربات جدید خود عادت کنید.
04:05
And this is alsoهمچنین trueدرست است for people
who operateکار کن other typesانواع of robotsروبات ها,
100
233080
3976
و این برای اجراکنندگان
انواع دیگر ربات‌ها هم درست است،
04:09
so I'd like to shareاشتراک گذاری with you
a fewتعداد کمی storiesداستان ها about that.
101
237080
2600
می‌خواهم چند داستان
در این زمینه برای شما بگویم.
04:12
Dealingمعامله with the problemمسئله
of remoteاز راه دور collaborationهمکاری.
102
240240
2336
حل کردن مشکل همکاری از راه دور.
04:14
So, at Willowبید Garageگاراژ
I had a coworkerهمکار namedتحت عنوان Dallasدالاس,
103
242600
2576
خب در «ویلو گِراج» من همکاری
به نام «دالاس» داشتم،
04:17
and Dallasدالاس lookedنگاه کرد like this.
104
245200
1576
و «دالاس» شبیه این بود.
04:18
He workedکار کرد from his home in Indianaایندیانا
in our companyشرکت in Californiaکالیفرنیا.
105
246800
4056
او از خانه‌اش در ایندیانا
در شرکت ما در کالیفرنیا کار می‌کرد.
04:22
He was a voiceصدای in a boxجعبه
on the tableجدول in mostاکثر of our meetingsجلسات,
106
250880
2936
او صدایی از یک جعبه روی میز
در بیشتر جلسه‌های ما بود،
04:25
whichکه was kindنوع of OK
exceptبجز that, you know,
107
253840
2215
این تقریباً خوب بود جز این که، می‌دانید،
04:28
if we had a really heatedگرم است debateمناظره
and we didn't like what he was sayingگفت:,
108
256079
3377
اگر ما یک بحث واقعاً داغ داشتیم
و آنچه می‌گفت دوست نداشتیم،
04:31
we mightممکن just hangآویزان شدن up on him.
109
259480
1416
ممکن بود تماس را قطع کنیم.
04:32
(Laughterخنده)
110
260920
1015
(خنده)
04:33
Then we mightممکن have a meetingملاقات
after that meetingملاقات
111
261959
2217
پس ما ممکن بود یک جلسه
بعد از آن جلسه بگذاریم
04:36
and actuallyدر واقع make the decisionsتصمیمات
in the hallwayراهرو afterwardsپس از آن
112
264200
2696
و در راهرو تصمیم‌هایی بگیریم
04:38
when he wasn'tنبود there anymoreدیگر.
113
266920
1416
زمانی که او دیگر آنجا نبود.
04:40
So that wasn'tنبود so great for him.
114
268360
1576
خب این برای او خیلی عالی نبود.
04:41
And as a roboticsروباتیک companyشرکت at Willowبید,
115
269960
1736
و چون «ویلو» یک شرکت رباتیک است
04:43
we had some extraاضافی
robotربات bodyبدن partsقطعات layingتخمگذار around,
116
271720
2336
ما تعدادی اعضای بدن ربات اضافه
اطرافمان داشتیم،
04:46
so Dallasدالاس and his buddyدوست داری Curtکورت
put togetherبا یکدیگر this thing,
117
274080
2496
پس «دالاس» و دوست او «کورت»
این‌ را درست کردند،
04:48
whichکه looksبه نظر می رسد kindنوع of
like Skypeاسکایپ on a stickچوب on wheelsچرخ ها,
118
276600
2936
آنچه شبیه نوعی «اسکایپ»
روی دسته با چرخ بود،
04:51
whichکه seemsبه نظر می رسد like a techytechy, sillyاحمقانه toyاسباب بازی,
119
279560
1736
شبیه اسباب‌بازی فناورانه و خنگ بود،
04:53
but really it's probablyشاید
one of the mostاکثر powerfulقدرتمند toolsابزار
120
281320
2776
اما در واقع احتمالا
یکی از قدرتمندترین ابزارها بود
04:56
that I've seenمشاهده گردید ever madeساخته شده
for remoteاز راه دور collaborationهمکاری.
121
284120
2480
که تابه‌حال دیده‌ام
برای دورکاری ساخته شده است.
04:59
So now, if I didn't answerپاسخ
Dallas'هوستون' emailپست الکترونیک questionسوال,
122
287160
3496
خب حالا، اگر من جواب
سوال ایمیلی «دالاس» را نمی‌دادم،
05:02
he could literallyعینا rollرول into my officeدفتر,
123
290680
2216
او می‌توانست به دفتر من بیاید،
05:04
blockمسدود کردن my doorwayدروازه
and askپرسیدن me the questionسوال again --
124
292920
2576
راه ورودم را ببندد
و دوباره سوالش را بپرسد --
05:07
(Laughterخنده)
125
295520
1016
(خنده)
05:08
untilتا زمان I answeredجواب داد it.
126
296560
1216
تا این که جوابش را بدهم.
05:09
And I'm not going to turnدور زدن him off, right?
That's kindنوع of rudeبی ادب.
127
297800
2976
و من نمی‌خواهم او را خاموش کنم، درسته؟
نوعی بی‌ادبی است.
05:12
Not only was it good
for these one-on-oneیک به یک communicationsارتباطات,
128
300800
2696
این نه تنها برای ارتباطات
میان فردی خوب است،
05:15
but alsoهمچنین for just showingنشان دادن up
at the companyشرکت all-handsهمه دست ها meetingملاقات.
129
303520
2936
که برای نشان دادن مشارکت همه اعضا
در جلسات شرکت هم خوب است.
05:18
Gettingگرفتن your buttلب به لب in that chairصندلی
130
306480
1696
این که روی صندلی‌تان لم بدهید
05:20
and showingنشان دادن people that you're presentحاضر
and committedمرتکب شده to your projectپروژه
131
308200
3216
و به افراد نشان بدهید
آنجا حاضرید و به پروژه‌تان متعهد هستید
05:23
is a bigبزرگ dealمعامله
132
311440
1256
خیلی مهم است
05:24
and can help remoteاز راه دور collaborationهمکاری a tonتن.
133
312720
2176
و می‌تواند به دورکاری کمک زیادی کند.
05:26
We saw this over the periodدوره زمانی
of monthsماه ها and then yearsسالها,
134
314920
2856
ما این را در بازه‌های زمانی
چندماهه و بعد چندساله دیدیم،
05:29
not only at our companyشرکت
but at othersدیگران, too.
135
317800
2160
نه تنها در شرکت ما
که برای دیگران همین‌طور بود.
05:32
The bestبهترین thing that can happenبه وقوع پیوستن
with these systemsسیستم های
136
320720
2336
بهترین اتفاقی که می‌تواند
با این سیستم‌ها بیفتد
05:35
is that it startsشروع می شود to feel
like you're just there.
137
323080
2336
این بود که کم کم احساس می‌کنید
شما هم آنجا هستید.
05:37
It's just you, it's just your bodyبدن,
138
325440
1696
این شمایید، این بدن شماست،
05:39
and so people actuallyدر واقع startشروع کن
to give these things personalشخصی spaceفضا.
139
327160
3096
پس افراد کم کم به این‌ها
اجازه داشتن فضا‌های شخصی دادند.
05:42
So when you're havingداشتن a stand-upایستادن meetingملاقات,
140
330280
1976
خب وقتی یک جلسه سرپایی دارید،
05:44
people will standایستادن around the spaceفضا
141
332280
1656
و افراد دور هم جمع می‌شوند
05:45
just as they would
if you were there in personفرد.
142
333960
2216
همان‌طوری که انجام می‌شود
اگر شخصا آنجا باشید
05:48
That's great untilتا زمان
there's breakdownsخرابی and it's not.
143
336200
2576
این عالی بود تا وقتی
شکست‌هایی به وجود آمد.
05:50
People, when they first see these robotsروبات ها,
144
338800
1976
افراد، وقتی اولین بار ربات‌ها را می‌دیدند،
05:52
are like, "Wowوای, where'sکجاست؟ the componentsاجزاء?
There mustباید be a cameraدوربین over there,"
145
340800
3576
می‌گفتند: «اوه، بقیه اجزا
کجاست؟ باید یه دوربین این طرف‌ها باشد،»
05:56
and they startشروع کن pokingتکان دادن your faceصورت.
146
344400
1576
و به صورت شما ضربه می‌زدند.
05:58
"You're talkingصحبت کردن too softlyآرام,
I'm going to turnدور زدن up your volumeحجم,"
147
346000
2936
«خیلی آرام حرف می‌زنی، می‌خواهم
کمی صدایت را بلندتر کنم،»
06:00
whichکه is like havingداشتن a coworkerهمکار
walkراه رفتن up to you and say,
148
348960
2616
مثل این که همکارتان بیاید
جلوی شما بایستد و بگوید،
06:03
"You're speakingصحبت كردن too softlyآرام,
I'm going to turnدور زدن up your faceصورت."
149
351600
2896
«خیلی آرام حرف می‌زنی، می‌خواهم
صدایت را بالا ببرم.»
06:06
That's awkwardبی دست و پا - به شکلی نامناسب and not OK,
150
354520
1256
این ناراحت‌کننده است،
06:07
and so we endپایان up havingداشتن to buildساختن
these newجدید socialاجتماعی normsهنجارها
151
355800
2616
و ما تلاش کردیم تا هنجار‌های
اجتماعی جدیدی داشته باشیم
06:10
around usingاستفاده كردن these systemsسیستم های.
152
358440
2216
برای استفاده کردن از این سیستم‌ها.
06:12
Similarlyبه طور مشابه, as you startشروع کن
feelingاحساس like it's your bodyبدن,
153
360680
3416
به همین ترتیب وقتی حس می‌کنید
که این مثل بدن شماست،
06:16
you startشروع کن noticingمتوجه شدم things like,
"Oh, my robotربات is kindنوع of shortکوتاه."
154
364120
3696
شروع می‌کنید به نکاتی توجه می‌کنید
مثل «اوه، ربات من کمی کوتاه قد است،»
06:19
Dallasدالاس would say things to me --
he was six-footشش پا tallبلند قد --
155
367840
2656
دالاس به من این‌ها را می‌گفت --
قد او ۱۸۶ سانتی‌متر است --
06:22
and we would take him viaاز طريق robotربات
to cocktailکوکتل partiesاحزاب and things like that,
156
370520
3456
و ما او را از طریق ربات به مهمانی‌های رسمی
و مشابه آن می‌بردیم،
06:26
as you do,
157
374000
1216
درست مثل شما،
06:27
and the robotربات was about five-foot-tallپنج پا بلند,
whichکه is closeبستن to my heightارتفاع.
158
375240
3336
و قد ربات حدود ۱۵۲ سانتی‌متر بود،
نزدیک به قد من.
06:30
And he would tell me,
159
378600
1216
و او به من می‌گفت،
06:31
"You know, people are not
really looking at me.
160
379840
2536
«می‌دونی افراد واقعا به من نگاه نمی‌کنند.
06:34
I feel like I'm just looking
at this seaدریا of shouldersشانه ها,
161
382400
2696
حس می‌کنم فقط به دریایی
از شانه‌ها نگاه می‌کنم،
06:37
and it's just -- we need a tallerبلندتر robotربات."
162
385120
1976
و فقط -- ما به ربات
قدبلندتری نیاز داریم.»
06:39
And I told him,
163
387120
1256
و من به او گفتم،
06:40
"Umاوم, no.
164
388400
1296
«هوم، نه.
06:41
You get to walkراه رفتن in my shoesکفش for todayامروز.
165
389720
1936
تو مثل من امروز قدم زدی.
06:43
You get to see what it's like
to be on the shorterکوتاه تر endپایان of the spectrumطیف."
166
391680
3536
دیدی چه حسی داری
اگر در بخش کوتاه‌تر طیف باشی.»
06:47
And he actuallyدر واقع endedبه پایان رسید up buildingساختمان
a lot of empathyیکدلی for that experienceتجربه,
167
395240
3376
و او به میزان زیادی
همذات‌پنداری را تجربه کرد،
06:50
whichکه was kindنوع of great.
168
398640
1256
که خیلی عالی بود.
06:51
So when he'dاو می خواهد come visitبازدید کنید in personفرد,
169
399920
1656
خب پس وقتی به‌شخصه برای ملاقات آمد،
06:53
he no longerطولانی تر stoodایستاد over me
as he was talkingصحبت کردن to me,
170
401600
2416
دیگر بالای سر من نمی‌ایستاد
وقتی با من حرف می‌زد،
06:56
he would sitنشستن down
and talk to me eyeچشم to eyeچشم,
171
404040
2096
او می‌نشست و با من چشم در چشم صحبت می‌کرد،
06:58
whichکه was kindنوع of a beautifulخوشگل thing.
172
406160
1736
که به نوعی نکتهٔ زیبایی بود.
06:59
So we actuallyدر واقع decidedقرار بر این شد
to look at this in the laboratoryآزمایشگاه
173
407920
2656
خب ما تصمیم گرفتیم تا این را
در آزمایشگاه بررسی کنیم
07:02
and see what othersدیگران kindsانواع of differencesتفاوت ها
things like robotربات heightارتفاع would make.
174
410600
3656
و ببینیم چه تفاوت‌های دیگری
مثل قد ربات ممکن است باشد.
07:06
And so halfنیم of the people in our studyمطالعه
used a shorterکوتاه تر robotربات,
175
414280
2856
نیمی از افراد مورد مطالعه
ربات‌های قدکوتاه‌تری داشتند،
07:09
halfنیم of the people in our studyمطالعه
used a tallerبلندتر robotربات
176
417160
2416
نیم دیگری از آن‌ها
ربات‌های قدبلندتری استفاده کردند
07:11
and we actuallyدر واقع foundپیدا شد
that the exactدقیق sameیکسان personفرد
177
419600
2256
و ما فهمیدیم همان شخصی
07:13
who has the exactدقیق sameیکسان bodyبدن
and saysمی گوید the exactدقیق sameیکسان things as someoneکسی,
178
421880
3336
که دقیقاً همان بدن را دارد
و دقیقاً همان حرف‌ها را بیان می‌کند
07:17
is more persuasiveمتقاعد کننده
and perceivedدرک شده as beingبودن more credibleقابل اعتماد
179
425240
2616
قانع‌کننده‌تر است و معتبرتر شناخته می‌شود
07:19
if they're in a tallerبلندتر robotربات formفرم.
180
427880
1656
اگر به شکل ربات قدبلندتری باشند،
07:21
It makesباعث می شود no rationalگویا senseاحساس,
181
429560
1816
منطقی به نظر نمی‌رسد،
07:23
but that's why we studyمطالعه psychologyروانشناسی.
182
431400
1696
به همین دلیل روان‌شناسی خواندیم.
07:25
And really, you know,
the way that Cliffصخره Nassسراسری would put this
183
433120
2856
و در واقع راهی که «کلیف نس» تعیین کرد
07:28
is that we're havingداشتن to dealمعامله
with these newجدید technologiesفن آوری ها
184
436000
3016
این بود که ما مجبوریم
با این تکنولوژی‌های جدید مدارا کنیم
07:31
despiteبا وجود the factواقعیت
that we have very oldقدیمی brainsمغز.
185
439040
2736
علی‌رغم این که ما
مغز‌هایی بسیار قدیمی داریم.
07:33
Humanانسان psychologyروانشناسی is not changingتغییر دادن
at the sameیکسان speedسرعت that techتکنولوژی is
186
441800
2976
روان‌شناسی بشر به همان
سرعت تکنولوژی تغییر نمی‌کند
07:36
and so we're always playingبازی کردن catch-upبالا رفتن,
187
444800
1816
و ما همیشه سعی می‌کنیم عقب نمانیم،
07:38
tryingتلاش کن to make senseاحساس of this worldجهان
188
446640
1656
تلاش می‌کنیم به این جهان معنا بدهیم
07:40
where these autonomousخود مختار things
are runningدر حال اجرا around.
189
448320
2336
جایی که این اشیاء مستقل
در اطراف ما فعالیت می‌کنند.
07:42
Usuallyمعمولا, things that talk are people,
not machinesماشین آلات, right?
190
450680
2736
معمولا آنچه صحبت می‌کند انسان‌ها هستند،
نه ماشین، درسته؟
07:45
And so we breatheتنفس کنید a lot of meaningبه معنی
into things like just heightارتفاع of a machineدستگاه,
191
453440
4576
و ما معنا‌های زیادی برای اشیاء خلق می‌کنیم
مثل ارتفاع یک ماشین،
07:50
not a personفرد,
192
458040
1256
نه یک انسان،
07:51
and attributeصفت that
to the personفرد usingاستفاده كردن the systemسیستم.
193
459320
2360
و به فرد مصرف‌کننده این سیستم
تشخص می‌دهیم.
07:55
You know, this, I think,
is really importantمهم
194
463120
2216
می‌دانید، فکر می‌کنم، این بسیار مهم است
07:57
when you're thinkingفكر كردن about roboticsروباتیک.
195
465360
1736
وقتی درباره‌ٔ رباتیک فکر می‌کنید.
07:59
It's not so much about reinventingنوآوری humansانسان,
196
467120
2096
این درباره‌ٔ اختراع
دوباره‌ٔ انسان‌ها نیست،
08:01
it's more about figuringبدانید out
how we extendگسترش ourselvesخودمان, right?
197
469240
3136
بیشتر درک این است که چه‌طور
از توانایی خود استفاده می‌کنیم، درسته؟
08:04
And we endپایان up usingاستفاده كردن things
in waysراه ها that are sortمرتب سازی of surprisingشگفت آور.
198
472400
2976
و ما طوری از این اشیاء استفاده می‌کنیم
که تعجب‌برانگیز است.
08:07
So these guys can't playبازی poolاستخر
because the robotsروبات ها don't have armsبازوها,
199
475400
4256
خب این دوستان نمی‌توانند بیلیارد بازی کنند
چون ربات‌ها بازو ندارند،
08:11
but they can heckleحشره کشیدن the guys
who are playingبازی کردن poolاستخر
200
479680
2336
اما می‌توانند شلوغ کنند
وقتی دیگران بازی می‌کنند
08:14
and that can be an importantمهم thing
for teamتیم bondingپیوند,
201
482040
3176
و این می‌تواند برای همبستگی تیمی
بسیار مهم باشد،
08:17
whichکه is kindنوع of neatشسته و رفته.
202
485240
1296
که به نوعی خوب است.
08:18
People who get really good
at operatingعامل these systemsسیستم های
203
486560
2496
افرادی که خوب می‌توانند
این سیستم‌ها را اجرا کنند
08:21
will even do things
like make up newجدید gamesبازی ها,
204
489080
2056
حتی ساختن بازی‌های جدید را
انجام خواهند داد،
08:23
like robotربات soccerفوتبال
in the middleوسط of the night,
205
491160
2136
مثل فوتبال ربات‌ها در نیمه شب،
08:25
pushingهل دادن the trashزباله ها cansقوطی ها around.
206
493320
1456
پرت کردن کنسرو خالی به اطراف.
08:26
But not everyone'sهر کس good.
207
494800
1576
اما همه خوب نیستند.
08:28
A lot of people have troubleمشکل
operatingعامل these systemsسیستم های.
208
496400
2496
بسیاری از افراد در اجرای
این سیستم‌ها مشکل دارند.
08:30
This is actuallyدر واقع a guy
who loggedوارد شده into the robotربات
209
498920
2256
این در واقع فردی است
که به یک ربات وارد شده است
08:33
and his eyeballابرو was turnedتبدیل شد
90 degreesدرجه to the left.
210
501200
2376
و چشم او ۹۰ درجه به چپ می‌چرخید.
08:35
He didn't know that,
211
503600
1256
او این را نمی‌دانست،
08:36
so he endedبه پایان رسید up just bashingلگد زدن
around the officeدفتر,
212
504880
2176
خب او فقط اطراف دفتر می‌چرخید،
08:39
runningدر حال اجرا into people'sمردم desksمیزها,
gettingگرفتن superفوق العاده embarrassedخجالت زده,
213
507080
2616
به میز افراد نزدیک می‌شد
و بسیار خجالت‌زده می‌شد
08:41
laughingخندیدن about it --
his volumeحجم was way too highبالا.
214
509720
2336
و می‌خندید -- صدای او بسیار بلند بود.
08:44
And this guy here
in the imageتصویر is tellingگفتن me,
215
512080
2136
و این فرد اینجا در تصویر به من می‌گوید،
08:46
"We need a robotربات muteبی صدا buttonدکمه."
216
514240
2096
«ما به یک دکمهٔ ربات خاموش‌کن نیاز داریم.»
08:48
And by that what he really meantبه معنای
was we don't want it to be so disruptiveمخرب.
217
516360
3496
منظور او این بود
که ما نمی‌خواهیم او خیلی مختل‌کننده باشد.
08:51
So as a roboticsروباتیک companyشرکت,
218
519880
1616
پس به عنوان یک شرکت رباتیک،
08:53
we addedاضافه some obstacleمانع
avoidanceاجتناب to the systemسیستم.
219
521520
2456
ما چند اجتناب از مانع
به سیستم اضافه کردیم.
08:56
It got a little laserلیزر rangeدامنه finderیابنده
that could see the obstaclesموانع,
220
524000
3056
آن یک رهیاب لیزری کوچک گرفت
که می‌توانست موانع را ببیند،
08:59
and if I as a robotربات operatorاپراتور
try to say, runاجرا کن into a chairصندلی,
221
527080
3136
و اگر من به عنوان عامل ربات
بخواهم بگویم، برو به سمت صندلی،
09:02
it wouldn'tنمی خواهم let me,
it would just planطرح a pathمسیر around,
222
530240
2496
آن به من اجازه نمی‌دهد،
فقط برای مسیر برنامه می‌دهد،
09:04
whichکه seemsبه نظر می رسد like a good ideaاندیشه.
223
532760
1856
که به نظر ایدهٔ خوبی می‌رسد.
09:06
People did hitاصابت fewerکمتر obstaclesموانع
usingاستفاده كردن that systemسیستم, obviouslyبدیهی است,
224
534640
3176
افراد با استفاده از این دستگاه
به موانع کمتری برخورد می‌کردند،
09:09
but actuallyدر واقع, for some of the people,
225
537840
2096
اما در واقع، برای بعضی از افراد،
09:11
it tookگرفت them a lot longerطولانی تر
to get throughاز طریق our obstacleمانع courseدوره,
226
539960
2856
زمان بیشتری لازم بود
تا دورهٔ موانع ما را از سر بگذرانند،
09:14
and we wanted to know why.
227
542840
1560
و ما می‌خواستیم بدانیم چرا.
09:17
It turnsچرخش out that there's
this importantمهم humanانسان dimensionابعاد --
228
545080
3056
این اتفاق می‌افتد
چون این بُعد انسانی مهم وجود دارد
09:20
a personalityشخصیت dimensionابعاد
calledبه نام locusمحله of controlکنترل,
229
548160
2296
یک بُعد شخصیتی
که منبع کنترل نامیده می‌شود،
09:22
and people who have
a strongقوی internalداخلی locusمحله of controlکنترل,
230
550480
3136
و افرادی که منبع کنترل داخلی قوی دارند،
09:25
they need to be the mastersکارشناسی ارشد
of theirخودشان ownخودت destinyسرنوشت --
231
553640
3056
نیاز دارند تا بر سرنوشت خود مسلط باشند --
09:28
really don't like givingدادن up controlکنترل
to an autonomousخود مختار systemسیستم --
232
556720
3096
و واقعاً دوست ندارند
تا کنترل را به یک سیستم مستقل بدهند --
09:31
so much so that they will
fightمبارزه کردن the autonomyخودمختاری;
233
559840
2136
پس به احتمال زیاد
با این رویه مبارزه می‌کنند
09:34
"If I want to hitاصابت that chairصندلی,
I'm going to hitاصابت that chairصندلی."
234
562000
3096
«اگر می‌خواهم به آن صندلی بزنم،
واقعا می‌خواهم این کار را بکنم.»
09:37
And so they would actuallyدر واقع sufferرنج بردن
from havingداشتن that autonomousخود مختار assistanceمعاونت,
235
565120
3616
و آن‌ها واقعاً از داشتن
این کمک‌های خودکار رنج می‌برند،
09:40
whichکه is an importantمهم thing for us to know
236
568760
2576
آنچه برای ما بسیار مهم است که بشناسیم
09:43
as we're buildingساختمان increasinglyبه طور فزاینده
autonomousخود مختار, say, carsماشین ها, right?
237
571360
3296
چون ما روزافزون سیستم‌های خودکار
مثل ماشین می‌سازیم، درسته؟
09:46
How are differentناهمسان people going
to grappleچنگ زدن with that lossاز دست دادن of controlکنترل?
238
574680
3360
افراد به چه روش‌های متفاوتی
با این از دست دادن کنترل کنار می‌آیند؟
09:50
It's going to be differentناهمسان
dependingبستگی دارد on humanانسان dimensionsابعاد.
239
578880
2696
این می‌تواند وابسته
به ابعاد انسانی متفاوت باشد.
09:53
We can't treatدرمان شود humansانسان
as if we're just one monolithicیکپارچه thing.
240
581600
3496
نمی‌توانیم با انسان‌ها طوری رفتار کنیم
انگار ما فقط یک شیء بی‌جان هستیم.
09:57
We varyمتفاوت by personalityشخصیت, by cultureفرهنگ,
241
585120
2416
ما با شخصیت و فرهنگ از هم متمایز می‌شویم،
09:59
we even varyمتفاوت by emotionalعاطفی stateحالت
momentلحظه to momentلحظه,
242
587560
2456
حتی وضعیت احساسی تفاوت ایجاد می‌کند
لحظه به لحظه،
10:02
and beingبودن ableتوانایی to designطرح these systemsسیستم های,
243
590040
1976
و ما را قادر به طراحی این سیستم‌ها می‌کند،
10:04
these human-robotانسان ربات interactionاثر متقابل systemsسیستم های,
244
592040
2296
این سیستم‌های تعامل انسان-ربات،
10:06
we need to take into accountحساب
the humanانسان dimensionsابعاد,
245
594360
2736
ما نیاز داریم تا ابعاد انسانی را
مد نظر قرار دهیم،
10:09
not just the technologicalتکنولوژیکی onesآنهایی که.
246
597120
1720
نه فقط ابعاد فنی و تکنولوژیکی را.
10:11
Alongدر امتداد with a senseاحساس of controlکنترل
alsoهمچنین comesمی آید a senseاحساس of responsibilityمسئوليت.
247
599640
4296
همراه با حس کنترل،
حس مسئولیت‌پذیری هم می‌آید.
10:15
And if you were a robotربات operatorاپراتور
usingاستفاده كردن one of these systemsسیستم های,
248
603960
2856
و اگر شما عامل رباتی باشید
که از این سیستم‌ها استفاده می‌کنید
10:18
this is what the interfaceرابط
would look like.
249
606840
2056
واسطه کامپیوتری به این شبیه است
10:20
It looksبه نظر می رسد a little bitبیت like a videoویدئو gameبازی,
250
608920
1936
این تا حدی شبیه به یک بازی ویدیویی است،
10:22
whichکه can be good because
that's very familiarآشنا to people,
251
610880
2976
آنچه می‌تواند خوب باشد
چون برای افراد بسیار آشناست،
10:25
but it can alsoهمچنین be badبد
252
613880
1216
اما بد هم می‌تواند باشد
10:27
because it makesباعث می شود people feel
like it's a videoویدئو gameبازی.
253
615120
2456
چون افراد احساس می‌کنند
شبیه یک بازی ویدیویی است.
10:29
We had a bunchدسته ای of kidsبچه ها
over at Stanfordاستنفورد playبازی with the systemسیستم
254
617600
2856
بچه‌های زیادی در استنفورد داشتیم
تا با این سیستم بازی کنند
10:32
and driveراندن the robotربات
around our officeدفتر in Menloمنلو Parkپارک,
255
620480
2456
و ربات‌ها را در دفتر ما
در «منلو پارک» راه ببرند،
10:34
and the kidsبچه ها startedآغاز شده sayingگفت: things like,
256
622960
1936
بچه‌ها شروع کردند به گفتن این که،
10:36
"10 pointsنکته ها if you hitاصابت that guy over there.
20 pointsنکته ها for that one."
257
624920
3176
«۱۰ امتیاز اگر به آن فرد ضربه بزنی،
۲۰ امتیاز برای آن یکی.»
10:40
And they would
chaseتعقیب them down the hallwayراهرو.
258
628120
2016
و آن‌ها را در راهرو دنبال می‌کردند.
10:42
(Laughterخنده)
259
630160
1016
(خنده)
10:43
I told them, "Umاوم, those are realواقعی people.
260
631200
1936
به بچه‌ها گفتم، «آنها افراد واقعی هستند،
10:45
They're actuallyدر واقع going to bleedخونریزی
and feel painدرد if you hitاصابت them."
261
633160
3296
ممکن است خونریزی کنند یا درد داشته باشند
اگر به آنها ضربه بزنید.»
10:48
And they'dآنها می خواهند be like, "OK, got it."
262
636480
1616
و واکنش این بود، «باشه، فهمیدم.»
10:50
But fiveپنج minutesدقایق laterبعد,
they would be like,
263
638120
2056
اما پنج دقیقه بعد،
رفتار آن‌ها این طوری بود،
10:52
"20 pointsنکته ها for that guy over there,
he just looksبه نظر می رسد like he needsنیاز دارد to get hitاصابت."
264
640200
3616
«۲۰ امتیاز برای آن فردی که آنجاست،
چهره‌اش می‌گوید می‌خواهد ضربه بخورد.»
10:55
It's a little bitبیت
like "Ender'sدو Gameبازی," right?
265
643840
2136
این کمی شبیه فیلم «اِندرز گیم» است، درسته؟
10:58
There is a realواقعی worldجهان on that other sideسمت
266
646000
1936
دنیای واقعی در طرف دیگر وجود دارد
10:59
and I think it's our responsibilityمسئوليت
as people designingطراحی these interfacesرابط ها
267
647960
3416
و فکر می‌کنم این مسئولیت ما است
به عنوان طراحان این واسطه‌های کامپیوتری
11:03
to help people rememberیاد آوردن
268
651400
1256
تا به افراد یادآوری کنیم
11:04
that there's realواقعی consequencesعواقب
to theirخودشان actionsاقدامات
269
652680
2256
نتایج واقعی برای اعمال آن‌ها وجود دارد
11:06
and to feel a senseاحساس of responsibilityمسئوليت
270
654960
2296
تا حس مسئولیت داشته باشند
11:09
when they're operatingعامل
these increasinglyبه طور فزاینده autonomousخود مختار things.
271
657280
3280
وقتی با این ابزار‌های خودکار
رو به فزونی کار می‌کنند.
11:13
These are kindنوع of a great exampleمثال
272
661840
2296
این‌ها مثال‌های مهمی هستند
11:16
of experimentingتجربه کردن with one
possibleامکان پذیر است roboticروباتیک futureآینده,
273
664160
3256
از آزمایش یکی از آینده‌های محتمل رباتیک،
11:19
and I think it's prettyبسیار coolسرد
that we can extendگسترش ourselvesخودمان
274
667440
3856
فکر می‌کنم بسیار جالب است
که می‌توانیم خود را توانمندتر کنیم
11:23
and learnیاد گرفتن about the waysراه ها
that we extendگسترش ourselvesخودمان
275
671320
2336
و یاد بگیریم چه طور با این ماشین‌ها
11:25
into these machinesماشین آلات
276
673680
1216
توانمند شویم
11:26
while at the sameیکسان time
beingبودن ableتوانایی to expressبیان our humanityبشریت
277
674920
2696
در حالی که همزمان قادر باشیم
انسانیت خود را بیان کنیم
11:29
and our personalityشخصیت.
278
677640
1216
و شخصیت خود را.
11:30
We alsoهمچنین buildساختن empathyیکدلی for othersدیگران
279
678880
1576
همچنین می‌توانیم دیگران را بفهمیم
11:32
in termsاصطلاحات of beingبودن
shorterکوتاه تر, tallerبلندتر, fasterسریعتر, slowerآرام تر,
280
680480
3216
برای کوتاهی، بلندی، سریع‌تر، کُندتر بودن،
11:35
and maybe even armlessarmless,
281
683720
1416
و شاید حتی نداشتن دست،
11:37
whichکه is kindنوع of neatشسته و رفته.
282
685160
1336
که این همدلی خوب است.
11:38
We alsoهمچنین buildساختن empathyیکدلی
for the robotsروبات ها themselvesخودشان.
283
686520
2536
ما همچنین با ربات‌ها همذات‌پنداری می‌کنیم
11:41
This is one of my favoriteمورد علاقه robotsروبات ها.
284
689080
1656
این یکی از ربات‌های محبوب من است.
11:42
It's calledبه نام the TweenbotTweenbot.
285
690760
1456
به آن «تویین‌بات» می‌گویند.
11:44
And this guy has a little flagپرچم that saysمی گوید,
286
692240
1976
او یک پرچم کوچک دارد که می‌گوید،
11:46
"I'm tryingتلاش کن to get
to this intersectionتقاطع in Manhattanمنهتن,"
287
694240
2576
«من تلاش می‌کنم تا به این تقاطع
در منهتن برسم،»
11:48
and it's cuteجذاب and rollsرول
forwardرو به جلو, that's it.
288
696840
2776
این زیباست و به جلو حرکت می‌کند، همین.
11:51
It doesn't know how to buildساختن a mapنقشه,
it doesn't know how to see the worldجهان,
289
699640
3456
نمی‌داند چه طور نقشه بکشد،
نمی‌داند چه‌طور دنیا را ببیند،
11:55
it just asksمی پرسد for help.
290
703120
1256
فقط کمک می‌خواهد.
11:56
The niceخوب thing about people
291
704400
1336
نکته‌ٔ خوب درباره‌ٔ مردم
11:57
is that it can actuallyدر واقع dependبستگی دارد
uponبر the kindnessمهربانی of strangersغریبه ها.
292
705760
3096
این است که می‌تواند وابسته
به مهربانی غریبه‌ها باشد.
12:00
It did make it acrossدر سراسر the parkپارک
to the other sideسمت of Manhattanمنهتن --
293
708880
3896
او از پارک به طرف دیگر منهتن عبور کرد --
12:04
whichکه is prettyبسیار great --
294
712800
1256
که خیلی عالی است --
12:06
just because people would pickانتخاب کنید it up
and pointنقطه it in the right directionجهت.
295
714080
3456
فقط به خاطر این که مردم آن را برمی‌دارند
و در مسیر درست قرار می‌دهند.
12:09
(Laughterخنده)
296
717560
936
(خنده)
12:10
And that's great, right?
297
718520
1256
عالی است، نه؟
12:11
We're tryingتلاش کن to buildساختن
this human-robotانسان ربات worldجهان
298
719800
2696
ما تلاش می‌کنیم
این دنیای ربات-انسانی را بسازیم
12:14
in whichکه we can coexistهمزیستی
and collaborateهمکاری with one anotherیکی دیگر,
299
722520
3416
که در آن می‌توانیم با هم زندگی
و مشارکت کنیم،
12:17
and we don't need to be fullyبه طور کامل autonomousخود مختار
and just do things on our ownخودت.
300
725960
3376
ما نیاز نداریم کاملاً مستقل شویم
و همه کارها را خود انجام دهیم.
12:21
We actuallyدر واقع do things togetherبا یکدیگر.
301
729360
1496
همه چیز را با هم انجام می‌دهیم.
12:22
And to make that happenبه وقوع پیوستن,
302
730880
1256
و برای به اجرا در آمدن آن،
12:24
we actuallyدر واقع need help from people
like the artistsهنرمندان and the designersطراحان,
303
732160
3256
به کمک افرادی مثل هنرمندان
و طراحان نیاز داریم،
12:27
the policyسیاست makersسازندگان, the legalقانونی scholarsعالمان,
304
735440
1856
سیاست‌گذاران، اساتید حقوق،
12:29
psychologistsروانشناسان, sociologistsجامعه شناسان,
anthropologistsانسان شناسان --
305
737320
2216
روان‌شناسان، جامعه‌شناسان، مردم‌شناسان --
12:31
we need more perspectivesدیدگاه ها in the roomاتاق
306
739560
1816
ما به دیدگاه‌های بیشتری نیاز داریم
12:33
if we're going to do the thing
that Stuاستا Cardکارت saysمی گوید we should do,
307
741400
2976
اگر می‌خواهیم کاری کنیم
که استو کارد می‌گوید باید انجام بدهیم،
12:36
whichکه is inventاختراع کردن the futureآینده
that we actuallyدر واقع want to liveزنده in.
308
744400
3936
اختراع آینده‌ای که در واقع
می‌خواهیم در آن زندگی کنیم.
12:40
And I think we can continueادامه دهید to experimentآزمایشی
309
748360
2656
فکر می‌کنم می‌توانیم
به آزمایش کردن ادامه بدهیم
12:43
with these differentناهمسان
roboticروباتیک futuresآینده togetherبا یکدیگر,
310
751040
2176
با این آینده‌های رباتیک متفاوت با یکدیگر،
12:45
and in doing so, we will endپایان up
learningیادگیری a lot more about ourselvesخودمان.
311
753240
4680
و در حین انجام آن، ما بسیار بیشتر
درباره‌ٔ خود یاد می‌گیریم.
12:50
Thank you.
312
758720
1216
متشکرم.
12:51
(Applauseتشویق و تمجید)
313
759960
2440
(تشویق)
Translated by samira soltani
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com