ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

Лейла Такаяма: Каково это — быть роботом?

Filmed:
1,183,118 views

Мы уже давно живём среди роботов: инструменты и автоматы, такие как, например, посудомоечные машины и холодильники, настолько прочно вошли в нашу жизнь, что мы уже никогда не подумаем назвать их роботами. Как будет выглядеть будущее с ещё большим количеством роботов? Специалист в области общественных наук Лейла Такаяма рассказывает о некоторых уникальных проблемах проектирования взаимодействия роботов и людей, а также о том, как эксперименты с роботизированным будущим на самом деле приводят нас к лучшему пониманию самих себя.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chanceшанс
to make a first impressionвпечатление,
0
760
2656
Есть только один шанс
произвести первое впечатление,
00:15
and that's trueправда if you're a robotробот
as well as if you're a personчеловек.
1
3440
3176
и неважно, человек вы или робот.
00:18
The first time that I metвстретил
one of these robotsроботы
2
6640
3016
Впервые я увидела одного из этих роботов
00:21
was at a placeместо
calledназывается Willowива GarageГараж in 2008.
3
9680
2896
в компании Willow Garage в 2008 году.
00:24
When I wentотправился to visitпосещение there,
my hostхозяин walkedходил me into the buildingздание
4
12600
3016
По приезде меня проводили в здание,
00:27
and we metвстретил this little guy.
5
15640
1576
где я и встретила этого парнишку.
00:29
He was rollingпрокатка into the hallwayприхожая,
6
17240
1656
Он выкатился в коридор,
00:30
cameпришел up to me, satсидел there,
7
18920
1816
подъехал ко мне, остановился,
00:32
staredсмотрел blanklyбезучастно pastмимо me,
8
20760
2256
уставился куда-то сквозь меня,
00:35
did nothing for a while,
9
23040
1656
некоторое время не двигался,
00:36
rapidlyбыстро spunвращаться his headглава around 180 degreesстепени
10
24720
1936
быстро повернул голову на 180 градусов
00:38
and then ranпобежал away.
11
26680
1536
и уехал прочь.
00:40
And that was not a great first impressionвпечатление.
12
28240
2176
Первое впечатление было так себе.
00:42
The thing that I learnedнаучился
about robotsроботы that day
13
30440
2176
В тот день я поняла,
00:44
is that they kindсвоего рода of do theirих ownсвоя thing,
14
32640
2176
что роботы заняты своими делами
00:46
and they're not totallyполностью awareзнать of us.
15
34840
2136
и ничего не знают о нас.
00:49
And I think as we're experimentingэкспериментирование
with these possibleвозможное robotробот futuresфьючерсы,
16
37000
3239
Наши эксперименты
с роботизированным будущим
00:52
we actuallyна самом деле endконец up learningобучение
a lot more about ourselvesсами
17
40263
2673
в действительности помогают узнать
много нового о людях,
а не только о самих роботах.
00:54
as opposedпротив to just these machinesмашины.
18
42960
1656
00:56
And what I learnedнаучился that day
19
44640
1336
В тот день я поняла,
00:58
was that I had prettyСимпатичная highвысокая
expectationsожидания for this little dudeчувак.
20
46000
3416
что ожидала намного большего
от этого маленького чувака.
01:01
He was not only supposedпредполагаемый to be ableв состоянии
to navigateпроводить the physicalфизическое worldМир,
21
49440
3176
Предполагалось, что он
может ориентироваться
не только в физическом,
но и в социальном мире —
01:04
but alsoтакже be ableв состоянии
to navigateпроводить my socialСоциальное worldМир --
22
52640
2656
01:07
he's in my spaceпространство; it's a personalличный robotробот.
23
55320
2176
в моём пространстве; это же личный робот.
01:09
wWhywWhy didn't it understandПонимаю me?
24
57520
2016
Почему же он меня не понимает?
01:11
My hostхозяин explainedобъяснил to me,
25
59560
1256
Мой провожатый объяснил:
01:12
"Well, the robotробот is tryingпытаясь
to get from pointточка A to pointточка B,
26
60840
3176
«Робот пытается добраться
из пункта А в пункт Б,
01:16
and you were an obstacleпрепятствие in his way,
27
64040
1776
а ты преградила ему путь,
01:17
so he had to replanперепланировать his pathдорожка,
28
65840
2016
поэтому ему пришлось изменить траекторию,
01:19
figureфигура out where to go,
29
67880
1256
проложить новый маршрут
01:21
and then get there some other way,"
30
69160
1696
и добраться туда другим способом»,
01:22
whichкоторый was actuallyна самом деле
not a very efficientэффективное thing to do.
31
70880
2456
что в итоге оказалось не очень эффективно.
01:25
If that robotробот had figuredфигурный out
that I was a personчеловек, not a chairстул,
32
73360
3256
Если бы робот понял,
что я человек, а не стул,
01:28
and that I was willingготовы
to get out of its way
33
76640
2096
и что я была готова уйти с его пути,
01:30
if it was tryingпытаясь to get somewhereгде-то,
34
78760
1656
01:32
then it actuallyна самом деле
would have been more efficientэффективное
35
80440
2216
тогда он бы выполнил
свою задачу эффективнее;
01:34
at gettingполучение its jobработа doneсделанный
36
82680
1256
если бы он понял, что я, человек,
01:35
if it had botheredбеспокоили
to noticeуведомление that I was a humanчеловек
37
83960
2216
01:38
and that I have differentдругой affordancesПредоставляемости
than things like chairsстулья and wallsстены do.
38
86200
3576
способна на большее,
чем обычные стулья или стены.
01:41
You know, we tendиметь тенденцию to think of these robotsроботы
as beingявляющийся from outerвнешний spaceпространство
39
89800
3216
Мы привыкли думать, что роботы —
это нечто из космоса,
01:45
and from the futureбудущее
and from scienceнаука fictionфантастика,
40
93040
2136
из будущего, из научной фантастики.
01:47
and while that could be trueправда,
41
95200
1416
Возможно, так и есть,
но я бы поспорила с этим —
01:48
I'd actuallyна самом деле like to argueспорить
that robotsроботы are here todayCегодня,
42
96640
2656
01:51
and they liveжить and work
amongstсреди us right now.
43
99320
2776
роботы уже живут и работают среди нас.
01:54
These are two robotsроботы that liveжить in my home.
44
102120
2856
Эти два робота живут у меня дома.
01:57
They vacuumвакуум the floorsэтажей
and they cutпорез the grassтрава
45
105000
2496
Они пылесосят и подстригают газон
01:59
everyкаждый singleОдин day,
46
107520
1216
каждый день;
02:00
whichкоторый is more than I would do
if I actuallyна самом деле had time to do these tasksзадания,
47
108760
3376
даже будь у меня больше времени,
я бы всё равно не превзошла бы их
02:04
and they probablyвероятно
do it better than I would, too.
48
112160
2336
по количеству и качеству
выполняемой работы.
02:06
This one actuallyна самом деле takes careзабота of my kittyКитти.
49
114520
2496
Вот этот робот ухаживает за моим котом.
02:09
Everyкаждый singleОдин time
he usesиспользования the boxкоробка, it cleansочищает it,
50
117040
2576
Он чистит кошачий лоток
после каждого использования,
02:11
whichкоторый is not something I'm willingготовы to do,
51
119640
1976
чего мне делать не очень-то хочется,
02:13
and it actuallyна самом деле makesмарки
his life better as well as mineмой.
52
121640
2576
и это действительно
облегчает всем нам жизнь.
02:16
And while we call these robotробот productsпродукты --
53
124240
2416
Думаю, помимо так называемых
02:18
it's a "robotробот vacuumвакуум cleanerочиститель,
it's a robotробот lawnmowerгазонокосилка,
54
126680
2696
роботов-пылесосов,
роботов-газонокосильщиков
02:21
it's a robotробот littlerЛиттлер boxкоробка,"
55
129400
1495
и роботов-мусоросборщиков,
02:22
I think there's actuallyна самом деле a bunchгроздь
of other robotsроботы hidingпрячется in plainгладкий sightвзгляд
56
130919
4137
у нас на виду скрывается
множество других роботов;
02:27
that have just becomeстали so darnштопать usefulполезным
57
135080
1856
они стали настолько полезными
02:28
and so darnштопать mundaneмирской
58
136960
1456
и привычными,
например посудомоечные машины.
02:30
that we call them things
like, "dishwasherпосудомоечная машина," right?
59
138440
2496
02:32
They get newновый namesимена.
60
140960
1216
У них новые имена.
02:34
They don't get calledназывается robotробот anymoreбольше не
61
142200
1696
Их больше не называют роботами,
потому что они играют
важную роль в нашей жизни.
02:35
because they actuallyна самом деле
serveобслуживать a purposeцель in our livesжизни.
62
143920
2416
02:38
Similarlyпо аналогии, a thermostatтермостат, right?
63
146360
1496
Точно так же термостат, верно?
02:39
I know my roboticsробототехника friendsдрузья out there
64
147880
1776
Уверена, мои друзья-робототехники
содрогнутся, услышав,
что я называю его роботом.
02:41
are probablyвероятно cringingнизкопоклонство
at me callingпризвание this a robotробот,
65
149680
2336
Но он служит конкретной цели —
02:44
but it has a goalЦель.
66
152040
1256
02:45
Its goalЦель is to make my houseдом
66 degreesстепени FahrenheitФаренгейт,
67
153320
2896
поддерживать в доме
температуру 19 градусов по Цельсию
02:48
and it sensesчувств the worldМир.
68
156240
1256
и анализировать окружающую среду.
02:49
It knowsзнает it's a little bitнемного coldхолодно,
69
157520
1576
Он улавливает похолодание,
02:51
it makesмарки a planплан and then
it actsакты on the physicalфизическое worldМир.
70
159120
2616
планирует, а затем действует.
02:53
It's roboticsробототехника.
71
161760
1256
Это робототехника.
02:55
Even if it mightмог бы not
look like RosieРози the Robotробот,
72
163040
2576
Возможно, он не похож на робота Рози,
02:57
it's doing something
that's really usefulполезным in my life
73
165640
2936
но он всё равно приносит много пользы,
03:00
so I don't have to take careзабота
74
168600
1376
так что мне не нужно беспокоиться
03:02
of turningпревращение the temperatureтемпература
up and down myselfсебя.
75
170000
2576
о регулировании температуры.
03:04
And I think these systemsсистемы
liveжить and work amongstсреди us now,
76
172600
3816
Сегодня эти приборы существуют
и работают среди нас,
03:08
and not only are these systemsсистемы
livingживой amongstсреди us
77
176440
2336
причём, возможно,
03:10
but you are probablyвероятно
a robotробот operatorоператор, too.
78
178800
2656
вы сами управляете роботом.
03:13
When you driveводить машину your carавтомобиль,
79
181480
1256
Во время вождения кажется,
03:14
it feelsчувствует like you are operatingоперационная machineryмашины.
80
182760
2216
что вы управляете механизмом.
03:17
You are alsoтакже going
from pointточка A to pointточка B,
81
185000
2816
Вы также движетесь из пункта А в пункт Б,
03:19
but your carавтомобиль probablyвероятно has powerмощность steeringрулевое управление,
82
187840
2216
но у машины, вероятно,
есть усилитель руля,
03:22
it probablyвероятно has automaticавтоматический brakingторможение systemsсистемы,
83
190080
2696
система автоматического торможения,
03:24
it mightмог бы have an automaticавтоматический transmissionкоробка передач
and maybe even adaptiveадаптивный cruiseкруиз controlконтроль.
84
192800
3736
автоматическая коробка передач
и даже адаптивный круиз-контроль.
03:28
And while it mightмог бы not be
a fullyв полной мере autonomousавтономный carавтомобиль,
85
196560
2936
Пока это лишь частично
автономный автомобиль,
03:31
it has bitsбиты of autonomyавтономия,
86
199520
1296
но то, что есть, уже приносит пользу
03:32
and they're so usefulполезным
87
200840
1336
03:34
and they make us driveводить машину saferбезопаснее,
88
202200
1816
и делает нашу жизнь безопаснее,
03:36
and we just sortСортировать of feel
like they're invisible-in-useневидимый в эксплуатации, right?
89
204040
3656
мы лишь чувствуем эту незримую поддержку.
03:39
So when you're drivingвождение your carавтомобиль,
90
207720
1576
Так что, управляя автомобилем,
03:41
you should just feel like
you're going from one placeместо to anotherдругой.
91
209320
3096
нужно лишь чувствовать, что вы едете
из пункта А в пункт Б.
03:44
It doesn't feel like it's this bigбольшой thing
that you have to dealпо рукам with and operateработать
92
212440
3736
Вы не чувствуете, что вам нужно
управлять этой махиной
с помощью кучи рычагов —
03:48
and use these controlsуправления
93
216200
1256
03:49
because we spentпотраченный so long
learningобучение how to driveводить машину
94
217480
2176
вы долго учитесь водить,
и все детали становятся
03:51
that they'veони имеют becomeстали
extensionsрасширения of ourselvesсами.
95
219680
2696
практически продолжением вас самих.
03:54
When you parkпарк that carавтомобиль
in that tightв обтяжку little garageгараж spaceпространство,
96
222400
2696
Когда вы паркуетесь в тесном гараже,
03:57
you know where your cornersуглы are.
97
225120
1576
вы знаете габариты автомобиля.
03:58
And when you driveводить машину a rentalаренда carавтомобиль
that maybe you haven'tне drivenуправляемый before,
98
226720
3256
Но за рулём арендованного или нового авто
04:02
it takes some time
to get used to your newновый robotробот bodyтело.
99
230000
3056
вам нужно время, чтобы привыкнуть
к новому роботизированному телу.
04:05
And this is alsoтакже trueправда for people
who operateработать other typesтипы of robotsроботы,
100
233080
3976
То же самое характерно для людей,
которые управляют другими роботами,
04:09
so I'd like to shareдоля with you
a fewмало storiesистории about that.
101
237080
2600
и сегодня я хочу рассказать пару историй.
Решение проблемы
удалённого сотрудничества.
04:12
DealingРабота with the problemпроблема
of remoteдистанционный пульт collaborationсотрудничество.
102
240240
2336
04:14
So, at Willowива GarageГараж
I had a coworkerколлега по работе namedназванный DallasДаллас,
103
242600
2576
Мой коллега в Willow Garage Даллас
04:17
and DallasДаллас lookedсмотрел like this.
104
245200
1576
выглядел вот так.
04:18
He workedработал from his home in IndianaИндиана
in our companyКомпания in CaliforniaКалифорния.
105
246800
4056
Он работал удалённо из Индианы
в нашей компании в Калифорнии.
04:22
He was a voiceголос in a boxкоробка
on the tableТаблица in mostбольшинство of our meetingsвстречи,
106
250880
2936
На совещаниях он был голосом,
доносящимся из ящика на столе.
04:25
whichкоторый was kindсвоего рода of OK
exceptКроме that, you know,
107
253840
2215
Обычно всё было хорошо,
но когда обстановка накалялась
и нам не нравились его идеи,
04:28
if we had a really heatedс подогревом debateобсуждение
and we didn't like what he was sayingпоговорка,
108
256079
3377
мы просто вырубали его.
04:31
we mightмог бы just hangвешать up on him.
109
259480
1416
(Смех)
04:32
(LaughterСмех)
110
260920
1015
Потом мы могли провести
совещание уже без него
04:33
Then we mightмог бы have a meetingвстреча
after that meetingвстреча
111
261959
2217
04:36
and actuallyна самом деле make the decisionsрешения
in the hallwayприхожая afterwardsвпоследствии
112
264200
2696
и принять все решения.
04:38
when he wasn'tне было there anymoreбольше не.
113
266920
1416
Для него это было не очень хорошо.
04:40
So that wasn'tне было so great for him.
114
268360
1576
В Willow создают роботов,
04:41
And as a roboticsробототехника companyКомпания at Willowива,
115
269960
1736
04:43
we had some extraдополнительный
robotробот bodyтело partsчасти layingпрокладка around,
116
271720
2336
поэтому у нас всюду валялись детали,
из которых Даллас
и его приятель Курт собрали это.
04:46
so DallasДаллас and his buddyдружище CurtКурт
put togetherвместе this thing,
117
274080
2496
Получился некий гибрид
Skype и палки на колёсах.
04:48
whichкоторый looksвыглядит kindсвоего рода of
like SkypeSkype on a stickпридерживаться on wheelsколеса,
118
276600
2936
04:51
whichкоторый seemsкажется like a techyобидчивый, sillyглупый toyигрушка,
119
279560
1736
Он казался глупой техноигрушкой,
04:53
but really it's probablyвероятно
one of the mostбольшинство powerfulмощный toolsинструменты
120
281320
2776
но, по моему опыту, это один
из самых мощных инструментов,
04:56
that I've seenвидели ever madeсделал
for remoteдистанционный пульт collaborationсотрудничество.
121
284120
2480
созданных для удалённого сотрудничества.
04:59
So now, if I didn't answerответ
Dallas'Даллас emailЭл. адрес questionвопрос,
122
287160
3496
Теперь, если я не отвечала
на вопросы Далласа по e-mail,
05:02
he could literallyбуквально rollрулон into my officeофис,
123
290680
2216
он буквально вкатывался в мой офис,
05:04
blockблок my doorwayдверной проем
and askпросить me the questionвопрос again --
124
292920
2576
загораживал дверной проём
и повторял свой вопрос,
05:07
(LaughterСмех)
125
295520
1016
(Смех)
05:08
untilдо I answeredответил it.
126
296560
1216
пока не получал ответ.
05:09
And I'm not going to turnочередь him off, right?
That's kindсвоего рода of rudeгрубый.
127
297800
2976
И я не могу его выключить, верно?
Это невежливо.
05:12
Not only was it good
for these one-on-oneодин на один communicationsсвязь,
128
300800
2696
Таким образом ему было удобно
общаться с глазу на глаз,
05:15
but alsoтакже for just showingпоказ up
at the companyКомпания all-handsвсе руки meetingвстреча.
129
303520
2936
а также присутствовать
на общих собраниях компании.
05:18
GettingПолучение your buttприклад in that chairстул
130
306480
1696
Втиснувшись в этот корпус,
05:20
and showingпоказ people that you're presentнастоящее время
and committedпривержен to your projectпроект
131
308200
3216
он демонстрирует своё присутствие
и участие в проекте,
05:23
is a bigбольшой dealпо рукам
132
311440
1256
что очень важно
05:24
and can help remoteдистанционный пульт collaborationсотрудничество a tonтонна.
133
312720
2176
и способствует удалённому сотрудничеству.
05:26
We saw this over the periodпериод
of monthsмесяцы and then yearsлет,
134
314920
2856
Мы наблюдали за этим несколько лет
05:29
not only at our companyКомпания
but at othersдругие, too.
135
317800
2160
не только в нашей компании, но и в других.
05:32
The bestЛучший thing that can happenслучаться
with these systemsсистемы
136
320720
2336
Эти системы дают важное преимущество —
05:35
is that it startsначинается to feel
like you're just there.
137
323080
2336
ощущение полного присутствия.
05:37
It's just you, it's just your bodyтело,
138
325440
1696
Это действительно вы, ваше тело,
05:39
and so people actuallyна самом деле startНачало
to give these things personalличный spaceпространство.
139
327160
3096
люди фактически начинают уважать
ваше личное пространство.
05:42
So when you're havingимеющий a stand-upВстаньте meetingвстреча,
140
330280
1976
Во время планёрки
сотрудники стоят вокруг вас,
05:44
people will standстоять around the spaceпространство
141
332280
1656
словно вы присутствуете здесь лично.
05:45
just as they would
if you were there in personчеловек.
142
333960
2216
Это здорово, пока ничего не сломается.
05:48
That's great untilдо
there's breakdownsсрывы and it's not.
143
336200
2576
05:50
People, when they first see these robotsроботы,
144
338800
1976
Увидев этих роботов впервые, люди говорят:
05:52
are like, "WowВау, where'sгде the componentsкомпоненты?
There mustдолжен be a cameraкамера over there,"
145
340800
3576
«Ого, а где все запчасти?
Вон там должна быть камера»,
и начинают тыкать вам в лицо.
05:56
and they startНачало pokingтыкать your faceлицо.
146
344400
1576
«Не слышно, что вы говорите,
я сделаю погромче».
05:58
"You're talkingговорящий too softlyмягко,
I'm going to turnочередь up your volumeобъем,"
147
346000
2936
Это как если бы ваш коллега
подошёл к вам и сказал:
06:00
whichкоторый is like havingимеющий a coworkerколлега по работе
walkходить up to you and say,
148
348960
2616
«Вы говорите слишком тихо,
я сейчас сделаю ваше лицо погромче».
06:03
"You're speakingГоворящий too softlyмягко,
I'm going to turnочередь up your faceлицо."
149
351600
2896
Неловкая ситуация.
06:06
That's awkwardнеловко and not OK,
150
354520
1256
06:07
and so we endконец up havingимеющий to buildстроить
these newновый socialСоциальное normsнормы
151
355800
2616
Поэтому мы создаём новые социальные нормы,
06:10
around usingс помощью these systemsсистемы.
152
358440
2216
применимые к этим системам.
06:12
Similarlyпо аналогии, as you startНачало
feelingчувство like it's your bodyтело,
153
360680
3416
Та же ситуация: когда вы начинаете
чувствовать, что это ваше тело,
06:16
you startНачало noticingзамечающий things like,
"Oh, my robotробот is kindсвоего рода of shortкороткая."
154
364120
3696
вы замечаете, что, например,
ваш робот низковат.
06:19
DallasДаллас would say things to me --
he was six-footшесть футов tallвысокий --
155
367840
2656
Рост Далласа 180 см,
06:22
and we would take him viaс помощью robotробот
to cocktailкоктейль partiesстороны and things like that,
156
370520
3456
а робота — 150 см, почти как у меня.
06:26
as you do,
157
374000
1216
Когда мы брали его робота
06:27
and the robotробот was about five-foot-tallпять футов высотой,
whichкоторый is closeЗакрыть to my heightвысота.
158
375240
3336
на разные вечеринки,
06:30
And he would tell me,
159
378600
1216
он мне говорил:
06:31
"You know, people are not
really looking at me.
160
379840
2536
«Знаешь, люди не особо
обращают на меня внимание.
06:34
I feel like I'm just looking
at this seaморе of shouldersплечи,
161
382400
2696
Такое ощущение, что я теряюсь в море спин,
06:37
and it's just -- we need a tallerболее высокий robotробот."
162
385120
1976
поэтому нам нужен робот повыше».
06:39
And I told him,
163
387120
1256
А я ему отвечаю:
06:40
"UmUm, no.
164
388400
1296
«Нет.
06:41
You get to walkходить in my shoesобувь for todayCегодня.
165
389720
1936
Сегодня ты побудешь в моей шкуре.
06:43
You get to see what it's like
to be on the shorterкороче endконец of the spectrumспектр."
166
391680
3536
Увидишь, каково это —
быть невысокого роста».
06:47
And he actuallyна самом деле endedзакончился up buildingздание
a lot of empathyсопереживание for that experienceопыт,
167
395240
3376
И он начал проявлять сочувствие —
06:50
whichкоторый was kindсвоего рода of great.
168
398640
1256
это было здорово.
06:51
So when he'dон come visitпосещение in personчеловек,
169
399920
1656
Когда он лично приходил ко мне,
06:53
he no longerдольше stoodстоял over me
as he was talkingговорящий to me,
170
401600
2416
он больше не нависал надо мной
во время разговора,
06:56
he would sitсидеть down
and talk to me eyeглаз to eyeглаз,
171
404040
2096
а садился напротив
и говорил глядя в глаза.
06:58
whichкоторый was kindсвоего рода of a beautifulкрасивая thing.
172
406160
1736
Это было замечательно.
06:59
So we actuallyна самом деле decidedприняли решение
to look at this in the laboratoryлаборатория
173
407920
2656
Поэтому мы решили
изучить это в лаборатории
07:02
and see what othersдругие kindsвиды of differencesразличия
things like robotробот heightвысота would make.
174
410600
3656
и понять, на что ещё могут повлиять
факторы вроде роста роботов.
07:06
And so halfполовина of the people in our studyизучение
used a shorterкороче robotробот,
175
414280
2856
Одна группа экспериментировала
с невысоким роботом,
07:09
halfполовина of the people in our studyизучение
used a tallerболее высокий robotробот
176
417160
2416
а другая — с высоким.
07:11
and we actuallyна самом деле foundнайденный
that the exactточный sameодна и та же personчеловек
177
419600
2256
Мы выяснили, что один и тот же человек
07:13
who has the exactточный sameодна и та же bodyтело
and saysговорит the exactточный sameодна и та же things as someoneкто то,
178
421880
3336
с тем же самым телом
и говорящий то же самое,
07:17
is more persuasiveубедительный
and perceivedвоспринимается as beingявляющийся more credibleзаслуживающий доверия
179
425240
2616
более убедителен
и вызывает большее доверие,
если использует высокого робота.
07:19
if they're in a tallerболее высокий robotробот formформа.
180
427880
1656
07:21
It makesмарки no rationalрациональный senseсмысл,
181
429560
1816
Это нелепо,
07:23
but that's why we studyизучение psychologyпсихология.
182
431400
1696
но именно затем мы и изучаем психологию.
07:25
And really, you know,
the way that Cliffутес NassНасс would put this
183
433120
2856
Клифф Насс сказал бы,
07:28
is that we're havingимеющий to dealпо рукам
with these newновый technologiesтехнологии
184
436000
3016
что нам приходится иметь дело
с этими новыми технологиями,
07:31
despiteнесмотря the factфакт
that we have very oldстарый brainsмозги.
185
439040
2736
при том, что мозги у нас очень старые.
07:33
HumanЧеловек psychologyпсихология is not changingизменения
at the sameодна и та же speedскорость that techтек is
186
441800
2976
Психология меняется
не так быстро, как техника,
07:36
and so we're always playingиграть catch-upнаверстать,
187
444800
1816
и поэтому мы всегда играем в догонялки,
07:38
tryingпытаясь to make senseсмысл of this worldМир
188
446640
1656
пытаясь осмыслить мир,
07:40
where these autonomousавтономный things
are runningБег around.
189
448320
2336
в котором существуют эти автономные штуки.
07:42
UsuallyКак правило, things that talk are people,
not machinesмашины, right?
190
450680
2736
Обычно говорят люди, а не роботы.
07:45
And so we breatheдышать a lot of meaningимея в виду
into things like just heightвысота of a machineмашина,
191
453440
4576
Поэтому мы придаём большое значение
таким вещам, как рост робота,
07:50
not a personчеловек,
192
458040
1256
а не человека,
07:51
and attributeатрибут that
to the personчеловек usingс помощью the systemсистема.
193
459320
2360
и приписываем их человеку,
использующему робота.
07:55
You know, this, I think,
is really importantважный
194
463120
2216
На мой взгляд, этот факт важен,
07:57
when you're thinkingмышление about roboticsробототехника.
195
465360
1736
когда речь идёт о роботах.
07:59
It's not so much about reinventingизобретать humansлюди,
196
467120
2096
Мы не просто создаём
новую модель человечества,
08:01
it's more about figuringвычисляя out
how we extendпростираться ourselvesсами, right?
197
469240
3136
мы расширяем свои возможности.
08:04
And we endконец up usingс помощью things
in waysпути that are sortСортировать of surprisingудивительный.
198
472400
2976
В конечном итоге мы используем вещи
нестандартным образом.
08:07
So these guys can't playиграть poolбассейн
because the robotsроботы don't have armsоружие,
199
475400
4256
Эти ребята не могут играть в бильярд,
потому что у роботов нет рук,
08:11
but they can heckleчесать лен the guys
who are playingиграть poolбассейн
200
479680
2336
но могут подшучивать над теми, кто играет,
08:14
and that can be an importantважный thing
for teamкоманда bondingсклеивание,
201
482040
3176
а это очень важно для укрепления команды,
08:17
whichкоторый is kindсвоего рода of neatаккуратный.
202
485240
1296
что тоже классно.
08:18
People who get really good
at operatingоперационная these systemsсистемы
203
486560
2496
Люди, хорошо справляющиеся
с этими системами,
08:21
will even do things
like make up newновый gamesигры,
204
489080
2056
в итоге создадут новые игры,
08:23
like robotробот soccerфутбольный
in the middleсредний of the night,
205
491160
2136
например, полуночный футбол для роботов
с консервными банками вместо мяча.
08:25
pushingтолкая the trashмусор cansбанки around.
206
493320
1456
08:26
But not everyone'sвсе это good.
207
494800
1576
Но не у всех получается.
08:28
A lot of people have troubleбеда
operatingоперационная these systemsсистемы.
208
496400
2496
У многих людей возникают проблемы.
08:30
This is actuallyна самом деле a guy
who loggedвойти into the robotробот
209
498920
2256
Этот парень подключился к роботу,
видоискатель которого
повернулся влево на 90 градусов.
08:33
and his eyeballглазное яблоко was turnedоказалось
90 degreesстепени to the left.
210
501200
2376
08:35
He didn't know that,
211
503600
1256
Он не знал об этом,
08:36
so he endedзакончился up just bashingтрепку
around the officeофис,
212
504880
2176
поэтому слонялся по офису,
08:39
runningБег into people'sнародный desksпарты,
gettingполучение superсупер embarrassedсмущенный,
213
507080
2616
врезался в столы, смущался,
сопровождая всё громким смехом, —
08:41
laughingсмеющийся about it --
his volumeобъем was way too highвысокая.
214
509720
2336
динамики робота были не настроены.
08:44
And this guy here
in the imageобраз is tellingговоря me,
215
512080
2136
А парень на этом фото говорит:
08:46
"We need a robotробот muteнемой buttonкнопка."
216
514240
2096
«Роботу нужна кнопка отключения звука».
08:48
And by that what he really meantимел ввиду
was we don't want it to be so disruptiveразрушительный.
217
516360
3496
Он имел в виду, что мы не хотим,
чтобы роботы кому-то мешали.
08:51
So as a roboticsробототехника companyКомпания,
218
519880
1616
Поэтому, будучи робототехниками,
08:53
we addedдобавленной some obstacleпрепятствие
avoidanceуклонение to the systemсистема.
219
521520
2456
мы добавили роботу систему
уклонения от препятствий.
08:56
It got a little laserлазер rangeассортимент finderискатель
that could see the obstaclesпрепятствий,
220
524000
3056
Встроенный лазерный дальномер
распознаёт препятствия,
08:59
and if I as a robotробот operatorоператор
try to say, runбег into a chairстул,
221
527080
3136
и, если на пути возникнет стул,
он не позволит роботу в него врезаться,
а проложит другой маршрут.
09:02
it wouldn'tне будет let me,
it would just planплан a pathдорожка around,
222
530240
2496
09:04
whichкоторый seemsкажется like a good ideaидея.
223
532760
1856
Неплохая идея, правда?
09:06
People did hitудар fewerменьше obstaclesпрепятствий
usingс помощью that systemсистема, obviouslyочевидно,
224
534640
3176
Эта система позволяет избежать
большинства столкновений,
09:09
but actuallyна самом деле, for some of the people,
225
537840
2096
но некоторые люди тратили больше времени
09:11
it tookвзял them a lot longerдольше
to get throughчерез our obstacleпрепятствие courseкурс,
226
539960
2856
на прохождение нашей полосы препятствий,
09:14
and we wanted to know why.
227
542840
1560
и мы хотели знать причину.
09:17
It turnsвитки out that there's
this importantважный humanчеловек dimensionизмерение --
228
545080
3056
Оказалось, у человека
есть важное свойство —
09:20
a personalityличность dimensionизмерение
calledназывается locusгодограф of controlконтроль,
229
548160
2296
локус управления,
09:22
and people who have
a strongсильный internalвнутренний locusгодограф of controlконтроль,
230
550480
3136
люди, у которых он сильно развит,
09:25
they need to be the mastersмастера
of theirих ownсвоя destinyсудьба --
231
553640
3056
привыкли всё контролировать,
09:28
really don't like givingдающий up controlконтроль
to an autonomousавтономный systemсистема --
232
556720
3096
поэтому они не могут позволить
роботу управлять собой,
09:31
so much so that they will
fightборьба the autonomyавтономия;
233
559840
2136
он развит настолько,
что они будут бороться с роботом.
09:34
"If I want to hitудар that chairстул,
I'm going to hitудар that chairстул."
234
562000
3096
«Если я хочу наткнуться на этот стул,
я на него наткнусь».
09:37
And so they would actuallyна самом деле sufferстрадать
from havingимеющий that autonomousавтономный assistanceпомощь,
235
565120
3616
В итоге автономная
помощь им только мешала.
09:40
whichкоторый is an importantважный thing for us to know
236
568760
2576
Нам эта информация была очень важна,
09:43
as we're buildingздание increasinglyвсе больше и больше
autonomousавтономный, say, carsлегковые автомобили, right?
237
571360
3296
поскольку мы создаём
сверхавтономные механизмы,
например автомобили.
09:46
How are differentдругой people going
to grappleсцепиться with that lossпотеря of controlконтроль?
238
574680
3360
Как люди справятся с потерей контроля?
09:50
It's going to be differentдругой
dependingв зависимости on humanчеловек dimensionsГабаритные размеры.
239
578880
2696
Всё зависит от характера самого человека.
09:53
We can't treatрассматривать humansлюди
as if we're just one monolithicмонолитный thing.
240
581600
3496
Нельзя воспринимать людей
как нечто однотипное.
09:57
We varyварьировать by personalityличность, by cultureкультура,
241
585120
2416
Мы отличаемся личными
качествами, культурой,
09:59
we even varyварьировать by emotionalэмоциональный stateгосударство
momentмомент to momentмомент,
242
587560
2456
изменчивостью эмоционального состояния.
10:02
and beingявляющийся ableв состоянии to designдизайн these systemsсистемы,
243
590040
1976
Поэтому при разработке
10:04
these human-robotчеловек-робот interactionвзаимодействие systemsсистемы,
244
592040
2296
этих систем взаимодействия
человека с роботом
10:06
we need to take into accountСчет
the humanчеловек dimensionsГабаритные размеры,
245
594360
2736
мы должны учитывать качества людей,
10:09
not just the technologicalтехнологический onesте,.
246
597120
1720
а не только технические характеристики.
10:11
AlongВдоль with a senseсмысл of controlконтроль
alsoтакже comesвыходит a senseсмысл of responsibilityобязанность.
247
599640
4296
Наряду с чувством контроля
существует чувство ответственности.
10:15
And if you were a robotробот operatorоператор
usingс помощью one of these systemsсистемы,
248
603960
2856
Когда вы управляете роботом,
используя одну из этих систем,
10:18
this is what the interfaceинтерфейс
would look like.
249
606840
2056
интерфейс будет выглядеть так.
10:20
It looksвыглядит a little bitнемного like a videoвидео gameигра,
250
608920
1936
Похоже на видеоигру,
10:22
whichкоторый can be good because
that's very familiarзнакомые to people,
251
610880
2976
что очень удобно,
поскольку люди с этим знакомы.
10:25
but it can alsoтакже be badПлохо
252
613880
1216
Недостаток в том,
10:27
because it makesмарки people feel
like it's a videoвидео gameигра.
253
615120
2456
что люди начинают
воспринимать это как видеоигру.
10:29
We had a bunchгроздь of kidsДети
over at StanfordStanford playиграть with the systemсистема
254
617600
2856
В Стэнфорде у нас была куча детей,
которые играли с роботами,
10:32
and driveводить машину the robotробот
around our officeофис in MenloМенло ParkПарк,
255
620480
2456
управляли ими в нашем офисе в Менло-Парке,
10:34
and the kidsДети startedначал sayingпоговорка things like,
256
622960
1936
и дети начали говорить:
10:36
"10 pointsточки if you hitудар that guy over there.
20 pointsточки for that one."
257
624920
3176
«10 очков, если ты ударишь этого парня.
20 — если того».
10:40
And they would
chaseгнаться them down the hallwayприхожая.
258
628120
2016
Роботы гонялись за людьми по коридору.
10:42
(LaughterСмех)
259
630160
1016
(Смех)
10:43
I told them, "UmUm, those are realреальный people.
260
631200
1936
Я сказала им: «Это реальные люди.
10:45
They're actuallyна самом деле going to bleedкровоточить
and feel painболь if you hitудар them."
261
633160
3296
От ваших ударов
им больно, и может пойти кровь.
10:48
And they'dони be like, "OK, got it."
262
636480
1616
Они ответили: «Хорошо. Понятно».
10:50
But five5 minutesминут laterпозже,
they would be like,
263
638120
2056
А через пять минут они говорят:
10:52
"20 pointsточки for that guy over there,
he just looksвыглядит like he needsпотребности to get hitудар."
264
640200
3616
«20 очков за того парня —
похоже, он хочет, чтобы его пнули».
10:55
It's a little bitнемного
like "Ender'sЭндер GameИгра," right?
265
643840
2136
Немного похоже на «Игру Эндера», верно?
10:58
There is a realреальный worldМир on that other sideбоковая сторона
266
646000
1936
По ту сторону существует настоящий мир,
10:59
and I think it's our responsibilityобязанность
as people designingпроектирование these interfacesинтерфейсы
267
647960
3416
и на нас, как на разработчиках интерфейса,
лежит ответственность за то,
11:03
to help people rememberзапомнить
268
651400
1256
чтобы помогать людям помнить
11:04
that there's realреальный consequencesпоследствия
to theirих actionsдействия
269
652680
2256
о реальных последствиях их действий,
11:06
and to feel a senseсмысл of responsibilityобязанность
270
654960
2296
они должны осознавать ответственность,
11:09
when they're operatingоперационная
these increasinglyвсе больше и больше autonomousавтономный things.
271
657280
3280
когда управляют этими
всё более автономными штуками.
11:13
These are kindсвоего рода of a great exampleпример
272
661840
2296
Это великолепный пример
11:16
of experimentingэкспериментирование with one
possibleвозможное roboticроботизированный futureбудущее,
273
664160
3256
экспериментов с возможным
будущим миром роботов,
11:19
and I think it's prettyСимпатичная coolкруто
that we can extendпростираться ourselvesсами
274
667440
3856
я считаю, очень круто попробовать
расширить возможности человека
и узнать, до какой степени
мы можем усовершенствоваться
11:23
and learnучить about the waysпути
that we extendпростираться ourselvesсами
275
671320
2336
11:25
into these machinesмашины
276
673680
1216
с помощью машин,
11:26
while at the sameодна и та же time
beingявляющийся ableв состоянии to expressэкспресс our humanityчеловечество
277
674920
2696
и одновременно как мы можем
выразить свою человечность
11:29
and our personalityличность.
278
677640
1216
и индивидуальность.
11:30
We alsoтакже buildстроить empathyсопереживание for othersдругие
279
678880
1576
Мы также учим сопереживать другим людям,
11:32
in termsсроки of beingявляющийся
shorterкороче, tallerболее высокий, fasterБыстрее, slowerпомедленнее,
280
680480
3216
будь они ниже или выше ростом,
быстрее или медленнее,
11:35
and maybe even armlessбезрукий,
281
683720
1416
возможно, даже безрукие, —
11:37
whichкоторый is kindсвоего рода of neatаккуратный.
282
685160
1336
и это здорово.
11:38
We alsoтакже buildстроить empathyсопереживание
for the robotsроботы themselvesсамих себя.
283
686520
2536
Мы учим сопереживать и самим роботам.
11:41
This is one of my favoriteлюбимый robotsроботы.
284
689080
1656
Один из моих любимых роботов —
11:42
It's calledназывается the TweenbotTweenbot.
285
690760
1456
его зовут Твинбот.
11:44
And this guy has a little flagфлаг that saysговорит,
286
692240
1976
У этого парня есть флажок с надписью:
11:46
"I'm tryingпытаясь to get
to this intersectionпересечение in ManhattanМанхеттен,"
287
694240
2576
«Я пытаюсь добраться
до перекрёстка на Манхэттене».
11:48
and it's cuteмилый and rollsроллы
forwardвперед, that's it.
288
696840
2776
Этот милашка просто катится вперёд и всё.
11:51
It doesn't know how to buildстроить a mapкарта,
it doesn't know how to see the worldМир,
289
699640
3456
Он не умеет рисовать карты, познавать мир,
11:55
it just asksспрашивает for help.
290
703120
1256
он просто просит о помощи.
11:56
The niceхороший thing about people
291
704400
1336
Люди не подкачали —
11:57
is that it can actuallyна самом деле dependзависеть
uponна the kindnessдоброта of strangersнезнакомцы.
292
705760
3096
этот робот фактически
зависит от доброты незнакомцев.
12:00
It did make it acrossчерез the parkпарк
to the other sideбоковая сторона of ManhattanМанхеттен --
293
708880
3896
Он проехал через парк
на другую сторону Манхэттена,
12:04
whichкоторый is prettyСимпатичная great --
294
712800
1256
что очень круто,
12:06
just because people would pickвыбирать it up
and pointточка it in the right directionнаправление.
295
714080
3456
потому что люди поднимали его
и задавали ему правильное направление.
12:09
(LaughterСмех)
296
717560
936
(Смех)
12:10
And that's great, right?
297
718520
1256
Это великолепно, правда?
12:11
We're tryingпытаясь to buildстроить
this human-robotчеловек-робот worldМир
298
719800
2696
Мы пытаемся создать мир
человекоподобных роботов,
12:14
in whichкоторый we can coexistсосуществовать
and collaborateсотрудничать with one anotherдругой,
299
722520
3416
в котором мы будем сосуществовать
и сотрудничать друг с другом,
12:17
and we don't need to be fullyв полной мере autonomousавтономный
and just do things on our ownсвоя.
300
725960
3376
и нам не нужно быть
полностью самостоятельными.
12:21
We actuallyна самом деле do things togetherвместе.
301
729360
1496
По сути, мы делаем всё вместе,
12:22
And to make that happenслучаться,
302
730880
1256
и чтобы это произошло,
12:24
we actuallyна самом деле need help from people
like the artistsхудожники and the designersдизайнеры,
303
732160
3256
нам необходима помощь людей —
художников, дизайнеров,
12:27
the policyполитика makersпроизводители, the legalправовой scholarsученые,
304
735440
1856
политиков, юристов,
12:29
psychologistsпсихологи, sociologistsсоциологи,
anthropologistsантропологи --
305
737320
2216
психологов, социологов, антропологов.
12:31
we need more perspectivesперспективы in the roomкомната
306
739560
1816
Нам нужно раздвинуть рамки,
12:33
if we're going to do the thing
that StuStu CardКарта saysговорит we should do,
307
741400
2976
если мы собираемся, как говорил Стью Кард,
12:36
whichкоторый is inventвыдумывать the futureбудущее
that we actuallyна самом деле want to liveжить in.
308
744400
3936
создать будущее, в котором
мы действительно хотим жить.
12:40
And I think we can continueПродолжать to experimentэксперимент
309
748360
2656
И мы можем продолжать эксперимент
12:43
with these differentдругой
roboticроботизированный futuresфьючерсы togetherвместе,
310
751040
2176
с этими разнообразными роботами,
12:45
and in doing so, we will endконец up
learningобучение a lot more about ourselvesсами.
311
753240
4680
в процессе которого мы сможем
лучше узнать самих себя.
12:50
Thank you.
312
758720
1216
Спасибо.
12:51
(ApplauseАплодисменты)
313
759960
2440
(Аплодисменты)
Translated by Alena Chernykh
Reviewed by Natalie Pysemska

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com