ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

ലൈല ടകയാമ: ഒരു യന്ത്രമനുഷ്യനായാൽ എങ്ങനെയിരിക്കും

Filmed:
1,183,118 views

നാം ഇപ്പോൾ തന്നെ യന്ത്രമനുഷ്യരുടെ ഇടയിലാണ് താമസിക്കുന്നത്: ഡിഷ് വാഷർ പോലെയുള്ള ഉപകരണങ്ങളും യന്ത്രങ്ങളും തെർമോസ്റ്റാറ്റുകളും നമ്മുടെ ജീവിതത്തിന്റെ ഭാഗമായതിനാൽ നാം അവയെ യന്ത്രമനുഷ്യരായി കാണുന്നില്ല. കൂടുതൽ റോബോട്ടുകളുള്ള ഒരു ഭാവി എങ്ങനെയിരിക്കും? മനുഷ്യരും യന്ത്രമനുഷ്യരുമായുള്ള ഇടപെടലുകൾ രൂപകൽപ്പന ചെയ്യുന്നതിലെ അനന്യമായ വെല്ലുവിളികൾ ലൈല ടകയാമ എന്ന സാമൂഹ്യ ശാസ്ത്രജ്ഞ പങ്കുവയ്ക്കുന്നു. റോബോട്ടുകൾ ഉൾപ്പെട്ട ഭാവിയെപ്പറ്റി പരീക്ഷണങ്ങൾ നടത്തുന്നത് നമുക്ക് നമ്മെപ്പറ്റിത്തന്നെ മനസ്സിലാക്കുവാനുള്ള സാഹചര്യമൊരുക്കുന്നതും പരാമർശിക്കുന്നുണ്ട്.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chance
to make a first impression,
0
760
2656
നമ്മെപ്പറ്റി ഒരു നല്ല ധാരണയുണ്ടാക്കാൻ
ഒരേയൊരവസരമേ ലഭിക്കൂ
00:15
and that's true if you're a robot
as well as if you're a person.
1
3440
3176
നിങ്ങൾ ഒരു യന്ത്രമനുഷ്യനാണെങ്കിലും
മനുഷ്യനാണെങ്കിലും ഇതാണ് അവസ്ഥ
00:18
The first time that I met
one of these robots
2
6640
3016
ഞാൻ ആദ്യമായി ഇത്തരമൊരു റോബോട്ടിനെ
കണ്ടത്
00:21
was at a place
called Willow Garage in 2008.
3
9680
2896
2008-ൽ വില്ലോ ഗരാജ് എന്ന സ്ഥലത്താണ്
00:24
When I went to visit there,
my host walked me into the building
4
12600
3016
അവിടെ എന്റെ ആതിഥേയൻ
എന്നെ ഒരു കെട്ടിടത്തിലേയ്ക്ക് കൊണ്ടുപോയി
00:27
and we met this little guy.
5
15640
1576
ഈ ചെറിയ വ്യക്തിയെ കണ്ടുമുട്ടി
00:29
He was rolling into the hallway,
6
17240
1656
ഇടനാഴിയിൽ ഉരുണ്ട്
വരികയായിരുന്ന
00:30
came up to me, sat there,
7
18920
1816
അവൻ എന്റെ അടുത്ത് വന്ന് ഇരുന്ന്
00:32
stared blankly past me,
8
20760
2256
വികാരമില്ലാതെ എനിക്കപ്പുറത്തേയ്ക്ക് നോക്കി
00:35
did nothing for a while,
9
23040
1656
അൽപ്പനേരം ഒന്നും ചെയ്തില്ല
00:36
rapidly spun his head around 180 degrees
10
24720
1936
പെട്ടെന്ന് തല 180 ഡിഗ്രി തിരിച്ച്
00:38
and then ran away.
11
26680
1536
ഓടിപ്പോയി.
00:40
And that was not a great first impression.
12
28240
2176
ഇത് ഒരു നല്ല പ്രാഥമിക ധാരണയല്ല നൽകിയത്
00:42
The thing that I learned
about robots that day
13
30440
2176
റോബോട്ടുകളെപ്പറ്റി ഞാൻ അന്ന് അറിഞ്ഞത്
00:44
is that they kind of do their own thing,
14
32640
2176
സ്വന്തം ഇഷ്ടത്തിൽ കാര്യങ്ങൾ
ചെയ്യുമെന്നും
00:46
and they're not totally aware of us.
15
34840
2136
നമ്മെപ്പറ്റി പൂർണ്ണ ബോധമുള്ളവരല്ല
എന്നുമാണ്
00:49
And I think as we're experimenting
with these possible robot futures,
16
37000
3239
എന്റെ തോന്നലിൽ നാം യന്ത്രമനുഷ്യരുള്ള
സംഭാവ്യമായ ഭാവികളെപ്പറ്റി
00:52
we actually end up learning
a lot more about ourselves
17
40263
2673
പരീക്ഷണം നടത്തുന്നതിലൂടെ നമ്മെപ്പറ്റി
പല കാര്യങ്ങൾ
00:54
as opposed to just these machines.
18
42960
1656
അറിയുന്നു. ഈ യന്ത്രളെ മാത്രമല്ല
00:56
And what I learned that day
19
44640
1336
ഞാൻ അന്ന് മനസ്സിലാക്കിയത്
00:58
was that I had pretty high
expectations for this little dude.
20
46000
3416
എനിക്ക് ഈ കൊച്ചു വ്യക്തിയെപ്പറ്റി അധിക
പ്രതീക്ഷ ഉണ്ടായിരുന്നു എന്നാണ്
01:01
He was not only supposed to be able
to navigate the physical world,
21
49440
3176
അവന് ഭൗതിക ലോകത്തിൽ സ്വന്തം വഴി കണ്ടെത്താൻ
സാധിക്കുമെന്ന് മാത്രമല്ല
01:04
but also be able
to navigate my social world --
22
52640
2656
എന്റെ സാമൂഹിക ലോകത്തിലും അത്
കഴിയുമെന്ന് ഞാൻ കരുതി.
01:07
he's in my space; it's a personal robot.
23
55320
2176
എന്റെ ഇടത്തിലെ
സ്വകാര്യ യന്ത്രവ്യക്തി
01:09
wWhy didn't it understand me?
24
57520
2016
എന്തുകൊണ്ട് അത് എന്നെ മനസ്സിലാക്കിയില്ല?
01:11
My host explained to me,
25
59560
1256
ആതിഥേയൻ അത് വിശദീകരിച്ചു
01:12
"Well, the robot is trying
to get from point A to point B,
26
60840
3176
“A യിൽ നിന്ന് B യിലേയ്ക്ക് പോകാനായിരുന്നു
അതിന്റെ ശ്രമം
01:16
and you were an obstacle in his way,
27
64040
1776
നീ അവന്റെ വഴിയിലെ ഒരു തടസ്സം,
01:17
so he had to replan his path,
28
65840
2016
അതിനാൽ അവൻ വഴി ഒന്നുകൂടി കണക്കുകൂട്ടി,
01:19
figure out where to go,
29
67880
1256
ലക്ഷ്യം തീർപ്പാക്കി
01:21
and then get there some other way,"
30
69160
1696
മറ്റൊരു മാർഗ്ഗത്തിലൂടെ അവിടെ എത്തി“
01:22
which was actually
not a very efficient thing to do.
31
70880
2456
അത്ര കാര്യക്ഷമമായ പ്രവർത്തിയായിരുന്നില്ല
അത്
01:25
If that robot had figured out
that I was a person, not a chair,
32
73360
3256
ആ യന്ത്രമനുഷ്യന് ഞാൻ കസേരയല്ല, ഒരു
വ്യക്തിയാണെന്നും
01:28
and that I was willing
to get out of its way
33
76640
2096
അതിന് എങ്ങോട്ടെങ്കിലും പോകണമെങ്കിൽ ഞാൻ
01:30
if it was trying to get somewhere,
34
78760
1656
വഴിമാറിക്കൊടുക്കാൻ ഞാൻ തയ്യാറാണെന്നും അറിയാമായിരുന്നെങ്കിൽ
01:32
then it actually
would have been more efficient
35
80440
2216
അത് കൂടുതൽ കാര്യക്ഷമമായി
01:34
at getting its job done
36
82680
1256
ജോലി ചെയ്തേനെ.
01:35
if it had bothered
to notice that I was a human
37
83960
2216
ഞാൻ ഒരു മനുഷ്യനാണെന്നും ഭിത്തിയും കസേരയും
01:38
and that I have different affordances
than things like chairs and walls do.
38
86200
3576
പോലുള്ളവയേക്കാൾ കൂടുതൽ എനിക്ക്
കഴിവുണ്ട് എന്നും അത് ശ്രദ്ധിച്ചിരുന്നെങ്കിൽ.
01:41
You know, we tend to think of these robots
as being from outer space
39
89800
3216
ഈ യന്ത്രമനുഷ്യർ ശൂന്യാകാശത്തിൽ നിന്ന്
വന്നവരാണെന്നാണ് നാം കരുതുന്നത്
01:45
and from the future
and from science fiction,
40
93040
2136
ഭാവിയിൽ നിന്നോ ശാസ്ത്ര ഫിക്ഷൻ കഥകളിൽ
നിന്നോ,
01:47
and while that could be true,
41
95200
1416
ഇത് സത്യമാകാമെങ്കിലും
01:48
I'd actually like to argue
that robots are here today,
42
96640
2656
യന്തമനുഷ്യർ ഇന്ന് ഇവിടെയുള്ളവരാണ്
എന്ന് ഞാൻ വാദിക്കട്ടെ
01:51
and they live and work
amongst us right now.
43
99320
2776
അവർ ഇപ്പോൾ നമുക്കിടയിൽ ജീവിക്കുകയും ജോലി
ചെയ്യുകയുമാണ്
01:54
These are two robots that live in my home.
44
102120
2856
എന്റെ വീട്ടിൽ വസിക്കുന്ന 2 റോബോട്ടുകളാണിവ
01:57
They vacuum the floors
and they cut the grass
45
105000
2496
ഇവ തറ വൃത്തിയാക്കുകയും പുല്ല് വെട്ടുകയും
ചെയ്യുന്നു
01:59
every single day,
46
107520
1216
എല്ലാ ദിവസവും
02:00
which is more than I would do
if I actually had time to do these tasks,
47
108760
3376
എനിക്ക് ഈ ജോലികൾ ചെയ്യാൻ സമയം
‌ഉണ്ടായിരുന്നെങ്കിൽ സാധിക്കുന്നതിലുമധികം
02:04
and they probably
do it better than I would, too.
48
112160
2336
ഒരുപക്ഷേ എന്നേക്കാൾ മെച്ചമായി.
02:06
This one actually takes care of my kitty.
49
114520
2496
ഇത് എന്റെ പൂച്ചയെ പരിപാലിക്കുന്നു.
02:09
Every single time
he uses the box, it cleans it,
50
117040
2576
ബോക്സിൽ കാര്യം സാധിക്കുമ്പോഴെല്ലാം ഇത്
വൃത്തിയാക്കും
02:11
which is not something I'm willing to do,
51
119640
1976
എനിക്ക് ചെയ്യാൻ ഇഷ്ടമുള്ള കാര്യമല്ലിത്
02:13
and it actually makes
his life better as well as mine.
52
121640
2576
ഇതിനാൽ അവന്റെയും എന്റെയും ജീവിതങ്ങൾ
മെച്ചമാകുന്നുണ്ട്.
02:16
And while we call these robot products --
53
124240
2416
നാം ഇവയെ റോബോട്ട് ഉല്പന്നങ്ങൾ
എന്ന് വിളിക്കുമ്പോൾ--
02:18
it's a "robot vacuum cleaner,
it's a robot lawnmower,
54
126680
2696
ഇതൊരു “റോബോട്ട് വാക്വംക്ലീനർ,
ഇതൊരു റോബോട്ട് പുല്ലുവെട്ടി
02:21
it's a robot littler box,"
55
129400
1495
ഇതൊരു റോബോട്ട് അപ്പിപ്പെട്ടി,“
02:22
I think there's actually a bunch
of other robots hiding in plain sight
56
130919
4137
വേറൊരിനം യന്ത്രമനുഷ്യർ നമ്മുടെ കണ്ണിന്റെ
മുന്നിൽ മറഞ്ഞിരിക്കുന്നു എന്നും തോന്നുന്നു
02:27
that have just become so darn useful
57
135080
1856
ഇവ വളരെ ഉപയോഗപ്രദമാണ്, തന്നെയല്ല
02:28
and so darn mundane
58
136960
1456
അതിസാധാരണമായതിനാൽ
02:30
that we call them things
like, "dishwasher," right?
59
138440
2496
നാം അവയെ “ഡിഷ്‌വാഷർ“ പോലുള്ള പേരിട്ടാണ്
വിളിക്കുന്നത്
02:32
They get new names.
60
140960
1216
അവയ്ക്ക് പുതിയ പേരുകളാണ്
02:34
They don't get called robot anymore
61
142200
1696
ഇവയെ റോബോട്ട് എന്ന് വിളിക്കുന്നില്ല
02:35
because they actually
serve a purpose in our lives.
62
143920
2416
ഇവ ജീവിതത്തിൽ പ്രത്യേക
സഹായങ്ങൾ ചെയ്യുന്നു
02:38
Similarly, a thermostat, right?
63
146360
1496
ഒരു തെർമോസ്റ്റാറ്റ് പോലെ.
02:39
I know my robotics friends out there
64
147880
1776
റോബോട്ടിക്സ് സുഹൃത്തുക്കൾക്ക് ഞാൻ
02:41
are probably cringing
at me calling this a robot,
65
149680
2336
ഇവയെ റോബോട്ടെന്ന് വിളിക്കുന്നത്
ഇഷ്ടമായിരിക്കില്ല
02:44
but it has a goal.
66
152040
1256
ഇതിന് ഒരു ലക്ഷ്യമുണ്ട്
02:45
Its goal is to make my house
66 degrees Fahrenheit,
67
153320
2896
വീടിന്റെ ചൂട് 66 ഡിഗ്രി ഫാറൻഹീറ്റ്
ആയി നിലനിർത്തുകയാണ് അത്
02:48
and it senses the world.
68
156240
1256
ഇത് ലോകത്തെ അറിയുന്നുണ്ട്
02:49
It knows it's a little bit cold,
69
157520
1576
തണുപ്പ് കൂടുതലാണ് എന്നറിഞ്ഞാൽ
02:51
it makes a plan and then
it acts on the physical world.
70
159120
2616
ഇത് ഒരു പദ്ധതിയുണ്ടാക്കി ഭൗതിക ലോകത്ത്
‌ഇടപെടുന്നു
02:53
It's robotics.
71
161760
1256
ഇത് റോബോട്ടിക്സാണ്
02:55
Even if it might not
look like Rosie the Robot,
72
163040
2576
ഇത് റോസി എന്ന യന്ത്ര
മനുഷ്യനെപ്പോലെയല്ലായിരിക്കാം
02:57
it's doing something
that's really useful in my life
73
165640
2936
ജീവിതത്തിൽ പ്രയോജനമുള്ള ഒരു കാര്യമാണ്
ഇത് ചെയ്യുന്നത്
03:00
so I don't have to take care
74
168600
1376
എനിക്ക് ശ്രദ്ധ നൽകേണ്ടതില്ല
03:02
of turning the temperature
up and down myself.
75
170000
2576
താപനില കൂട്ടുകയും കുറയ്ക്കുകയും
ചെയ്യുന്നതിന്.
03:04
And I think these systems
live and work amongst us now,
76
172600
3816
എനിക്ക് തോന്നുന്നത് ഇപ്പോൾ നമുക്കിടയിലുള്ള
ഇത്തരം സംവിധാനങ്ങൾ
03:08
and not only are these systems
living amongst us
77
176440
2336
ജീവിക്കുക മാത്രമല്ല,
03:10
but you are probably
a robot operator, too.
78
178800
2656
ഒരുപക്ഷേ നിങ്ങൾ റോബോട്ടിനെ
നിയന്ത്രിക്കുന്ന ആളായിരിക്കാം
03:13
When you drive your car,
79
181480
1256
നിങ്ങളുടെ കാർ ഓടിക്കുമ്പോൾ
03:14
it feels like you are operating machinery.
80
182760
2216
യന്ത്രങ്ങൾ നിയന്ത്രിക്കുന്നതായാണ്
തോന്നുന്നത്
03:17
You are also going
from point A to point B,
81
185000
2816
നിങ്ങൾ A യിൽ നിന്ന് B യിലേയ്ക്ക്
ഇതോടൊപ്പം പോകുന്നുമുണ്ട്
03:19
but your car probably has power steering,
82
187840
2216
കാറിൽ ഒരുപക്ഷേ പവർ
സ്റ്റിയറിങ്ങുണ്ടാകാം
03:22
it probably has automatic braking systems,
83
190080
2696
സ്വയം പ്രവർത്തിക്കുന്ന ബ്രേക്കുണ്ടാകാം
03:24
it might have an automatic transmission
and maybe even adaptive cruise control.
84
192800
3736
സ്വയം പ്രവർത്തിക്കുന്ന ട്രാൻസ്‌മിഷനോ,
ക്രൂയിസ് നിയന്ത്രണ സംവിധാനമോ ഉണ്ടാകാം.
03:28
And while it might not be
a fully autonomous car,
85
196560
2936
പൂർണ്ണമായും സ്വയം നിയന്ത്രിക്കുന്ന കാർ
അല്ലെങ്കിൽ പോലും ഇതിന്
03:31
it has bits of autonomy,
86
199520
1296
സ്വയം നിയന്ത്രണശക്തിയുണ്ട്
03:32
and they're so useful
87
200840
1336
ഇവ വളരെ ഉപകാരപ്രദവുമാണ്
03:34
and they make us drive safer,
88
202200
1816
ഇവ സുരക്ഷിത യാത്രയ്ക്ക്
സഹായിക്കുന്നു
03:36
and we just sort of feel
like they're invisible-in-use, right?
89
204040
3656
ഇവ കാഴ്ച്ചയിൽ പെടാതെ പ്രവർത്തിക്കുന്ന
സംവിധാനങ്ങളാണ് എന്ന് നമുക്ക് തോന്നും
03:39
So when you're driving your car,
90
207720
1576
നാം ഒരു കാറോടിക്കുമ്പോൾ
03:41
you should just feel like
you're going from one place to another.
91
209320
3096
ഒരിടത്തുനിന്ന് മറ്റൊരിടത്തേയ്ക്ക്
പോവുകയാണ് എന്നാണ് തോന്നേണ്ടത്.
03:44
It doesn't feel like it's this big thing
that you have to deal with and operate
92
212440
3736
നമുക്ക് ഒരു വലിയ സംഗതി കൈകാര്യം
ചെയ്യേണ്ടതുണ്ട് എന്നല്ല തോന്നേണ്ടത്
03:48
and use these controls
93
216200
1256
ഒരു പാട് നിയന്ത്രണങ്ങൾ
03:49
because we spent so long
learning how to drive
94
217480
2176
വണ്ടി ഓട്ടം പഠിക്കാൻ കുറേ
സമയമെടുത്തിട്ടില്ലേ
03:51
that they've become
extensions of ourselves.
95
219680
2696
നിയന്ത്രണ സംവിധാനങ്ങൾ
ശരീരത്തിന്റെ ഭാഗമായി തോന്നും.
03:54
When you park that car
in that tight little garage space,
96
222400
2696
കാർ ചെറിയ ഗരാജിൽ കൊണ്ടുവരുമ്പോൾ
03:57
you know where your corners are.
97
225120
1576
നമുക്ക് മൂലകൾ എവിടെയാണെന്നറിയാം
03:58
And when you drive a rental car
that maybe you haven't driven before,
98
226720
3256
ഇതിനു മുൻപ് ഉപയോഗിച്ചിട്ടില്ലാത്ത
ഒരു കാർ വാടകയ്‌ക്കെടുക്കുമ്പോൾ
04:02
it takes some time
to get used to your new robot body.
99
230000
3056
പുതിയ യന്ത്രമനുഷ്യ ശരീരത്തോട്
താദാത്മ്യം പ്രാപിക്കാൻ സമയമെടുക്കും
04:05
And this is also true for people
who operate other types of robots,
100
233080
3976
മറ്റുള്ള തരം റോബോട്ടുകളെ നിയന്ത്രിക്കുന്ന
‌ആളുകൾക്കും ഇത് ബാധകമാണ്
04:09
so I'd like to share with you
a few stories about that.
101
237080
2600
ഇതെപ്പറ്റി ചില കഥകൾ ഞാൻ നിങ്ങളോട്
പങ്കുവയ്ക്കാം.
04:12
Dealing with the problem
of remote collaboration.
102
240240
2336
ദൂരസഹകരണം കൈകാര്യം ചെയ്യുന്നത്
സംബന്ധിച്ച്
04:14
So, at Willow Garage
I had a coworker named Dallas,
103
242600
2576
വില്ലോ ഗരാജിൽ ഡള്ളാസ് എന്ന
സഹപ്രവർത്തകനുണ്ടായിരുന്നു
04:17
and Dallas looked like this.
104
245200
1576
ഡള്ളാസിനെ കാണാൻ ഇങ്ങനെയായിരുന്നു
04:18
He worked from his home in Indiana
in our company in California.
105
246800
4056
ഇൻഡ്യാനയിലെ വീട്ടിൽ നിന്ന് കാലിഫോർണിയയിലെ
കമ്പനിയിലെ ജോലി അയാൾ ചെയ്തിരുന്നു
04:22
He was a voice in a box
on the table in most of our meetings,
106
250880
2936
മിക്ക യോഗങ്ങളിലും റേഡിയോ പോലുള്ള
സംസാരപ്രിയനായിരുന്നു അയാൾ
04:25
which was kind of OK
except that, you know,
107
253840
2215
അത് കൊണ്ട് കുഴപ്പമില്ലായിരുന്നു.
04:28
if we had a really heated debate
and we didn't like what he was saying,
108
256079
3377
ഒരു വലിയ വാഗ്വാദം നടക്കുമ്പോൾ അയാൾ
പറയുന്നത് ഇഷ്ടപ്പെട്ടില്ലെങ്കിൽ ഞങ്ങൾ
04:31
we might just hang up on him.
109
259480
1416
ഫോൺ വിഛേദിക്കുമായിരുന്നു.
04:32
(Laughter)
110
260920
1015
(ചിരി)
04:33
Then we might have a meeting
after that meeting
111
261959
2217
ഇദ്ദേഹം പോയതിനു ശേഷം
04:36
and actually make the decisions
in the hallway afterwards
112
264200
2696
ഇടനാഴിയിൽ വച്ച് ഒരു മീറ്റിങ് നടത്തുകയും
04:38
when he wasn't there anymore.
113
266920
1416
തീരുമാനങ്ങളെടുക്കുകയും ചെയ്യുമായിരുന്നു
04:40
So that wasn't so great for him.
114
268360
1576
ഇത് അയാൾക്ക് നല്ലതായിരുന്നില്ല
04:41
And as a robotics company at Willow,
115
269960
1736
വില്ലോയിലെ റോബോട്ടിക്സ് കമ്പനിയിൽ
04:43
we had some extra
robot body parts laying around,
116
271720
2336
ഞങ്ങൾക്ക് അധികം ചില ശരീരഭാഗങ്ങൾ
ഉണ്ടായിരുന്നു
04:46
so Dallas and his buddy Curt
put together this thing,
117
274080
2496
ഡള്ളാസും സുഹൃത്ത് കർട്ടും ഒരു
സാധനമുണ്ടാക്കി
04:48
which looks kind of
like Skype on a stick on wheels,
118
276600
2936
ചക്രങ്ങളുടെ പുറത്ത് ഒരു വടിയും അതിന്
മുകളിൽ സ്കൈപ്പും
04:51
which seems like a techy, silly toy,
119
279560
1736
ഒരു നിസ്സാര സാങ്കേതിക കളിപ്പാട്ടം
04:53
but really it's probably
one of the most powerful tools
120
281320
2776
ഇത് ഒരുപക്ഷേ വിദൂരസഹകരണത്തിൽ ഉപയോഗിക്കുന്ന
ഞാൻ കണ്ടിട്ടുള്ള ‌
04:56
that I've seen ever made
for remote collaboration.
121
284120
2480
ഏറ്റവും ശക്തമായ ഉപകരണങ്ങളിൽ ഒന്നാണ്
04:59
So now, if I didn't answer
Dallas' email question,
122
287160
3496
ഞാൻ ഡള്ളാസിന്റെ ഇ മെയിലിന് മറുപടി
അയച്ചില്ലെങ്കിൽ
05:02
he could literally roll into my office,
123
290680
2216
അയാൾക്ക് എന്റെ മുറിയിലേയ്ക്ക്
ഉരുണ്ട് വരാം
05:04
block my doorway
and ask me the question again --
124
292920
2576
എന്റെ വാതിൽ തടഞ്ഞുകൊണ്ട് ഈ
ചോദ്യം വീണ്ടും ചോദിക്കാം
05:07
(Laughter)
125
295520
1016
(ചിരി)
05:08
until I answered it.
126
296560
1216
ഞാൻ മറുപടി പറയും വരെ
05:09
And I'm not going to turn him off, right?
That's kind of rude.
127
297800
2976
ഞാൻ ഇത് ഓഫ് ചെയ്യുമോ? അത് അപമര്യാദയല്ലേ?
05:12
Not only was it good
for these one-on-one communications,
128
300800
2696
ഇരുവർ തമ്മിൽ സംസാരിക്കാൻ
നന്നായിരുന്നു എന്ന് മാത്രമല്ല
05:15
but also for just showing up
at the company all-hands meeting.
129
303520
2936
കമ്പനിയിലെ ആൾക്കാരെല്ലാം ചേരുന്ന യോഗങ്ങളിൽ
‌കയറിച്ചെല്ലാനും
05:18
Getting your butt in that chair
130
306480
1696
ഒരു കസേരയിൽ കയറി ഇരിക്കാനും
05:20
and showing people that you're present
and committed to your project
131
308200
3216
ഇവിടെ ഈ പദ്ധതിയുമായി ചേർന്ന്
പ്രവർത്തിക്കുന്നുവെന്ന് കാണിക്കാനും
05:23
is a big deal
132
311440
1256
ഇതൊരു വലിയ കാര്യം തന്നെ
05:24
and can help remote collaboration a ton.
133
312720
2176
ദൂരസഹകരണത്തിൽ ഇത് വലിയ സഹായമായിരുന്നു
05:26
We saw this over the period
of months and then years,
134
314920
2856
മാസങ്ങളും വർഷങ്ങളും ഞങ്ങൾ ഇത് കണ്ടു
05:29
not only at our company
but at others, too.
135
317800
2160
ഞങ്ങളുടെ കമ്പനിയിലും, മറ്റ് കമ്പനികളിലും
05:32
The best thing that can happen
with these systems
136
320720
2336
ഇത്തരം സംവിധാനങ്ങളുടെ പ്രധാന
ഗുണമെന്താണെന്നാൽ
05:35
is that it starts to feel
like you're just there.
137
323080
2336
നാം അവിടെയാണെന്ന് തോന്നിത്തുടങ്ങും
‌എന്നതാണ്
05:37
It's just you, it's just your body,
138
325440
1696
ഇത് നാം തന്നെയാണ്. നമ്മുടെ ശരീരം
05:39
and so people actually start
to give these things personal space.
139
327160
3096
ഈ സാധനങ്ങൾക്ക് ആൾക്കാർ മനുഷ്യരെ
പോലെ സ്ഥലം കൊടുക്കാൻ ആരംഭിച്ചു
05:42
So when you're having a stand-up meeting,
140
330280
1976
നിന്നുകൊണ്ടുള്ള ഒരു ചർച്ചയിൽ
05:44
people will stand around the space
141
332280
1656
ഒരു വൃത്തത്തിൽ ആൾക്കാർ നിൽക്കും
05:45
just as they would
if you were there in person.
142
333960
2216
നിങ്ങൾ അവിടെ ഉള്ളതുപോലെ
05:48
That's great until
there's breakdowns and it's not.
143
336200
2576
കേടുപാടുകൾ വരുന്നത് വരെ ഇത് നല്ല
സംവിധാനമാണ്
05:50
People, when they first see these robots,
144
338800
1976
ആദ്യം ഈ റോബോട്ടുകളെ കാണുമ്പോൾ ആൾക്കാർ
05:52
are like, "Wow, where's the components?
There must be a camera over there,"
145
340800
3576
“എവിടെയാണ് ഭാഗങ്ങൾ? ഇവിടെ ഒരു കാമറ
ഉണ്ടാകും“ എന്ന് പറയുകയും
05:56
and they start poking your face.
146
344400
1576
മുഖത്ത് കുത്തുകയും ചെയ്യും
05:58
"You're talking too softly,
I'm going to turn up your volume,"
147
346000
2936
“നിങ്ങൾ പതിയെ സംസാരിക്കുന്നു, ഞാൻ
‌നിങ്ങളുടെ ശബ്ദം ഉയർത്തട്ടെ“
06:00
which is like having a coworker
walk up to you and say,
148
348960
2616
എന്ന് പറയുന്നത് ഒരു സഹപ്രവർത്തകൻ നമ്മുടെ
അടുത്ത് വന്ന്
06:03
"You're speaking too softly,
I'm going to turn up your face."
149
351600
2896
“കേൾക്കുന്നില്ല.
മുഖം ഉയർത്തട്ടെ“ എന്ന് പറയുന്നത് പോലെയാണ്.
06:06
That's awkward and not OK,
150
354520
1256
സ്വാഭാവികമല്ലിത്. ശരിയല്ല.
06:07
and so we end up having to build
these new social norms
151
355800
2616
പുതിയ സാമൂഹ്യ നിയമങ്ങൾ നാം ഉണ്ടാക്കുന്നു.
06:10
around using these systems.
152
358440
2216
ഇത്തരം സംവിധാനങ്ങൾ ഉപയോഗിക്കുന്നത്
സംബന്ധിച്ച്
06:12
Similarly, as you start
feeling like it's your body,
153
360680
3416
അത് പോലെ തന്നെ, ഇത് നമ്മുടെ ശരീരത്തിന്റെ
ഭാഗമാണ് എന്ന് തോന്നുന്നത് പോലെ
06:16
you start noticing things like,
"Oh, my robot is kind of short."
154
364120
3696
നാം ചില കാര്യങ്ങൾ ശ്രദ്ധിക്കാൻ തുടങ്ങും.
“എന്റെ യന്ത്രമനുഷ്യൻ ഒരു കുള്ളനാണ്“
06:19
Dallas would say things to me --
he was six-foot tall --
155
367840
2656
ഡള്ളാസ് പറഞ്ഞിട്ടുണ്ട്--
അയാൾക്ക് ആറടി പൊക്കമുണ്ട്--
06:22
and we would take him via robot
to cocktail parties and things like that,
156
370520
3456
ഞങ്ങൾ അയാളെ റോബോട്ടിലൂടെ കോക്ക്‌ടെയിൽ
‌പാർട്ടികളിൽ കൊണ്ടുപോകുമായിരുന്നു
06:26
as you do,
157
374000
1216
നിങ്ങൾ ചെയ്യുന്നത് പോലെ
06:27
and the robot was about five-foot-tall,
which is close to my height.
158
375240
3336
യന്ത്രമനുഷ്യൻ അഞ്ചടി ഉയരമായിരുന്നു
ഉണ്ടായിരുന്നത്. എന്റെ ഉയരം
06:30
And he would tell me,
159
378600
1216
അയാൾ എന്നോട് പറയുമായിരുന്നു
06:31
"You know, people are not
really looking at me.
160
379840
2536
“ആൾക്കാർ എന്നെ നോക്കുന്നില്ല എന്നറിയാമോ.
06:34
I feel like I'm just looking
at this sea of shoulders,
161
382400
2696
ഞാൻ കുറേ തോളുകളാണ് കാണുന്നത്.
06:37
and it's just -- we need a taller robot."
162
385120
1976
നമുക്ക് പൊക്കമുള്ള യന്ത്രമനുഷ്യൻ വേണം.“
06:39
And I told him,
163
387120
1256
ഞാൻ അയാളോട് പറഞ്ഞു
06:40
"Um, no.
164
388400
1296
“ഇല്ലില്ല.
06:41
You get to walk in my shoes for today.
165
389720
1936
എന്റെ സ്ഥിതിയിൽ നീ ഇന്ന് നടക്കൂ.
06:43
You get to see what it's like
to be on the shorter end of the spectrum."
166
391680
3536
പൊക്കമില്ലാതിരിക്കുന്നത് എങ്ങനെയാണെന്ന്
നീ അറിയണം.“
06:47
And he actually ended up building
a lot of empathy for that experience,
167
395240
3376
പൊക്കമില്ലാത്ത അവസ്ഥയുമായി അയാൾ
നന്നായി താദാത്മ്യം പ്രാപിച്ചു
06:50
which was kind of great.
168
398640
1256
ഇത് നല്ല ഒരു കാര്യമാണ്.
06:51
So when he'd come visit in person,
169
399920
1656
നേരിട്ട് കമ്പനി സന്ദർശിക്കുമ്പോൾ
06:53
he no longer stood over me
as he was talking to me,
170
401600
2416
അയാൾ ഉയർന്ന് നിന്ന്
സംസാരിക്കുന്നത് നിറുത്തി
06:56
he would sit down
and talk to me eye to eye,
171
404040
2096
ഇരുന്ന് കണ്ണിൽ നോക്കി സംസാരിക്കാൻ
‌ആരംഭി‌ച്ചു
06:58
which was kind of a beautiful thing.
172
406160
1736
അത് സുന്ദരമായ ഒരു കാര്യമായിരുന്നു
06:59
So we actually decided
to look at this in the laboratory
173
407920
2656
ഇത് ലബോറട്ടറിയിൽ നിരീക്ഷിക്കാൻ ഞങ്ങൾ
തീരുമാനിച്ചു
07:02
and see what others kinds of differences
things like robot height would make.
174
410600
3656
റോബോട്ടിന്റെ ഉയരം പോലെയുള്ള കാര്യങ്ങൾ
‌ഉണ്ടാക്കുന്ന വ്യത്യാസങ്ങൾ
07:06
And so half of the people in our study
used a shorter robot,
175
414280
2856
ഞങ്ങളിൽ പകുതിപ്പേർ ചെറിയ
റോബോട്ടുകൾ ഉപയോഗിച്ചു
07:09
half of the people in our study
used a taller robot
176
417160
2416
പകുതിപ്പേർ പൊക്കമുള്ള യന്ത്രമനുഷ്യരെ
ഉപയോഗിച്ചു
07:11
and we actually found
that the exact same person
177
419600
2256
ഞങ്ങൾ കണ്ടത് ഒരേ വ്യക്തി
07:13
who has the exact same body
and says the exact same things as someone,
178
421880
3336
ഒരേ ശരീരമുള്ളതും ഒരേ കാര്യങ്ങൾ
പറയുന്നതുമായ വ്യക്തി മറ്റുള്ളവരെ തന്റെ
07:17
is more persuasive
and perceived as being more credible
179
425240
2616
വഴിയ്ക്ക് കൊണ്ടുവരുകയും
വിശ്വാസ്യത നേടുകയും ചെയ്തത്
07:19
if they're in a taller robot form.
180
427880
1656
വലിയ റോബോട്ടിലൂടെയായിരുന്നു
07:21
It makes no rational sense,
181
429560
1816
ഇതിൽ വലിയ യുക്തിയില്ല, പക്ഷേ
07:23
but that's why we study psychology.
182
431400
1696
ഇതാണ് നാം മനഃശാസ്ത്രത്തിൽ പഠിക്കുന്നത്.
07:25
And really, you know,
the way that Cliff Nass would put this
183
433120
2856
ക്ലിഫ് നാസ് ഇതെപ്പറ്റി പറയുന്നത്
07:28
is that we're having to deal
with these new technologies
184
436000
3016
ഇത്തരം സാങ്കേതിക വിദ്യകൾ നാം കൈകാര്യം
ചെയ്തേ മതിയാകൂ എന്നതാണ്.
07:31
despite the fact
that we have very old brains.
185
439040
2736
നമ്മുടെ തലച്ചോറുകൾ വളരെ പഴയതായിരിക്കാം.
07:33
Human psychology is not changing
at the same speed that tech is
186
441800
2976
മനുഷ്യമനഃശാസ്ത്രം സാങ്കേതിക
വിദ്യയ്‌ക്കൊപ്പം മാറുന്നില്ല
07:36
and so we're always playing catch-up,
187
444800
1816
മാറ്റത്തിനനുസരിച്ച് പൊരുത്തപ്പെടുകയാണ്
07:38
trying to make sense of this world
188
446640
1656
ലോകത്തെ മനസ്സിലാക്കാനുള്ള ശ്രമം
07:40
where these autonomous things
are running around.
189
448320
2336
സ്വയം നിയന്ത്രിത സാധനങ്ങൾ നമുക്ക്
ചുറ്റുമുണ്ട്
07:42
Usually, things that talk are people,
not machines, right?
190
450680
2736
സാധാരണഗതിയിൽ മനുഷ്യരാണ് സംസാരിക്കുക
യന്ത്രങ്ങളല്ല, അല്ലേ?
07:45
And so we breathe a lot of meaning
into things like just height of a machine,
191
453440
4576
അതിനാൽ നാം യന്ത്രങ്ങളുടെ ഉയരം പോലെയുള്ള
കാര്യങ്ങൾക്ക് അർത്ഥങ്ങൾ കൊടുക്കുന്നു.
07:50
not a person,
192
458040
1256
ഒരു വ്യക്തിയല്ല ഇത്
07:51
and attribute that
to the person using the system.
193
459320
2360
നിയന്ത്രിക്കുന്നയാൾക്ക് ഗുണങ്ങൾ
കൊടുക്കുന്നു
07:55
You know, this, I think,
is really important
194
463120
2216
ഇത് വളരെ പ്രാധാന്യമുള്ളതാണെന്ന്
ഞാൻ കരുതുന്നു
07:57
when you're thinking about robotics.
195
465360
1736
റോബോട്ടിക്സ്
07:59
It's not so much about reinventing humans,
196
467120
2096
മനുഷ്യരെ പുതുതായി കണ്ടുപിടിക്കുന്നതല്ല
08:01
it's more about figuring out
how we extend ourselves, right?
197
469240
3136
നമ്മെ വ്യാപിപ്പിക്കുന്നത് എങ്ങനെ
എന്ന് മനസ്സിലാക്കുന്നതാണ്
08:04
And we end up using things
in ways that are sort of surprising.
198
472400
2976
അദ്ഭുതകരമായാണ് നാം ചില
കാര്യങ്ങൾ ഉപയോഗിക്കുന്നത്
08:07
So these guys can't play pool
because the robots don't have arms,
199
475400
4256
റോബോട്ടുകൾക്ക് കയ്യില്ലാത്തതിനാൽ ഇവർക്ക്
പൂൾ കളിക്കാൻ സാധിക്കില്ലായിരുന്നു
08:11
but they can heckle the guys
who are playing pool
200
479680
2336
പക്ഷേ കളിക്കുന്നവരെ തടസ്സപ്പെടുത്താമല്ലോ
08:14
and that can be an important thing
for team bonding,
201
482040
3176
ഇത് കൂട്ടത്തിന്റെ ഭാഗമാകുന്നതിൽ സഹായകമാണ്,
08:17
which is kind of neat.
202
485240
1296
നല്ലതല്ലേ?
08:18
People who get really good
at operating these systems
203
486560
2496
ഈ സംവിധാനങ്ങൾ ഉപയോഗിക്കാൻ പ്രാവീണ്യം
നേടുന്നവർ
08:21
will even do things
like make up new games,
204
489080
2056
പുതിയ കളികൾ ഉണ്ടാക്കുകയും ചെയ്യാറുണ്ട്
08:23
like robot soccer
in the middle of the night,
205
491160
2136
പാതിരാത്രി റോബോട്ട് സോക്കർ കളി പോലെ
08:25
pushing the trash cans around.
206
493320
1456
ചവർ പാത്രങ്ങൾ തള്ളി നീക്കുക.
08:26
But not everyone's good.
207
494800
1576
എല്ലാവരും നന്നായി കളിക്കുന്നവരല്ല
08:28
A lot of people have trouble
operating these systems.
208
496400
2496
പലർക്കും ഈ സംവിധാനങ്ങൾ ഉപയോഗിക്കാൻ
ബുദ്ധിമുട്ടുണ്ട്
08:30
This is actually a guy
who logged into the robot
209
498920
2256
ഒരാൾ റോബോട്ട് ഉപയോഗിക്കാനാരംഭിച്ചപ്പോൾ
അയാളുടെ
08:33
and his eyeball was turned
90 degrees to the left.
210
501200
2376
കണ്ണിന്റെ കൃഷ്ണമണി 90 ഡിഗ്രി
ഇടത്തോട്ട് തിരിഞ്ഞു
08:35
He didn't know that,
211
503600
1256
അയാൾ അത് അറിഞ്ഞില്ല
08:36
so he ended up just bashing
around the office,
212
504880
2176
ഓഫീസിൽ അവിടെയും ഇവിടെയും തട്ടി
അയാൾ കറങ്ങി
08:39
running into people's desks,
getting super embarrassed,
213
507080
2616
ആൾക്കാരുടെ മേശകളിൽ പോയി തട്ടി
ജാള്യനാവുകയും
08:41
laughing about it --
his volume was way too high.
214
509720
2336
അതെപ്പറ്റി പറഞ്ഞ് ചിരിക്കുക--
ശബ്ദം ഉയർന്നിരുന്നു
08:44
And this guy here
in the image is telling me,
215
512080
2136
ഈ ചിത്രത്തിൽ കാണുന്നയാൾ എന്നോട് പറഞ്ഞു:
08:46
"We need a robot mute button."
216
514240
2096
“റോബോട്ടുകളുടെ വായടയ്ക്കാൻ ഒരു ബട്ടൻ വേണം“
08:48
And by that what he really meant
was we don't want it to be so disruptive.
217
516360
3496
ഇത്ര പ്രശ്നമുണ്ടാക്കുന്ന സംവിധാനമല്ല
വേണ്ടതെന്നാണ് അയാൾ ഉദ്ദേശിച്ചത്
08:51
So as a robotics company,
218
519880
1616
റോബോട്ടിക്സ് കമ്പനി എന്ന നിലയ്ക്ക്
08:53
we added some obstacle
avoidance to the system.
219
521520
2456
നാം തടസ്സങ്ങൾ മറികടക്കാനുള്ള ചില
സംവിധാനങ്ങൾ ചേർത്തു
08:56
It got a little laser range finder
that could see the obstacles,
220
524000
3056
തടസ്സങ്ങളിലേയ്ക്കുള്ള അകലം
കാണാവുന്ന ചെറിയ ലേസർ സംവിധാനം
08:59
and if I as a robot operator
try to say, run into a chair,
221
527080
3136
തടസ്സത്തിലേയ്ക്ക് ഞാൻ റോബോട്ട്
കയറ്റാൻ ശ്രമിച്ചാൽ സാധിക്കില്ല
09:02
it wouldn't let me,
it would just plan a path around,
222
530240
2496
അത് എന്നെ അനുവദിക്കില്ല.
തടസ്സത്തിനെ ചുറ്റി പോകും
09:04
which seems like a good idea.
223
532760
1856
ഇത് നല്ല ആശയമായി തോന്നി
09:06
People did hit fewer obstacles
using that system, obviously,
224
534640
3176
കുറച്ച് തടസ്സങ്ങളിലേ ആൾക്കാർ ഈ
സംവിധാനത്തിൽ തട്ടുമായിരുന്നുള്ളൂ
09:09
but actually, for some of the people,
225
537840
2096
ചിലർക്ക് യഥർത്ഥത്തിൽ
09:11
it took them a lot longer
to get through our obstacle course,
226
539960
2856
ഞങ്ങളുടെ തടസ്സമാർഗ്ഗം കടക്കാൻ കൂടുതൽ
സമയമെടുത്തു
09:14
and we wanted to know why.
227
542840
1560
ഇത് എന്തുകൊണ്ടാണ്?
09:17
It turns out that there's
this important human dimension --
228
545080
3056
ഒരു പ്രധാനപ്പെട്ട മാനുഷിക പരിമാണമുണ്ട്‌
എന്ന് ഞങ്ങൾ കണ്ടെത്തി.
09:20
a personality dimension
called locus of control,
229
548160
2296
നിയന്ത്രണകേന്ദ്രം എന്ന വ്യക്തിത്വ
പരിമാണമാണിത്
09:22
and people who have
a strong internal locus of control,
230
550480
3136
വ്യക്തികൾക്ക് ഒരു ശക്തമായ ആന്തരിക
നിയന്ത്രണ കേന്ദ്രമുണ്ട്
09:25
they need to be the masters
of their own destiny --
231
553640
3056
അവരുടെ ഭാവി അവരുടെ കയ്യിലാകണം എന്നത്
വ്യക്തികളുടെ ഒരു ആവശ്യമാണ്
09:28
really don't like giving up control
to an autonomous system --
232
556720
3096
ഒരു സ്വയം നിയന്ത്രിത സംവിധാനത്തിന്
വിട്ടുകൊടുക്കാൻ ചിലർക്ക്
09:31
so much so that they will
fight the autonomy;
233
559840
2136
കഴിയില്ല. ഇവർ സ്വയം നിയന്ത്രണം ചെറുക്കും.
09:34
"If I want to hit that chair,
I'm going to hit that chair."
234
562000
3096
“എനിക്ക് ആ കസേരയിൽ തട്ടണമെന്നുണ്ടെങ്കിൽ
ഞാൻ ആ കസേരയിൽ തട്ടും“
09:37
And so they would actually suffer
from having that autonomous assistance,
235
565120
3616
സ്വയം നിയന്ത്രണം ഇവരെ സംബന്ധിച്ചിടത്തോളം
ദുരിതമാണ്.
09:40
which is an important thing for us to know
236
568760
2576
ഇത് അറിയുക പ്രധാനമായിരുന്നു.
09:43
as we're building increasingly
autonomous, say, cars, right?
237
571360
3296
നാം വളരെ സ്വതന്ത്രമായി തീരുമാനമെടുക്കുന്ന
കാറുകൾ നിർമിക്കുകയാണല്ലോ?
09:46
How are different people going
to grapple with that loss of control?
238
574680
3360
നിയന്ത്രണം നഷ്ടപ്പെടുന്ന സ്ഥിതിയിൽ പല
വ്യക്തികൾ എങ്ങനെ പ്രതികരിക്കും?
09:50
It's going to be different
depending on human dimensions.
239
578880
2696
മനുഷ്യരുടെ പരിമാണങ്ങളനുസരിച്ച്
ഇത് വ്യത്യാസപ്പെടും.
09:53
We can't treat humans
as if we're just one monolithic thing.
240
581600
3496
മനുഷ്യർ എല്ലാം ഒരുപോലെയാണ് എന്ന രീതിയിൽ
നമുക്ക് പെരുമാറാനാവില്ല
09:57
We vary by personality, by culture,
241
585120
2416
വേറേ വ്യക്തിത്വവും സംസ്കാരവും
ഉള്ളവരാണ് നാം
09:59
we even vary by emotional state
moment to moment,
242
587560
2456
നമ്മുടെ വികാരങ്ങളും ഓരോ നിമിഷവും മാറി
വരും
10:02
and being able to design these systems,
243
590040
1976
ഇത്തരം സംവിധാനങ്ങളുടെ രൂപകൽപ്പനയിൽ
10:04
these human-robot interaction systems,
244
592040
2296
മനുഷ്യരും റോബോട്ടുകളും തമ്മിൽ ഇടപെടുന്നവ
10:06
we need to take into account
the human dimensions,
245
594360
2736
മനുഷ്യരുടെ പരിമാണങ്ങൾ നാം
കണക്കിലെടുക്കേണ്ടതുണ്ട്.
10:09
not just the technological ones.
246
597120
1720
സാങ്കേതിക പരിമാണങ്ങൾ മാത്രമല്ല!
10:11
Along with a sense of control
also comes a sense of responsibility.
247
599640
4296
നിയന്ത്രണത്തോടൊപ്പം ഒരു ഉത്തരവാദിത്ത്വ
ബോധവും വരും
10:15
And if you were a robot operator
using one of these systems,
248
603960
2856
ഇത്തരമൊരു സംവിധാനം നിയന്ത്രിക്കുന്നയാളാണ്
നിങ്ങളെങ്കിൽ
10:18
this is what the interface
would look like.
249
606840
2056
ഇങ്ങനെയൊരു സമ്പർക്കമുഖമാകും ഉണ്ടാകുക
10:20
It looks a little bit like a video game,
250
608920
1936
കാഴ്ച്ചയിൽ ഒരു വീഡിയോ ഗെയിം പോലെയാണിത്
10:22
which can be good because
that's very familiar to people,
251
610880
2976
ഇതിന്റെ ഗുണമെന്താണെന്നാൽ ഇത് ആൾക്കാർക്ക്
പരിചിതമാണ് എന്നതാണ്
10:25
but it can also be bad
252
613880
1216
ഇത് ദോഷവുമാണ്
10:27
because it makes people feel
like it's a video game.
253
615120
2456
ആൾക്കാർക്ക് ഇതൊരു വീഡിയോ ഗെയിമാണെന്ന്
‌തോന്നിയേക്കാം
10:29
We had a bunch of kids
over at Stanford play with the system
254
617600
2856
സ്റ്റാൻഫോർഡിൽ കുട്ടികൾക്ക് ഇത്
ഞങ്ങൾ കളിക്കാൻ കൊടുത്തു
10:32
and drive the robot
around our office in Menlo Park,
255
620480
2456
മെൻലോ പാർക്കിലെ ഓഫീസിൽ റോബോട്ട്
ഓടിക്കാൻ
10:34
and the kids started saying things like,
256
622960
1936
കുട്ടികൾ പരസ്പരം ഇങ്ങനെ പറയാൻ തുടങ്ങി
10:36
"10 points if you hit that guy over there.
20 points for that one."
257
624920
3176
“ആ മനുഷ്യനെ ഇടിക്കുന്നതിന് 10 പോയിന്റ്.
അയാൾക്ക് 20 പോയിന്റ്“
10:40
And they would
chase them down the hallway.
258
628120
2016
ഇവർ ആൾക്കാരെ ഇടനാഴികളിൽ ഓടിക്കാൻ
ആരംഭിച്ചു
10:42
(Laughter)
259
630160
1016
(ചിരി)
10:43
I told them, "Um, those are real people.
260
631200
1936
ഞാൻ അവരോട് പറഞ്ഞു, “ഇത് മനുഷ്യരാണ്
10:45
They're actually going to bleed
and feel pain if you hit them."
261
633160
3296
അവരെ തട്ടിയാൽ അവർക്ക് വേദനിക്കുകയും
ചോരവരുകയും ചെയ്യും.“
10:48
And they'd be like, "OK, got it."
262
636480
1616
മറുപടി “പിടികിട്ടി“ എന്നായിരുന്നു.
10:50
But five minutes later,
they would be like,
263
638120
2056
അഞ്ച് മിനിട്ടിന് ശേഷം അവർ
പറയാനാരംഭിക്കും
10:52
"20 points for that guy over there,
he just looks like he needs to get hit."
264
640200
3616
“അയാളെ കണ്ടിട്ട് ഒരു ഇടി കിട്ടേണ്ട
ആവശ്യമുണ്ട്, 20 പോയിന്റ്“.
10:55
It's a little bit
like "Ender's Game," right?
265
643840
2136
ഇത് “എൻഡേഴ്സ് ഗെയിം“ പോലെയാണ്. അല്ലേ?
10:58
There is a real world on that other side
266
646000
1936
അപ്പുറത്ത് ഒരു യഥാർത്ഥ ലോകമുണ്ട്
10:59
and I think it's our responsibility
as people designing these interfaces
267
647960
3416
ഇത്തരം സമ്പർക്കമുഖങ്ങൾ സൃഷ്ടിക്കുന്ന
നമുക്ക് ചില ഉത്തരവാദിത്വങ്ങളുണ്ട്
11:03
to help people remember
268
651400
1256
ഓർക്കാൻ സഹായിക്കുക
11:04
that there's real consequences
to their actions
269
652680
2256
പ്രവൃത്തികൾക്ക്
പരിണിത ഫലങ്ങളുണ്ട് എന്ന്
11:06
and to feel a sense of responsibility
270
654960
2296
ഉത്തരവാദിത്വ ബോധം ഉണ്ടാവുകയും വേണം
11:09
when they're operating
these increasingly autonomous things.
271
657280
3280
ഇത്തരം സ്വയം നിയന്ത്രണം വർദ്ധിച്ച് വരുന്ന
സംവിധാനങ്ങൾ ഉപയോഗിക്കുമ്പോൾ
11:13
These are kind of a great example
272
661840
2296
ഇവ നല്ല ഉദാഹരണങ്ങളാണ്
11:16
of experimenting with one
possible robotic future,
273
664160
3256
യന്ത്രമനുഷ്യരുള്ള ഒരു ഭാവിയെ
പരീക്ഷണവിധേയമാക്കുന്നതിൽ
11:19
and I think it's pretty cool
that we can extend ourselves
274
667440
3856
നമുക്ക് സ്വയം വ്യാപ്തി നേടാൻ സാധിക്കുന്നത്
നല്ലതാണ് എന്ന് ഞാൻ കരുതുന്നു
11:23
and learn about the ways
that we extend ourselves
275
671320
2336
വികസിപ്പിക്കാനുള്ള മാർഗ്ഗങ്ങൾ ഇത്തരം
11:25
into these machines
276
673680
1216
യന്ത്രങ്ങളിലൂടെ
11:26
while at the same time
being able to express our humanity
277
674920
2696
അതോടൊപ്പം തന്നെ നമ്മുടെ മനുഷ്യത്വവും
വ്യക്തിത്വവും
11:29
and our personality.
278
677640
1216
പ്രകടിപ്പിക്കുന്നത്
11:30
We also build empathy for others
279
678880
1576
സഹാനുഭൂതി വളരുന്നത്
11:32
in terms of being
shorter, taller, faster, slower,
280
680480
3216
പൊക്കം കുറയുകയും കൂടുകയും വേഗത കുറയുകയും
കൂടുകയും ഉദാഹരണങ്ങൾ
11:35
and maybe even armless,
281
683720
1416
കൈകൾ ഇല്ലാതിരിക്കുനത്
11:37
which is kind of neat.
282
685160
1336
നല്ല ഒരു അനുഭവമാണ്
11:38
We also build empathy
for the robots themselves.
283
686520
2536
യന്ത്രങ്ങളോടും നമുക്ക് സഹാനുഭൂതി ഉണ്ടാകും
11:41
This is one of my favorite robots.
284
689080
1656
എനിക്ക് ഇഷ്ടപ്പെട്ട റോബോട്ടാണിത്
11:42
It's called the Tweenbot.
285
690760
1456
ട്വീൻബോട്ട് എന്നാണ് പേര്
11:44
And this guy has a little flag that says,
286
692240
1976
ഇയാളുടെ കയ്യിലുള്ള കൊടിയിലെ എഴുത്ത്
11:46
"I'm trying to get
to this intersection in Manhattan,"
287
694240
2576
“മാൻഹാട്ടനിലെ ഈ കവലയിലെത്താൻ
ശ്രമിക്കുകയാണ്“ എന്നാണ്
11:48
and it's cute and rolls
forward, that's it.
288
696840
2776
ഇത് നല്ല ഓമനത്തത്തോടെ മുന്നോട്ടുരുളും.
അത്രേയുള്ളൂ.
11:51
It doesn't know how to build a map,
it doesn't know how to see the world,
289
699640
3456
ഇതിന് ഒരു ഭൂപടം സൃഷ്ടിക്കാനോ,
ലോകം കാണാനോ സാധിക്കില്ല.
11:55
it just asks for help.
290
703120
1256
സഹായം ചോദിക്കുകയേയുള്ളൂ
11:56
The nice thing about people
291
704400
1336
ആൾക്കാരുടെ നന്മ എന്താണെന്നാൽ
11:57
is that it can actually depend
upon the kindness of strangers.
292
705760
3096
പരിചയമില്ലാത്തവരുടെ സഹായം ആശ്രയിച്ച്
യഥാർത്ഥത്തിൽ ഇത്
12:00
It did make it across the park
to the other side of Manhattan --
293
708880
3896
പാർക്ക് മറികടന്ന് മാൻഹാട്ടന്റെ മറുവശത്ത്
എത്തി എന്നതാണ്
12:04
which is pretty great --
294
712800
1256
ഇത് വളരെ വലിയ കാര്യമാണ് --
12:06
just because people would pick it up
and point it in the right direction.
295
714080
3456
ആൾക്കാർ ഇതിനെ ശരിയായ ദിശയിലേയ്ക്ക്
തിരിച്ച് വയ്ക്കുന്നത് കൊണ്ട് മാത്രം
12:09
(Laughter)
296
717560
936
(ചിരി)
12:10
And that's great, right?
297
718520
1256
അത് നല്ല കാര്യമാണ്. അല്ലേ
12:11
We're trying to build
this human-robot world
298
719800
2696
മനുഷ്യ-റോബോട്ട് ലോകം
സൃഷ്ടിക്കാനാണ് നാം ശ്രമിക്കുന്നത്.
12:14
in which we can coexist
and collaborate with one another,
299
722520
3416
ഇതിൽ നാം പരപരം സഹകരിക്കുകയും
സഹവർത്തിത്വത്തോടെ ജീവിക്കുകയും ചെയ്യും
12:17
and we don't need to be fully autonomous
and just do things on our own.
300
725960
3376
പൂർണ്ണമായും സ്വയം നിയന്ത്രിതമാകേണ്ട
ആവശ്യമില്ല
12:21
We actually do things together.
301
729360
1496
നമുക്ക് ഒരുമിച്ച് കാര്യങ്ങൾ ചെയ്യാൻ സാധിക്കും
12:22
And to make that happen,
302
730880
1256
അത് സാദ്ധ്യമാക്കുന്നതിന്,
12:24
we actually need help from people
like the artists and the designers,
303
732160
3256
നമുക്ക് കലാകാരന്മാരെയും,
രൂപകൽപ്പനാവിദഗ്ദ്ദരെയും,
12:27
the policy makers, the legal scholars,
304
735440
1856
നയരൂപീകർത്താക്കളെയും,
നിയമവിദഗ്ദ്ദരെയും,
12:29
psychologists, sociologists,
anthropologists --
305
737320
2216
മനഃ, സാമൂഹ്യ, നരവംശ ശാസ്ത്രജ്ഞരെയും
12:31
we need more perspectives in the room
306
739560
1816
സഹായത്തിനായി സമീപിക്കേണ്ടി വരും
12:33
if we're going to do the thing
that Stu Card says we should do,
307
741400
2976
സ്റ്റു കാർഡ് ആവശ്യപ്പെടുന്ന
കാര്യം ചെയ്യണമെങ്കിൽ
12:36
which is invent the future
that we actually want to live in.
308
744400
3936
നാം ജീവിക്കാൻ ആഗ്രഹിക്കുന്ന ഭാവി
കണ്ടുപിടിക്കുക എന്നത്.
12:40
And I think we can continue to experiment
309
748360
2656
കൂടുതൽ പരീക്ഷണങ്ങൾ നടത്താവുന്നതാണ്
‌എന്ന് ഞാൻ കരുതുന്നു
12:43
with these different
robotic futures together,
310
751040
2176
വിവിധ റോബോട്ടിക ഭാവികൾ ഒരുമിപ്പിച്ചുകൊണ്ട്
12:45
and in doing so, we will end up
learning a lot more about ourselves.
311
753240
4680
ഇത് ചെയ്യുന്നതിലൂടെ നാം നമ്മെപ്പറ്റി തന്നെ
ഒരുപാട് കൂടുതൽ കാര്യങ്ങൾ പഠിക്കും.
12:50
Thank you.
312
758720
1216
നന്ദി.
12:51
(Applause)
313
759960
2440
(കയ്യടി)
Translated by Ajay Balachandran
Reviewed by Netha Hussain

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com