ABOUT THE SPEAKER
Poppy Crum - Neuroscientist, technologist
Poppy Crum builds technologies that best leverage human physiology to enhance our experiences and how we interact with the world.

Why you should listen

Poppy Crum is dedicated to the development of immersive technologies that leverage human physiology and perceptual realities to enhance our experiences and interactions in the world. She has advanced a mission to democratize the way people of all abilities benefit from sensory technologies -- and how effectively technology communicates back to each of us. She believes the power of intelligent technologies is only realized with dynamic optimization and learning of as much of our personal and contextual data as possible.

Crum is chief scientist at Dolby Laboratories, leading the company's integration of neuroscience and sensory data science into its entertainment, communication and future technologies. She is also adjunct professor at Stanford University, where her work focuses on the impact and feedback potential of gaming and immersive environments, such as augmented and virtual reality, on neuroplasticity and learning. She has been recognized with the Advanced Imaging Society's Distinguished Leadership Award and the Consumer Technology Association's Technology and Standards Achievement Award for work towards the introduction of affordable, over-the-counter hearing-aid devices, and she is a fellow of the Audio Engineering Society. She has also been named to Billboard Magazine's 100 most influential female executives in the music industry. Prior to joining Dolby Laboratories, Crum was Research Faculty in the Department of Biomedical Engineering at Johns Hopkins School of Medicine.

More profile about the speaker
Poppy Crum | Speaker | TED.com
TED2018

Poppy Crum: Technology that knows what you're feeling

Poppy Crum: သင်ရဲ့ ခံစားမှုကို သိရှိနိုင်တဲ့ နည်းပညာ

Filmed:
1,640,972 views

နည်းပညာဟာ ကျုပ်တို့ သိတာထက် ပိုပြီး သိရှိလာရင် ဘယ်လိုများ ဖြစ်လာမလဲ? ကျုပ်တို့က မိမိတို့ရဲ့ ခံစားချက်များအား ထုတ်ဖေါ်ပြသကြပုံကို Poppy Crum ဟာ အထူးပြု လေ့လာသူပါ -- ကျုပ်တို့ရဲ့ မျက်နှာကို ပိရိတဲ့ ပုံစံမျိုးနဲ့ ထားနိုင်မယ့် ကာလဟာ မကြာမီတွင် ကုန်ဆုံးသွားမယ်လို့ သူမက ယူဆပါတယ်။ နောက်ဆုံး နည်းပညာများက ကျုပ်တို့ ခံစားချက်တွေကို ညွှန်ပြပေးမယ့် အချက်ပြမှုတွေကို မြင်နိုင်စွမ်း ရှိလာကြမှာမို့ ဖြစ်ပါတယ်။ ဒီဟောပြောချက်ထဲမှာ နည်းပညာတွေကို ပြသပေးရင်း၊ သူမဟာ "စာနာမှု နည်းပညာ"ဟာဖြင့် ကျုပ်တို့ရဲ့ ခန္ဓာကိုယ် အပူချိန်နဲ့ ရှူထုတ်လိုက်တဲ့ လေရဲ့ ဓာတုဗေဒ ပေါင်းစပ်မှုတို့လို ရုပ်ပိုင်း လက္ခဏာတွေကို တိုင်းထွာသိရှိခြင်းဖြင့် ကျုပ်တို့ရဲ့ စိတ်ထဲ ခံစားရတာတွေကို ဖေါ်ပြပေးနိုင်ပါတယ်။ အဲဒါဟာ ကောင်းနိုင်သလို ဆိုးနိုင်တာလည်း ရှိပါတယ်။ "ကျုပ်တို့ဟာ နည်းပညာအရ စာနာမှုကို ခံစားနိုင်စွမ်း ရှိလာကြမယ် ဆိုလျှင်၊ အဲဒီ နည်းပညာကို သုံးလျက် ကျုပ်တို့ဟာ စိတ်ထဲက ခံစားမှုများအရနဲ့ သိရှိခံစားမှုအရ တကွဲတပြား ဖြစ်နေမှုကို ပေါင်းကူးတံတားလို ကူညီဆက်သွယ်ပေးနိုင်မယ်" လို့ Crum က ဆိုထားပါတယ်။
- Neuroscientist, technologist
Poppy Crum builds technologies that best leverage human physiology to enhance our experiences and how we interact with the world. Full bio

Double-click the English transcript below to play the video.

00:12
What happens when technology
knows more about us than we do?
0
881
4456
နည်းပညာဟာ ကျုပ်တို့ထက်ကို ပိုသိလာတဲ့အခါ
ဘာတွေ ဖြစ်လာမလဲ?
အခုဆို ကွန်ပျူတာဟာ ကျုပ်တို့ မျက်နှာပေါ်က
မသိမသာ မိုက်ခရိုအမူအရာကို ရှာတွေ့နိုင်ပြီး
00:17
A computer now can detect
our slightest facial microexpressions
1
5992
3672
00:21
and be able to tell the difference
between a real smile and a fake one.
2
9688
3611
စစ်မှန်တဲ့ အပြုံးနဲ့ အတုအပကို ခွဲခြား
ထောက်ပြပေးနိုင်ပါတယ်။
00:25
That's only the beginning.
3
13323
1734
ဒါဟာ အစပဲ ရှိပါသေးတယ်။
00:27
Technology has become
incredibly intelligent
4
15466
2865
နည်းပညာဟာ မယုံနိုင်လောက်အောင်ကို
သိရှိလာနိုင်ပြီ ဖြစ်ကာ
00:30
and already knows a lot
about our internal states.
5
18355
3400
ကျုပ်တို့ရဲ့ အတွင်းပိုင်း အခြေအနေများ
အကြောင်းကို အများကြီး သိနှင့်နေပါပြီ။
00:34
And whether we like it or not,
6
22085
2286
ကျုပ်တို့ ကြိုက်ကြိုက် မကြိုက်ကြိုက်၊
00:36
we already are sharing
parts of our inner lives
7
24395
3499
ကျုပ်တို့ရဲ့ ဘဝအတွင်းရေး
အပိုင်းတွေကို ထိန်းချုပ်နိုင်စွမ်း မရှိဘဲ
00:39
that's out of our control.
8
27918
1733
မျှဝေပေးလျက် ရှိနေကြပါပြီ။
အဲဒါ ပြဿနာတစ်ခု ဖြစ်လာနေတယ်၊
00:43
That seems like a problem,
9
31413
1421
ကျုပ်တို့ အများစုဟာ ကိုယ့်အတွင်းရေးတွေကို
လူတွေ တကယ် မြင်တွေမရနိုင်အောင်
00:44
because a lot of us like to keep
what's going on inside
10
32858
3246
00:48
from what people actually see.
11
36128
1647
ထိန်းချုပ် ထားချင်လိုကြလို့ပါ။
00:50
We want to have agency
over what we share and what we don't.
12
38323
4420
ကျုပ်တို့ဟာ ကိုယ်က မျှဝေပေးချင်တာနဲ့ မပေး
ချင်တာကို ကိုယ်တိုင် ဆုံးဖြတ်ချင်ကြတယ်။
00:55
We all like to have a poker face.
13
43473
2321
ကျုပ်တို့ အားလုံး ပိရိတဲ့
မျက်နှာမျိုးကို ထားရှိလိုကြတယ်။
ကျွန်မ ဒီနေ့ ရှင်တို့ကို ပြောချင်တာက
အဲဒါတွေ အတိတ်ထဲမှာ ကျန်ရစ်ခဲ့ပါပြီ။
00:59
But I'm here to tell you
that I think that's a thing of the past.
14
47584
3346
01:03
And while that might sound scary,
it's not necessarily a bad thing.
15
51347
4770
အခုပြောမယ်ဟာက ထိတ်လန့်ဖွယ်လို ထင်စရာ
ရှိပေမဲ့ ဆိုးတဲ့အရာ ဟုတ်ချင်မှ ဟုတ်မှာပါ။
ကျွန်မဟာ ဦးနှောက်ထဲက ပတ်လည်
လမ်း​ကြောင်းတွေကို လေ့လာခဲ့တာ ကြာပါပြီ။
01:09
I've spent a lot of time
studying the circuits in the brain
16
57030
2770
01:11
that create the unique perceptual
realities that we each have.
17
59824
3693
၎င်းတို့ကမှ ကျုပ်တို့ရဲ့ လက်တွေ့
ခံစားရမှုများကို ဖန်တီးပေးကြတာပါ။
အခုတော့ ကျွန်မဟာ အဲဒါတွေကိုယူပြီး
01:16
And now I bring that together
18
64110
1405
လက်ရှိ နည်းပညာတွေရဲ့
လုပ်ကိုင်နိုင်စွမ်းတွေနဲ့ တွဲပေးလျက်
01:17
with the capabilities
of current technology
19
65539
2062
01:19
to create new technology
that does make us better,
20
67625
2537
ကျုပ်တို့ကို ပိုကောင်း၊
ပိုခံစားလာစေကာ ပိုပြီး ဆက်သွယ်ခွင့်ပေးမယ့်
01:22
feel more, connect more.
21
70186
1600
နည်းပညာသစ်တွေကို ဖန်တီးပေးလိုပါတယ်။
01:24
And I believe to do that,
22
72482
1786
ကျွန်မ ယုံကြည်တာက
အဲဒီလို ပြုလုပ်ခြင်းဖြင့်
01:26
we have to be OK
losing some of our agency.
23
74292
2749
ကျုပ်တို့ရဲ့ ထိန်းချုပ်မှု တချို့ကို လက်
လွတ်ရလည်း ကျုပ်တို့အတွက် အိုကေမှာပါ။
01:30
With some animals, it's really amazing,
24
78149
2523
အချို့သော တိရိစ္ဆာန်တွေနဲ့ဆို
အဲဒါ တကယ့်ကို အံ့ဩစရာပါ၊
01:32
and we get to see into
their internal experiences.
25
80696
3474
ကျုပ်တို့ဟာ သူတို့ရဲ့ အတွင်းပိုင်း
အတွေ့အကြုံများကို လေ့လာကြည့်သင့်ပါတယ်။
01:36
We get this upfront look
at the mechanistic interaction
26
84649
3722
ကျုပ်တို့ အခုလို အကြမ်းဖျင်း မြင်ရတာက
၎င်းတို့က သူတို့ ဝန်းကျင်ရှိ ကမ္ဘာအား
01:40
between how they respond
to the world around them
27
88395
2817
တုံ့ပြန်ပုံနဲ့ ၎င်းတို့ရဲ့
ဇီဝစနစ်များအရဲ့ အခြေအနေရဲ့
01:43
and the state of their biological systems.
28
91236
2008
လှုပ်ရှားမှု အသွင်သဏ္ဍာန်ပါ။
01:45
This is where evolutionary pressures
like eating, mating
29
93268
3809
စားသောက်ခြင်း၊ မိတ်လိုက်ခြင်းနဲ့
ကိုယ် အစားမခံလိုက်ရမှာ သေချာစေရေး
01:49
and making sure we don't get eaten
30
97101
1762
ဆင့်ကဲတိုးတက်မှုရဲ့ ဖိအားပေးမှုများက
01:50
drive deterministic behavioral responses
to information in the world.
31
98887
4157
ကမ္ဘာကြီးထဲက အချက်အလက်များဆိုင်ရာ ပြုမူရေး
ဆုံးဖြတ်ချက်များကို ဆုံးဖြတ်ပေးတဲ့ နေရာပါ။
အဲဒါကြောင့် ကျုပ်တို့ဟာ
ဒီပြတင်းပေါက်ထဲကို ကြည့်ရန် လိုပါတယ်၊
01:55
And we get to see into this window,
32
103806
2794
01:58
into their internal states
and their biological experiences.
33
106624
3636
၎င်းတို့ရဲ့ အတွင်းပိုင်း အခြေအနေများနဲ့
ဇီဝအတွေ့အကြုံများကို ကြည့်ဖို့လိုတယ်။
အဲဒါဟာ တကယ့်ကို အံ့အားသင့်စရာကြီးပါ။
02:02
It's really pretty cool.
34
110284
1642
02:03
Now, stay with me for a moment --
I'm a violinist, not a singer.
35
111950
4103
အခုတော့ ကျွန်မကို ခဏကြာ သည်းခံကြပါ --
ကျွန်မ တယောထိုးသူပါ၊ သီချင်းဆိုသူ မဟုတ်ပါ။
02:08
But the spider's already
given me a critical review.
36
116077
3590
ဒါပေမဲ့ ပင့်ကူဟာဖြင့် ကျွန်မအား
မိမိရဲ့ ဝေဖန်ချက်ကို ပေးထားပါပြီ။
02:16
(Video) (Singing in a low pitch)
37
124907
2060
(ဗီဒီယို) (နိမ့်သည့် အသံဖြင့် ဆိုထားသံ)
02:19
(Singing in a middle pitch)
38
127868
2888
(အလယ်သံဖြင့် ဆိုထားသံ)
02:23
(Singing in a high pitch)
39
131800
2505
(မြင့်သည့် အသံဖြင့် ဆိုထားသံ)
02:27
(Singing in a low pitch)
40
135069
1421
(နိမ့်သည့် အသံဖြင့် ဆိုထားသံ)
02:29
(Singing in a middle pitch)
41
137236
1600
(အလယ်သံဖြင့် ဆိုထားသံ)
02:31
(Singing in a high pitch)
42
139403
1777
(မြင့်သည့် အသံဖြင့် ဆိုထားသံ)
02:33
(Laughter)
43
141204
1150
(ရယ်သံများ)
Poppy Crum- ကြည့်ရတာ တချို့ပင့်ကူတွေဟာ
ပင့်ကူအိမ်ကို တယောလို အသံညှိပေးလျက်
02:36
Poppy Crum: It turns out, some spiders
tune their webs like violins
44
144387
3198
အချို့အသံတွေနဲ့
လိုက်ဖက်အောင် ဟိန်းနိုင်ကြတယ်။
02:39
to resonate with certain sounds.
45
147609
2158
02:41
And likely, the harmonics
of my voice as it went higher
46
149791
2771
ကြည့်ရတာ ကျွန်မ အသံဟာ မြင့်တက်သွားပြီး
ကျွန်မ ကျယ်လောင်းစွာ
ဆိုသွားတာနဲ့ ပေါင်းလိုက်တော့
02:44
coupled with how loud I was singing
47
152586
1730
02:46
recreated either the predatory call
of an echolocating bat or a bird,
48
154340
4467
လင်းနို့ ဒါမှမဟုတ် ငှက်ရဲ့
သဘာဝ ခေါ်ဆိုသံလိုဟာကို ဖန်တီးပေးခဲ့လို့၊
02:50
and the spider did what it should.
49
158831
1881
ပင့်ကူဟာ ၎င်းအနေနဲ့
လုပ်ကိုင်ရမှာကို လုပ်ပြခဲ့တာပါ။
02:53
It predictively told me to bug off.
50
161300
2817
ပင့်ကူဟာ ကျွန်မကို
မနှောင့်ယှက်ရန် ပြောခဲ့ပါတယ်။
02:56
I love this.
51
164824
1150
ကျွန်မ ဒါကို ကြိုက်တယ်။
02:58
The spider's responding
to its external world
52
166546
3309
ပင့်ကူရဲ့ ပြင်ပကမ္ဘာသို့ တုံ့ပြန်ပုံပါ၊
03:01
in a way that we get to see and know
what's happening to its internal world.
53
169879
4350
အဲဒါကို ကြည့်လျက် ၎င်းရဲ့ အတွင်ပိုင်း
ကမ္ဘထဲမှာ ဘာတွေဖြစ်ပျက်နေတာ သိနိုင်ပါတယ်။
ဇီဝဗေဒဟာ ပင့်ကူရဲ့
တုံ့ပြန်မှုကို ထိန်းချုပ်ထားတယ်၊
03:07
Biology is controlling
the spider's response;
54
175069
2206
03:09
it's wearing its internal
state on its sleeve.
55
177299
2776
၎င်းဟာ မိမိရဲ့ အတွင်းရေး အခြေအနေကို
မိမိလက်မောင်းပေါ်မှာ ဝတ်ထားပါတယ်။
03:13
But us, humans --
56
181768
1655
ဒါပေမဲ့၊ ကျွန်မတို့ လူသားတွေက--
03:16
we're different.
57
184184
1150
သူတို့နဲ့ မတူညီကြပါ။
ကျုပ်တို့က ကိုယ့်အတွင်းရေး အခြေနေများအား၊
စိတ်ခံစားမှုများကို၊ မလုံခြုံမှုများကို၊
03:17
We like to think we have cognitive control
over what people see, know and understand
58
185899
5735
ကျုပ်တို့ရဲ့ ဝါးလုံးကြွားလုံးတွေ၊ ကျုပ်
တို့ရဲ့ ကြိုးစားမှုတွေနဲ့ စိတ်ဆင်းရဲမှုတွေ
03:23
about our internal states --
59
191658
1409
03:25
our emotions, our insecurities,
our bluffs, our trials and tribulations --
60
193091
4303
ပြီးတော့ ကျွန်ပ်တို့ တုံ့ပြန်ကြပုံကို
လူတွေ မြင်ကြတာ၊ သိကြပြီး နားလည်ကြတာကို
03:29
and how we respond.
61
197418
1267
ကျုပ်တို့က သိလျက်
ထိန်းချုပ်ထားနိုင်တယ်လို့ ထင်ကြတယ်။
03:31
We get to have our poker face.
62
199927
2282
ကျုပ်တို့ဟာ မျက်နှာ ပိရိဖို့ လိုပါတယ်။
အဲဒီလို မနေချင်လည်း ဖြစ်နိုင်ပါတယ်။
03:35
Or maybe we don't.
63
203799
1200
ဒါကို ကျွန်မနဲ့အတူ စမ်းကြည့်ပါ။
03:37
Try this with me.
64
205728
1182
သင့် ဦးနှောက် ခက်ခဲစွာ အလုပ်နေရပုံကို
သင့်မျက်လုံးများက တုံ့ပြန်ကြတယ်။
03:38
Your eye responds
to how hard your brain is working.
65
206934
2690
ကိုယ် မြင်တွေ့နိုင်တဲ့ တုံ့ပြန်မှုကို
စိတ်ပိုင်း အားထုတ်မှုဖြင့် ရယူနိုင်ပြီး
03:42
The response you're about to see
is driven entirely by mental effort
66
210363
3230
03:45
and has nothing to do
with changes in lighting.
67
213617
2635
အလင်းရောင် ပြောင်းလဲမှုနဲ့
ဘာမှ မဆိုင်ပါဘူး။
အာရုံကြောဆိုင်ရာ သိပ္ပံပညာမှ
ဒါကို ကျုပ်တို့ သိထားတယ်။
03:48
We know this from neuroscience.
68
216276
1650
03:49
I promise, your eyes are doing
the same thing as the subject in our lab,
69
217950
4560
ရှင်တို့မျက်လုံးတွေဟာ ကျုပ်တို့ ဓာတ်ခွဲ
ခန်းထဲက ပင့်ကူနည်းတူပဲ တုံ့ပြန်တတ်ပါတယ်။
ကိုယ်က လုပ်ချင်မလုပ်ချင်နဲ့ မဆိုင်ပါဘူး။
03:54
whether you want them to or not.
70
222534
1734
03:56
At first, you'll hear some voices.
71
224292
2173
အစပိုင်းမှာ ရှင်တို့ဟာ အသံအချို့ကို
ကြားကြရပါမယ်။
03:58
Try and understand them
and keep watching the eye in front of you.
72
226489
3278
၎င်းတို့ကို နားလည်ဖို့ ကြိုးစားလျက်
မျက်လုံးများဖြင့် ရှေ့မှာ ကြည့်နေကြပါ။
04:01
It's going to be hard at first,
73
229791
1498
အစပိုင်းတွင် ခက်ခဲပါလိမ့်မယ်။
04:03
one should drop out,
and it should get really easy.
74
231313
2391
ကိုယ့်စိတ်ကို လျှော့ချလိုက်ရင်
တကယ့်ကို လွယ်ကူလာမယ်။
04:05
You're going to see the change in effort
in the diameter of the pupil.
75
233728
3325
ရှင်တို့ရဲ့ အားထုတ်မှု ပြောင်းလဲပုံ မျက်စိ
သူငယ်အိမ် အချင်း ပြောင်းလဲတာ သတိထားမိမယ်။
(ဗီဒီယို)
(ထပ်နေကြတဲ့ အသံနှစ်ခု ပြောဆိုနေကြ)
04:10
(Video) (Two overlapping voices talking)
76
238140
2567
(တစ်ခုတည်းသော အသံ) အသိဉာဏ် နည်းပညာမှာ
ကိုယ်ရေး အချက်များပေါ် မူတည်တယ်။
04:12
(Single voice) Intelligent technology
depends on personal data.
77
240731
2963
04:15
(Two overlapping voices talking)
78
243718
2446
(ထပ်နေကြတဲ့ အသံနှစ်ခု ပြောဆိုနေကြ)
04:18
(Single voice) Intelligent technology
depends on personal data.
79
246188
2976
(တစ်ခုတည်းသော အသံ) အသိဉာဏ် နည်းပညာမှာ
ကိုယ်ရေး အချက်များပေါ် မူတည်တယ်။
PC- ရှင်တို့ သူငယ်အိမ်ဟာ မလိမ်တတ်ပါဘူး။
04:21
PC: Your pupil doesn't lie.
80
249680
1326
04:23
Your eye gives away your poker face.
81
251030
2400
ရှင်တို့ရဲ့ မျက်လုံးက ပိရိတဲ့ မျက်နှာကို
ဖွင့်ပြလိုက်တယ်။
04:25
When your brain's having to work harder,
82
253990
1913
သင့်ဦးနှောက် ခက်ခဲစွာ အလုပ်လုပ်ချိန်မှာ
04:27
your autonomic nervous system
drives your pupil to dilate.
83
255927
2785
သင့်ရဲ့ အာရုံကြောဆိုင်ရာ အလိုအလျောက်စနစ်က
သင့် သူငယ်အိမ်ကို ချဲ့ပေးပါတယ်။
04:30
When it's not, it contracts.
84
258736
1555
မဟုတ်ရင် သူငယ်အိမ် သေးလာတယ်။
04:32
When I take away one of the voices,
85
260680
1691
ခုနကအသံများထဲက
တစ်ခုကို ဖယ်ရှားလိုက်ရင်၊
04:34
the cognitive effort
to understand the talkers
86
262395
2262
ပြောနေသူတို့ကို နားလည်ရန်
အသိစိတ်ရဲ့ အားထုတ်မှုဟာ
04:36
gets a lot easier.
87
264681
1158
များစွာ လွယ်လာပါတယ်။
04:37
I could have put the two voices
in different spatial locations,
88
265863
3000
ခုနက အသံနှစ်ခုကို
မတူတဲ့ နေရာနှစ်ခုမှာ ထားနိုင်ခဲ့မှာပါ။
တစ်ခုကို ကျွန်မ
ပိုကျယ်အောင် လုပ်နိုင်ခဲ့တယ်။
04:40
I could have made one louder.
89
268887
1666
04:42
You would have seen the same thing.
90
270577
1738
ရှင်တို့ အားလုံး
ခုနာက အတိုင်းပဲ ကြုံခဲ့ရမှာပါ။
04:45
We might think we have more agency
over the reveal of our internal state
91
273006
4786
ကျုပ်တို့ အတွင်းရေး အ​ခြေအနေကို
သိနာလည်ဖို့ ကြိုးစားရာတွင် ပင့်ကူနဲ့စာရင်
ပိုပြီး လုပ်နိုင်စွမ်းရှိတယ်လို့
ထင်နိုင်ကြပါတယ်။
04:49
than that spider,
92
277816
1579
04:51
but maybe we don't.
93
279419
1266
အဲဒီလို ဟုတ်ချင်မှ ဟုတ်မှာပါ။
04:53
Today's technology is starting
to make it really easy
94
281021
2969
ဒီနေ့တွင် နည်းပညာတွေဟာဖြင့်
အချက်ပြ ညွှန်ပြပေးခြင်းဖြင့်
04:56
to see the signals and tells
that give us away.
95
284014
2690
ကျုပ်တို့ရဲ့ ဘဝကို တကယ့်ကို
လွယ်ကူလာအောင် ကူပေးနေကြတယ်။
04:59
The amalgamation of sensors
paired with machine learning
96
287109
3294
စက်ရဲ့ သင်ယူမှုနှင့်အတူ အာရုံခံကိရိယာများ
စုစည်းတွဲသုံးလျက်
ကျုပ်တို့ကို၊ ဝန်းကျင်နဲ့ ပတ်ဝန်းကျင်ကို
သင်ယူနေခြင်းဟာ
05:02
on us, around us and in our environments,
97
290427
2413
05:04
is a lot more than cameras and microphones
tracking our external actions.
98
292864
4653
ကင်မရာတွေ မိုက်ခရိုဖုန်တွေ ကျုပ်တို့ကို
ခြေရာခံ ကြည့်နေကြတာထက် အများကြီးပိုပါတယ်။
05:12
Our bodies radiate our stories
99
300529
2818
ကျုပ်တို့ရဲ့ ဇီဝဖြစ်စဉ်ရဲ့ အပူချိန်
ပြောင်းလဲနေခြင်းက
ကျုပ်တို့ ခန္ဓာကိုယ်များက ကျုပ်တို့
ဖြစ်စဉ်တွေကို ထုတ်လွှင့်ပေးနေတယ်။
05:15
from changes in the temperature
of our physiology.
100
303371
2666
05:18
We can look at these
as infrared thermal images
101
306546
2261
ကျုပ်တို့ဟာ အဲဒါကို ကျွန်မရဲ့ နောက်မှာ
ပြသနေတဲ့
05:20
showing up behind me,
102
308831
1160
အနီအောက် အပူချိန်ပုံများလို မြင်နိုင်တယ်။
05:22
where reds are hotter
and blues are cooler.
103
310015
2070
အနီရောင်ဟာ ပိုပူပြီး
အပြာရောင်ဟာ ပိုအေးတယ်။
05:24
The dynamic signature
of our thermal response
104
312458
3183
ကျုပ်တို့ရဲ့ ပြောင်းလဲနေတဲ့ အပူချိန်ဖြင့်
တုံ့ပြန်မှု လက်မှတ်က
05:27
gives away our changes in stress,
105
315665
3031
စိတ်ဖိစီးမှုကြောင့်
ကျုပ်တို့ရဲ့ အပြောင်းအလဲတွေကို၊
ဦးနှောက်က ဘယ်လောက်
ခဲယဉ်းစွာ အလုပ်လုပ်နေပုံကို၊
05:30
how hard our brain is working,
106
318720
2008
05:32
whether we're paying attention
107
320752
1936
ကျုပ်တို့ တစ်ခုခုကို အာရုံစိုက်နေတာလား၊
05:34
and engaged in the conversation
we might be having
108
322712
2627
ကျုပ်တို့ဟာ တစ်ဦးဦးနဲ့ ဆွေးနွေး
ပြောဆိုနေတာလား၊
05:37
and even whether we're experiencing
a picture of fire as if it were real.
109
325363
4095
ဒါမှမဟုတ် ကျုပ်တို့ဟာ မီးလောင်နေခြင်းကို
တကယ့် ခံစားနေရတာလား ဖေါ်ပြပေးနိုင်ပါတယ်။
05:41
We can actually see
people give off heat on their cheeks
110
329482
2643
မီးတောက်ရဲ့ ရှေ့မှာ ထိုင်နေရသူရဲ့
ပါးပြင်ပေါ်မှာ
05:44
in response to an image of flame.
111
332149
2200
ကျုပ်တို့ အပူချိန်ကို တုံ့ပြန်လျက် အပူကို
ပြန်ကန် ထုတ်ပေးတာကို မြင်နိုင်ပါတယ်။
တစ်ဦးဦးရဲ့ အပူချိန်အား တုံ့ပြန်မှု ဒေတာကို
တိုင်းကြည့်ခြင်းဖြင့်
05:48
But aside from giving away
our poker bluffs,
112
336013
2929
05:50
what if dimensions of data
from someone's thermal response
113
338966
4746
ကျုပ်တို့က မျက်နှာသေဖြင့် ထိန်းလိုတဲ့
အရာတွေကို ထုတ်ပြပေးရုံသာမက
05:55
gave away a glow
of interpersonal interest?
114
343736
2659
တကယ့်ကို ကိုယ့်အတွင်းရေးကို
ထုတ်ပြပေးတာမျိုး ဖြစ်နေရင်ကော။
တစ်ဦးဦးရဲ့ အပူပိုင်း ကားချပ်ပုံထဲမှနေပြီး
ခံစားမှု အစစ်အမှန်ကို ခြေရာခံနိုင်ခြင်းက
05:58
Tracking the honesty of feelings
in someone's thermal image
115
346966
3532
06:02
might be a new part of how
we fall in love and see attraction.
116
350522
3626
ကျုပ်တို့ ချစ်ကြိုက်ကြပုံနဲ့ သံယောဇဉ်
ရှိလာပုံကို သိလာနိုင်စရာ ရှိပါတယ်။
ကျုပ်တို့ရဲ့ နည်းပညာဟာ မိုက်ခရိုဖုန်းမှ
ဖမ်းယူလိုက်တဲ့ ကျုပ်တို့ရဲ့ စကားပြောပုံနဲ့
06:06
Our technology can listen,
develop insights and make predictions
117
354172
3693
06:09
about our mental and physical health
118
357889
2095
ဘာသာစကားဆိုင်ရာ အချိန်ကာလ ပြောင်းလဲမှုကို
06:12
just by analyzing the timing dynamics
of our speech and language
119
360008
4000
ဆန်းစစ်ကြည့်ရုံနဲ့ ကျုပ်တို့ရဲ့စိတ်ပိုင်း
နဲ့ ရုပ်ပိုင်း ကျန်းမာရေး အခြေအနေကို
နားထောင်၊ ထိုးဖောက်မြင်နိုင်ပြီး
ဟောကိန်း ထုတ်ပေးနိုင်တယ်။
06:16
picked up by microphones.
120
364032
1443
06:18
Groups have shown that changes
in the statistics of our language
121
366038
3880
ကျုပ်တို့ ဘာသာစကားရဲ့ စာရင်းအင်းထဲက
အပြောင်းအလဲများကို စက်ရဲ့ ဆန်းစစ်မှုနဲ့
06:21
paired with machine learning
122
369942
1420
တွဲပေးလိုက်လျှင် တစ်ဦးဦးထံတွင်
06:23
can predict the likelihood
someone will develop psychosis.
123
371386
3161
စိတ္တဇရောဂါ ဖြစ်လာနိုင်ခြေကို ကြိုတင်
ခန့်မှန်းနိုင်တာ လေ့လာသူတို့ တွေ့ထားတယ်။
ကျွန်မ နောက်တစ်ဆင့် တက်ပြီး
06:27
I'm going to take it a step further
124
375442
1751
အမျိုးမျိုးသော ရောဂါများနဲ့အတူ တွေ့မြင်
ရလေ့ရှိတဲ့ ဘာသာစကား အပြောင်းအလဲများနဲ့
06:29
and look at linguistic changes
and changes in our voice
125
377217
2587
06:31
that show up with a lot
of different conditions.
126
379828
2239
အသံထဲက အပြောင်းအလဲများကို လေ့လာကြည့်တယ်။
06:34
Dementia, diabetes can alter
the spectral coloration of our voice.
127
382091
4367
စိတ်ဖောက်ပြန်မှု၊ ဆီးချိုတို့ဟာ ကျုပ်တို့
အသံရဲ့ ရောင်စဉ်တန်းကို ပြောင်းပစ်နိုင်တယ်။
06:39
Changes in our language
associated with Alzheimer's
128
387205
3119
အယ်လ်ဇိုင်းမားနဲ့ ဆက်စပ်နေတဲ့
ဘာသာစကားထဲက အပြောင်းအလဲတွေကို
06:42
can sometimes show up more
than 10 years before clinical diagnosis.
129
390348
4365
တစ်ခါတစ်ရံတွင် ဆေးခန်းမှာ ရောဂါကို
ရှာမတွေ့မီ ၁၀ နှစ်စောပြီး ပေါ်လွင်တတ်တယ်။
06:47
What we say and how we say it
tells a much richer story
130
395236
3960
ကျုပ်တို့ ဘာတွေကို ပြောပြီး ပြောဆိုပုံဟာ
ကျုပ်တို့ ထင်ခဲ့ကြတာထက်ကို
ပိုပြည့်စုံတဲ့ အချက်တွေကို ပြသကြပါတယ်။
06:51
than we used to think.
131
399220
1254
06:53
And devices we already have in our homes
could, if we let them,
132
401022
4047
ကျုပ်တို့ အိမ်တွေမှာ ရှိနှင့်နေပြီ ဖြစ်တဲ့
ကိရိယာများ၊ ကျုပ်တို့က ခွင့်ပြုမယ်ဆိုရင်၊
06:57
give us invaluable insight back.
133
405093
2134
တန်ဖိုးဖြတ်မရနိုင်တဲ့ အတွင်းရေးတွေကို
အသိပေးနိုင်တယ်။
06:59
The chemical composition of our breath
134
407998
2978
ကျုပ်တို့ ရှူထုတ်လိုက်တဲ့ လေရဲ့
ဓာတုဖွဲ့စည်းထားပုံဟာ
ကျုပ်တို့ရဲ့ ခံစားချက်တွေကို ထုတ်ပြပါမယ်။
07:03
gives away our feelings.
135
411959
1354
07:06
There's a dynamic mixture of acetone,
isoprene and carbon dioxide
136
414363
4478
အဲဒီမှာ ပါဝင်ကြတဲ့ acetone၊ isoprene နဲ့
ကာဗွန်ဒိုင်အောက်ဆိုက်တို့ရဲ့ ရောနှောမှုဟာ
ကျုပ်တို့ရဲ့ နှလုံးခုန်တာ မြန်လာတဲ့အခါမှာ၊
ကြွက်သားတွေ တင်းမာလာရင် ပြောင်းသွားပေမဲ့၊
07:10
that changes when our heart speeds up,
when our muscles tense,
137
418865
3384
07:14
and all without any obvious change
in our behaviors.
138
422809
2897
ကျုပ်တို့ရဲ့ ပြုမူပုံကျတော့
ထင်ရှားတဲ့ အပြောင်းအလဲ မရှိတတ်ပါဘူး။
အခုတော့ ရှင်တို့အား ကျွန်မနဲ့အတူ ဒီအခွေကို
စောင့်ကြည့်စေလိုပါတယ်။
07:18
Alright, I want you to watch
this clip with me.
139
426268
2738
07:21
Some things might be going on
on the side screens,
140
429030
3119
ဘေးက စခရင်တွေပေါ်မှာပါ
တချို့အရာတွေ ပြသပေးနိုင်ပေမဲ့
07:24
but try and focus on
the image in the front
141
432173
3777
ရှင်တို့ ရှေ့မှာရှိတဲ့ ပုံရိပ်နဲ့
ပြတင်းပေါက်နားက လူကို
07:27
and the man at the window.
142
435974
1463
ရှင်တို့ အာရုံစိုက်ဖို့ ကြိုးစားကြပါ။
07:31
(Eerie music)
143
439633
2658
(ကျောချမ်းဖွယ် ဂီတ)
07:39
(Woman screams)
144
447767
1437
(အမျိုးသမီး အော်ဟစ်သံ)
PC- ဆောရီးနော်၊ ရှင်တို့ဖက်မှ
တုံ့ပြန်ပေးဖို့ လိုအပ်ပါတယ်။
07:50
PC: Sorry about that.
I needed to get a reaction.
145
458692
2395
07:53
(Laughter)
146
461111
1785
(ရယ်သံများ)
07:55
I'm actually tracking the carbon dioxide
you exhale in the room right now.
147
463412
4972
တကယ်တော့ ကျွန်မဟာ ရှင်တို့မှ ရှူထုတ်တဲ့
ကာဗွန်ဒိုင်အောက်ဆိုက်ကို ခြေရာခံကြည့်တယ်။
ကျွန်မတို့ဟာ ဒီခန်းမကြီး တလျှောက်လုံးမှာ
ပြွန်တွေ တပ်ဆင်ထားတယ်၊
08:01
We've installed tubes
throughout the theater,
148
469903
3293
CO2 က လေထက် ပိုလေးလို့
ကြမ်းပြင်နဲ့ ကပ်လျက် တပ်ဆင်ထားကြတယ်။
08:05
lower to the ground,
because CO2 is heavier than air.
149
473220
2595
၎င်းတို့အားလုံးကို နောက်ဖက်ရှိ
ကိရိယာတစ်ခုနဲ့ ချိတ်ဆက်ပေးထားလို့
08:07
But they're connected
to a device in the back
150
475839
2667
08:10
that lets us measure, in real time,
with high precision,
151
478530
3287
အချိန်နဲ့တပြေးညီ တိကျစွာ CO2
ပါဝင်မှု အချိုးအစား ပြောင်းလဲနေပုံကို
08:13
the continuous differential
concentration of CO2.
152
481841
2922
တချိန်လုံး တိုင်းကြည့်နိုင်ပါတယ်။
08:17
The clouds on the sides are actually
the real-time data visualization
153
485246
5508
ဘေးမှာ မြင်ကြရတဲ့ တိမ်များဟာ
အချိန်နဲ့တ​ပြေးညီ ရရှိနေတဲ့ CO2 ရဲ့
08:22
of the density of our CO2.
154
490778
1998
သိပ်သည်းဆကို မြင်ကြရပုံပါ။
08:25
You might still see
a patch of red on the screen,
155
493374
3699
ရှင်တို့ဟာ စခရင်ပေါ်မှာ အနီရောင် အကွက်ကို
မြင်နိုင်ကြမယ် ထင်ပါတယ်၊
08:29
because we're showing increases
with larger colored clouds,
156
497097
3705
တိုးတိုးလာနေခြင်းကို ကျွန်မတို့က
ပိုပြီး အရောင်တင်ပေးလျက် ပြသပေးနေကြလို့ပါ၊
08:32
larger colored areas of red.
157
500826
2196
အနီရောင် ချယ်ထားတဲ့ ဧရိယာ ပိုကြီးလာတယ်။
08:35
And that's the point
where a lot of us jumped.
158
503046
2559
ကျွန်မတို့ထဲက တော်တော်များများ
ထခုန်လိုက်ကြတဲ့ အချိန်ပါပဲ။
08:38
It's our collective suspense
driving a change in carbon dioxide.
159
506173
4915
ကျုပ်တို့ရဲ့ စုပေါင်းလျက် ရင်ဖိုခဲ့ကြမှုက
ကာဗွန်ဒိုင်အောက်ဆိုဒ်ကို ပြောင်ပစ်ခဲ့တယ်။
08:43
Alright, now, watch this
with me one more time.
160
511649
2722
ကောင်းပြီ၊ ဒါကို ကျွန်မနဲ့အတူ
နောက်တစ်ကြိမ် ကြည့်ကြပါ။
08:46
(Cheerful music)
161
514395
2238
(ပျော်ရွှင်ဖွယ် ဂီတ)
08:54
(Woman laughs)
162
522553
2137
(အမျိုးသမီး ရယ်သံ)
PC- အဲဒါ လာမှာကို ရှင်တို့ သိခဲ့ကြတယ်။
09:05
PC: You knew it was coming.
163
533344
1349
09:06
But it's a lot different
when we changed the creator's intent.
164
534717
3363
မြင်ရတဲ့ အကြောင်းအရာကို ကျုပ်တို့ ပြောင်း
လိုက်တာနဲ့ အခြေအနေဟာ လုံးဝ ပြောင်းသွားတယ်။
09:10
Changing the music and the sound effects
165
538776
2769
ဂီတနဲ့ အသံတွေကို ပြောင်းလဲပစ်လိုက်တာနဲ့
09:13
completely alter the emotional
impact of that scene.
166
541569
3603
အဲဒီရှုခင်းကနေပြီး ကျုပ်တို့ အပေါ်
သက်ရောက်မှုကို လုံးဝ ပြောင်းပစ်တယ်။
အဲဒါကို ကျုပ်တို့ရဲ့
ရှူထုတ်လိုက်တဲ့ အသက်ထဲမှာ မြင်နိုင်ပါတယ်။
09:17
And we can see it in our breath.
167
545196
2134
09:20
Suspense, fear, joy
168
548196
2262
သည်းထိတ်ရင်ဖို၊
ကြောက်ရွံ့ခြင်း၊ ဝမ်းသာခြင်း၊
09:22
all show up as reproducible,
visually identifiable moments.
169
550482
4507
အားလုံးတို့ဟာ ပြန်ပြီး ထုတ်ယူလျက်
အထင်အရှား မြင်ရအောင် လုပ်ပြနိုင်တယ်။
09:27
We broadcast a chemical signature
of our emotions.
170
555473
4151
ကျုပ်တို့ဟာ ကျုပ်တို့ စိတ်ခံစားမှုတွေရဲ့
ဓာတုဗေဒ လက်မှတ်ကို ထုတ်လွှင့်နေကြပါတယ်။
ဒီတော့ အဲဒါက ပိရိတဲ့
မျက်နှာကို အဆုံးသတ်လိုက်မှုပါပဲ။
09:35
It is the end of the poker face.
171
563249
2133
09:38
Our spaces, our technology
will know what we're feeling.
172
566582
3566
ကျုပ်တို့ရဲ့ ပတ်ဝန်းကျင်၊ နည်းပညာတွေက
ကျုပ်တို့ ခံစားနေရတာကို သိကြပါမယ်။
ကျုပ်တို့ဟာ တစ်ဦးကိုတစ်ဦး
မကြုံစဖူး ပိုလို့ကို သိရှိလာကြရပါမယ်။
09:42
We will know more about each other
than we ever have.
173
570736
2785
09:45
We get a chance to reach in and connect
to the experience and sentiments
174
573911
4307
ကျုပ်တို့ လူသားတွေအတွက် အာရုံခံစား
ရမှုများ၊ စိတ်ခံစားရမှုများနဲ့ လူမှုရေးအရ
အခြေခံအကျဆုံး အတွေ့အကြုံများနဲ့ စိတ်သဘော
တို့လို အရာတွေကို လက်လှမ်းမီလျက်
09:50
that are fundamental to us as humans
175
578242
1742
09:52
in our senses, emotionally and socially.
176
580008
2410
ချိတ်ဆက်ကြည့်နိုင်မယ့် အခွင့်အလမ်း
ကျုပ်တို့မှာ ပေါ်လာပါပြီ။
09:55
I believe it is the era of the empath.
177
583482
2540
စာနာမှု ခေတ်လို့ ကျွန်မ ယုံကြည်တယ်။
09:58
And we are enabling the capabilities
that true technological partners can bring
178
586046
5222
စစ်မှန်တဲ့ နည်းပညာ မိတ်ဖက်များက အဲဒီ
လုပ်ကိုင်နိုင်စွမ်းတွေကို ယူဆောင်ပေးကြလို့
ကျုပ်တို့ တစ်ဦးနဲ့တစ်ဦး၊ ကျုပ်တို့
ရဲ့ နည်းပညာနဲ့ ဆက်သွယ်နိုင်ကြမယ်။
10:03
to how we connect with each other
and with our technology.
179
591292
3047
10:06
If we recognize the power
of becoming technological empaths,
180
594363
3389
ကျုပ်တို့က နည်းပညာအရ စာနာမှု
ရှိလာခြင်းရဲ့ စွမ်းပကားကို အသိအမှတ်ပြုရင်
ကျုပ်တို့ဟာ စိတ်ခံစားမှုနဲ့
သိနားလည်မှု အကြားမှာ
10:09
we get this opportunity
181
597776
1936
10:11
where technology can help us bridge
the emotional and cognitive divide.
182
599736
4424
ပေါင်းကူးရေး တံတားကို ဆောက်လုပ်ဖို့
အခွင့်အလမ်းကို ရရှိလာကြမယ်။
အဲဒီလိုသာဆိုရင်၊ ကျုပ်တို့ဟာ ကျုပ်တို့
အကြောင်း ပြောဆိုပုံကိုပါ ပြောင်းလဲကြရမယ်။
10:16
And in that way, we get to change
how we tell our stories.
183
604680
2723
ပိုတိုးတက်လာမယ့် အရှိတရားလို နည်းပညာများက
ကျုပ်တို့ပါဝင်မှုကို တိုးချဲ့ပေးနိုင်လို့
10:19
We can enable a better future
for technologies like augmented reality
184
607427
3580
10:23
to extend our own agency
and connect us at a much deeper level.
185
611031
4193
ပိုနက်ရှိုင်းစွာ ဆက်သွယ်နိုင်ကြမှာမို့
အနာဂတ်ဟာ ပိုကောင်းလာမှာပါ။
အထက်တန်းကျောင်းသားတွေကို
တိုင်ပင်ပေးသူကို စိတ်ကူးကြည့်လျှင်၊
10:27
Imagine a high school counselor
being able to realize
186
615625
2547
10:30
that an outwardly cheery student
really was having a deeply hard time,
187
618196
3826
အပြင်ပန်းအားဖြင့် ပျော်ရွှင်နေပုံရတဲ့
ကျောင်းသားရဲ့ ဘဝ ခက်ထန်လှတာကိုသိနိုင်လို့
10:34
where reaching out can make
a crucial, positive difference.
188
622046
3180
လိုအပ်တဲ့ အကြံကို ပေးမှုဟာ
သိသိသာသာ အပြုသဘော ဆောင်လာမှာပါ။
10:37
Or authorities, being able
to know the difference
189
625766
3230
ဒါမှမဟုတ် အာဏာပိုင်တွေ ဆိုပါစို့၊
လူတစ်ယောက်ဆီတွင်
10:41
between someone having
a mental health crisis
190
629020
2325
စိတ်ရောဂါ ရှိနေကြောင်း ဒါမှမဟုတ်
10:43
and a different type of aggression,
191
631369
1826
တခြား ရန်လိုစိတ်ရှိသူ ဖြစ်ကြောင်း
10:45
and responding accordingly.
192
633219
1800
သိထားရင် တုံ့ပြန်ပုံဟာ ပိုမှန်ကန်လာပါမယ်။
ဒါမှမဟုတ် အနုပညာရှင်ဆိုပါစို့၊ သူ့လက်ရာ
တိုက်ရိုက်သက်ရောက်မှုကို သိလာနိုင်မယ်။
10:47
Or an artist, knowing
the direct impact of their work.
193
635609
3273
လီယို တော်စတွိုင်းရဲ့
အနုပညာဆိုင်ရာ ရှုထောင့်အရ
10:52
Leo Tolstoy defined his perspective of art
194
640173
2643
ဖန်တီးသူ ဖန်တီးလိုက်တာကို
အခြားတစ်ဖက်မှ ကြည့်သူကကော
10:54
by whether what the creator intended
195
642840
1785
10:56
was experienced by the person
on the other end.
196
644649
2586
ခံစားနိုင်ခဲ့သလား ဆိုတာကိုကြည့်ပြီး
ဆုံးဖြတ်ကြရန် လိုအပ်ပါတယ်။
10:59
Today's artists can know
what we're feeling.
197
647259
2566
ဒီနေ့ အနုပညာရှင်တို့ဟာ
ကျုပ်တို့ ခံစားရတာကို သိနိုင်ကြပါပြီ။
11:02
But regardless of whether
it's art or human connection,
198
650204
3005
အနုပညာပဲ ဖြစ်ဖြစ်၊ လူသားအချင်းအချင်း
ဆက်သွယ်မှုပဲ ဖြစ်ဖြစ်၊
ဒီနေ့ နည်းပညာတွေဟာဖြင့်
11:06
today's technologies
will know and can know
199
654608
2802
ကျုပ်တို့ ခံစားနေကြတာကို သိလာခွင့်
ရလို့ သိလာနိုင်ခြင်းက
11:09
what we're experiencing on the other side,
200
657434
2048
ကျုပ်တို့ ပိုပြီးနီးကပ်လာကြပြီး
ပိုပြီး စစ်မှန်လာကြမှာကို ဆိုလိုပါတယ်။
11:11
and this means we can be
closer and more authentic.
201
659506
2618
11:14
But I realize a lot of us
have a really hard time
202
662498
4293
တချိန်တည်းမှာ ကျုပ်တို့ထဲက
တော်တော်များများတို့အတွက်
ကျုပ်တို့ရဲ့ ဒေတာ ဝေမျှပေးရေးကို
အထူးသဖြင့် လူတွေက ကျုပ်တို့ အကြာင်း
11:18
with the idea of sharing our data,
203
666815
2267
11:21
and especially the idea
that people know things about us
204
669673
3111
အားလုံးသိမှာကိုအတော့်ကို စိတ်အနှောင့်
အယှက် ဖြစ်ရတာ သိပါတယ်။
11:24
that we didn't actively choose to share.
205
672808
2321
ကိုယ်က ဝေမျှပေးရန် တမင်ကို
မရွေးချယ်ခဲ့တာမျိုးကို ပြောနေတာ။
11:28
Anytime we talk to someone,
206
676728
2216
ကျုပ်တို့က တစ်ဦးဦးနဲ့ စကားပြောချိန်မှာ၊
တစ်ဦးဦးကို ကြည့်လိုက်ချိန်မှာ၊
11:31
look at someone
207
679946
1555
ဒါမှမဟုတ် မကြည့်ဖို့ ဆုံးဖြတ်ချိန်မှာ၊
11:33
or choose not to look,
208
681525
1468
11:35
data is exchanged, given away,
209
683017
2647
ဒေတာကို ဖလှယ်ဖြစ်သွားပြီ၊ ပေးပြီးသွားပြီ၊
11:38
that people use to learn,
210
686533
2205
အဲဒါကို လူတွေက လေ့လာဖို့ သုံးကြတယ်၊
11:40
make decisions about
their lives and about ours.
211
688762
3267
သူတို့ဘဝဆိုင်ရာ ကျုပ်တို့ အကြောင်းဆိုင်ရာ
ဆုံးဖြတ်ချက်ကို ချမှတ်ကြပါတယ်။
ကျုပ်တို့ရဲ့ အတွင်းပိုင်း
ဘဝကို လုံးဝဖွင့်ချလိုက်ပြီး
11:45
I'm not looking to create a world
where our inner lives are ripped open
212
693469
3968
ကျုပ်တို့ရဲ့ ကိုယ်ရေး ဒေတာနဲ့ ပုဂ္ဂိုလ်ရေး
လုံခြုံမှုဆိုင်ရာတွေကို ကိုယ်မပေးချင်တဲ့
11:49
and our personal data
and our privacy given away
213
697461
2348
လူတွေဆီနဲ့ အာဏာပိုင်များဆီ ရောက်သွားမယ့်
ကမ္ဘာမျိုးကို ကျွန်မ မဖန်တီးလိုပါ။
11:51
to people and entities
where we don't want to see it go.
214
699833
2713
11:55
But I am looking to create a world
215
703117
2762
ဒါပေမဲ့ တစ်ဦးကိုတစ်ဦး ပိုပြီး
ထိရောက်စွာ ကူညီစောင့်ရှောက်နိုင်ပြီး
11:57
where we can care about
each other more effectively,
216
705903
3408
တစ်ဦးဦးက တစ်ခုခု ခံစားနေရတာကို
သိသင့်လျက် အာရုံစိုက်ဖို့ လိုတာကို
12:01
we can know more about when
someone is feeling something
217
709335
3060
ကျုပ်တို့ ပိုသိရှိခွင့် ရလာခြင်းဖြင့်
ပိုစောင့်ရှောက်ခွင့်တွေ ရှိလာမယ့်
12:04
that we ought to pay attention to.
218
712419
1872
ကမ္ဘာကို ဖန်တီရန် ကျွန်မ ရည်မှန်းပါတယ်။
12:06
And we can have richer experiences
from our technology.
219
714800
3335
ကျုပ်တို့ဟာ ကျုပ်တို့ရဲ့ နည်းပညာများထံမှ
ပိုပြည့်စုံတဲ့ အတွေ့အကြုံတွေ ရရှိနိုင်မယ်။
12:10
Any technology
can be used for good or bad.
220
718887
2357
ဘယ်နည်းပညာကိုမဆို အကောင်းအတွက်
အဆိုးအတွက် သုံးရနို​င်ပါတယ်။
12:13
Transparency to engagement
and effective regulation
221
721268
2412
ခုနက အချက်တွေကို ယုံကြည်အားကိုးလာရန် အတွက်
12:15
are absolutely critical
to building the trust for any of this.
222
723704
3120
ပါဝင်လုပ်ကိုင်မှု ပွင့်လင်းမြင်သာရန်နဲ့
ထိရောက်တဲ့ ထိန်းချုပ်မှု သိပ်အရေးကြီးတယ်။
12:20
But the benefits that "empathetic
technology" can bring to our lives
223
728106
4834
ဘယ်လိုပဲဖြစ်ဖြစ် "စာနာမှု နည်းပညာ"ဟာဖြင့်
12:24
are worth solving the problems
that make us uncomfortable.
224
732964
3891
ကျုပ်တို့အတွက် အဆင်မပြေတဲ့ ကိစ္စတွေကို
ဖြေရှင်းပေးမှာမို့ အကျိုးရှိမှာပါ။
12:29
And if we don't, there are
too many opportunities and feelings
225
737315
4025
ကျုပ်တို့ အသုံးမချကြဘူးဆိုရင်၊
သိပ်ကို များပြားတဲ့ အခွင့်အလမ်းတွေနဲ့
ခံစားချက်တွေကို ဆုံးရှုံးခံကြရမှာပါ။
12:33
we're going to be missing out on.
226
741364
1695
12:35
Thank you.
227
743083
1175
ကျေးဇူးတင်ပါတယ်။
12:36
(Applause)
228
744282
2479
(လက်ခုပ်သံများ)
Translated by Myo Aung
Reviewed by Sanda Aung

▲Back to top

ABOUT THE SPEAKER
Poppy Crum - Neuroscientist, technologist
Poppy Crum builds technologies that best leverage human physiology to enhance our experiences and how we interact with the world.

Why you should listen

Poppy Crum is dedicated to the development of immersive technologies that leverage human physiology and perceptual realities to enhance our experiences and interactions in the world. She has advanced a mission to democratize the way people of all abilities benefit from sensory technologies -- and how effectively technology communicates back to each of us. She believes the power of intelligent technologies is only realized with dynamic optimization and learning of as much of our personal and contextual data as possible.

Crum is chief scientist at Dolby Laboratories, leading the company's integration of neuroscience and sensory data science into its entertainment, communication and future technologies. She is also adjunct professor at Stanford University, where her work focuses on the impact and feedback potential of gaming and immersive environments, such as augmented and virtual reality, on neuroplasticity and learning. She has been recognized with the Advanced Imaging Society's Distinguished Leadership Award and the Consumer Technology Association's Technology and Standards Achievement Award for work towards the introduction of affordable, over-the-counter hearing-aid devices, and she is a fellow of the Audio Engineering Society. She has also been named to Billboard Magazine's 100 most influential female executives in the music industry. Prior to joining Dolby Laboratories, Crum was Research Faculty in the Department of Biomedical Engineering at Johns Hopkins School of Medicine.

More profile about the speaker
Poppy Crum | Speaker | TED.com