ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

James Bridle: ကလေးများအတွက် YouTube အိပ်မက်ဆိုး -- ယခုခေတ် အင်တာနက်နဲ့ပတ်သက်ပြီး မှားယွင်းနေတာတွေ။

Filmed:
5,404,429 views

စာရေးဆရာ၊ အနုပညာရှင် ဂျိမ်းစ် ဘရိုက်ဒယ်လ် ဟာ အင်တာနက်ပေါ်က အန္တရာယ်တွေ၊ အမည်မသိလူတွေက ကြော်ငြာခ အတွက်နဲ့ ကလေးတွေရဲ့ အတွေးအာရုံပေါ် အမြတ်ထုတ်မှုတွေ ကို ပေါ်လွင်စေခဲ့ပါတယ်။ ကလေးများနှစ်သက်တဲ့ လက်ဆောင် ချောကလက် ဥ "surprise egg" မိသားစု သီချင်း "Finger Family Song" video တွေမှ ကလေးငယ်များရဲ့ ကာတွန်း ဇာတ်ကောင်တွေကို အသုံးချပြီး ကြမ်းတမ်း ရင့်သီးတဲ့ အကြောင်းအရာများ ဖန်တီးနေကြတာ ဟာ ကလေးငယ်များ အတွက် ကြောက်မက်ဖွယ်ပါ။ ဒီအဖြစ်တွေက ကျနော်တို့ရဲ့ အချက်အလက် နည်းပညာ အသုံးချမှု နဲ့ ပက်သက်ပြီး တစ်စုံတစ်ခုထောက်ပြနေပါတယ်။ ဘရိုက်ဒယ်လ် ပြောတာကတော့ "ကျနော်တို့ဟာ နည်းပညာကို အရာရာတိုင်းအတွက် ဖြေရှင်းချက်အနေနဲ့ စဉ်းစားတာတွေ ရပ်သင့်ပါပြီ။ တကယ်တမ်း ပြဿနာ အရင်းအမြစ်တွေ ရဲ့ အဖြေရှာဖို့ အထောက်အကူအနေနဲ့သာ သုံးသင့်ပါတယ်။ ဒီလိုမှသာ ကျနော်တို့ဟာ နည်းပညာကို မှန်မှန်ကန်ကန် အသုံးချတယ်လို့ ဆိုနိုင်မှာပါ။"
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm James.
0
777
1183
ကျနော့ နာမည် James ပါ
00:13
I'm a writer and artist,
1
1984
1686
စာရေးဆရာ၊ အနုပညာရှင် တစ်ယောက်ပါ
00:15
and I make work about technology.
2
3694
2341
နည်းပညာနဲ့ ပက်သက်တဲ့
ဖန်တီးမှုတွေ ပြုလုပ်တယ်
00:18
I do things like draw life-size outlines
of military drones
3
6454
3911
ကမ္ဘာ့ မြို့ကြီးတွေရဲ့ လမ်းတွေပေါ်မှာ
00:22
in city streets around the world,
4
10389
1828
စစ်တပ်သုံး drone ပုံတွေဆွဲတာမျိုးပေါ့
00:24
so that people can start to think
and get their heads around
5
12241
2950
ရည်ရွယ်ချက်က လူတွေ နည်းပညာနဲ့ ပက်သက်ပြီး
00:27
these really quite hard-to-see
and hard-to-think-about technologies.
6
15215
3440
မထင်မှတ်ထားတာတွေကို သတိပြုမိလာအောင်ပါ
00:31
I make things like neural networks
that predict the results of elections
7
19494
3836
ရာသီဥတု ခန့်မှန်းချက်တွေကိုသုံးပြီး
ရွေးကောက်ပွဲရလဒ်တွေကို ခန့်မှန်းတဲ့
00:35
based on weather reports,
8
23354
1737
neural network တွေလည်းပြုလုပ်တယ်
00:37
because I'm intrigued about
9
25115
1314
ဘာလို့လဲဆိုတော့
00:38
what the actual possibilities
of these weird new technologies are.
10
26453
3924
ဒီထူးဆန်းတဲ့ နည်းပညာတွေကို သုံးပြီး
ဘာတွေဖြစ်လာနိုင်ခြေရှိတာ သိချင်လို့ပါ။
00:43
Last year, I built
my own self-driving car.
11
31405
2426
ပြီးခဲ့တဲ့နှစ်က ကိုယ်ပိုင်
မောင်းသူမဲ့ကားဆောက်ခဲ့တယ်
00:45
But because I don't
really trust technology,
12
33855
2526
ဒါပေမဲ့ နည်းပညာအပေါ်
တကယ့့််ကို မယုံကြည်တာကြောင့်
00:48
I also designed a trap for it.
13
36405
1928
ဒီကားအတွက်
လှည့်ကွက်တစ်ခု ဆင်ခဲ့တယ်
00:50
(Laughter)
14
38777
1086
(ရယ်သံများ)
00:51
And I do these things mostly because
I find them completely fascinating,
15
39887
4298
ဒါတွေအကို ကျနော် လုပ်တာကတော့
ထိန်းချုပ်လုပ်မရတဲ့ စိတ်ဝင်စားမှုကြောင့်ပါ
00:56
but also because I think
when we talk about technology,
16
44209
2602
ကျနော့အထင် နည်းညာအကြောင်း
ကျနော်တို့ ဆွေးနွေးတဲ့အခါ
00:58
we're largely talking about ourselves
17
46835
2619
ကျနော်တို့ ကိုယ်တိုင်အကြောင်းအပြင်
01:01
and the way that we understand the world.
18
49478
2299
ကမ္ဘာကြီးပေါ် နားလည်ပုံကိုပါ
ဆွေးနွေးနေလို့ပါ။
01:03
So here's a story about technology.
19
51801
2442
ဒီမှာ ကျနော်က နည်းပညာနဲ့
ပက်သက်ပြီးပြောချင်ပါတယ်
01:07
This is a "surprise egg" video.
20
55520
2830
ဒါက "လက်ဆောင် ဥ" (surprise egg) ဗီဒီယို ပါ
01:10
It's basically a video of someone
opening up loads of chocolate eggs
21
58374
3348
ဒီ ဗီဒီယို မှာ ဥပုံစံ ချောကလက်လုံးတွေကို
ဖွင့်ဖောက်ပြနေတာပါ
01:13
and showing the toys inside to the viewer.
22
61746
2126
အထဲက ဖွက်ထားတဲ့ အရုပ်လေးတွေ
ထွက်လာတာပေါ့
01:16
That's it. That's all it does
for seven long minutes.
23
64461
2649
ဒါပဲ။ ဒီ (၇)မိနစ် video မှာပြနေတာ ဒါပဲ။
01:19
And I want you to notice
two things about this.
24
67428
3051
ဒါနဲ့ ပက်သက်ပြီး ကျနော်သိစေချင်တာ (၂)ချက်က
01:22
First of all, this video
has 30 million views.
25
70503
4074
ပထမ အချက်၊ ဒီ video က ကြည့်ရှုသူ
အရေအတွက် သန်း(၃၀) ရှိပါတယ်
01:26
(Laughter)
26
74601
1275
(ရယ်သံများ)
01:28
And the other thing is,
27
76376
1166
နောက်တစ်ချက်က
01:29
it comes from a channel
that has 6.3 million subscribers,
28
77566
3869
ဒီ video တွေပြတဲ့ ချန်နယ် (channel) က
ပရိသတ် (subscriber) (၆.၃)သန်း ရှိပါတယ်
01:33
that has a total of eight billion views,
29
81459
2680
စုစုပေါင်း ကြည့်ရှုသူပေါင်း
(၈)ဘီလီယံ ရှိပါတယ်။
01:36
and it's all just more videos like this --
30
84163
3106
ဒီလို ဗီဒီယို ပေါင်းများစွာ ရှိနေပါတယ်
01:40
30 million people watching a guy
opening up these eggs.
31
88256
3908
လူပေါင်း သန်း(၃၀)က လူတစ်ယောက် ချောကလက်
လုံးတွေ ထိုင်ဖောက်နေတာကို ကြည့်နေကြတာ
01:44
It sounds pretty weird, but if you search
for "surprise eggs" on YouTube,
32
92188
4481
ဒါက တော်တော်ကြောင်တောင်တောင်ဆိုါပေမဲ့
YouTube မှာ "surprise eggs"လို့ ရှာကြည့်ပါ
01:48
it'll tell you there's
10 million of these videos,
33
96693
3523
ဒီလို video ပေါင်း (၁၀)သန်းလောက်
ထွက်လာလိမ့်မယ်
01:52
and I think that's an undercount.
34
100240
1657
(၁၀)သန်းဆိုတာ နည်းပါဦးမယ်
01:53
I think there's way, way more of these.
35
101921
1897
ဒါထက် အများကြီး ပိုရှိနေဦးမှာ
01:55
If you keep searching, they're endless.
36
103842
2242
ရှာပြီးရင်း ရှာနေ၊ မဆုံးနိုင်ဘူး
01:58
There's millions and millions
of these videos
37
106108
2159
ဒီလို video မျိုးတွေ သန်းချီ ရှိနေတာပါ။
02:00
in increasingly baroque combinations
of brands and materials,
38
108291
3454
ချောကလက် ဥတွေ
ပုံစံအမျိုးမျိုး၊ တံဆိပ်အမျိုးမျိုး
02:03
and there's more and more of them
being uploaded every single day.
39
111769
3846
နေ့စဉ်နေ့တိုင်း ဒီလို video အသစ်အသစ်တွေ
တင်နေကြတာပါ
02:07
Like, this is a strange world. Right?
40
115639
3511
တော်တော် နားမလည်နိုင်စရာပဲနော်
02:11
But the thing is, it's not adults
who are watching these videos.
41
119174
3383
တကယ်တမ်းက ဒီ ဗီဒီယို တွေကို ကြည့်နေကြတာ
လူကြီးတွေ မဟုတ်ပါဘူး
02:14
It's kids, small children.
42
122581
2921
ကလေး ငယ်ငယ်လေးတွေပါ
02:17
These videos are
like crack for little kids.
43
125526
2154
ဒီဗီဒီယိုတွေက ကလေးငယ်လေးတွေ အတွက်
စွဲလမ်းစရာပါ
02:19
There's something about the repetition,
44
127704
2075
အကြိမ်ကြိမ် ကြည့်နေကြတာ အကြောင်းရှိပါတယ်
02:21
the constant little
dopamine hit of the reveal,
45
129803
2468
အထဲက အရုပ်ထွက်လာတာ ကြည့်ရတဲ့
စွဲလမ်းမှု (dopamine) က
02:24
that completely hooks them in.
46
132295
1866
ဒီကလေးတွေကို ဆွဲဆောင်ပါတယ်
02:26
And little kids watch these videos
over and over and over again,
47
134185
4809
ကလေးလေးတွေက ဒီ video တွေကို
ထပ်ခါတလဲလဲ ကြည့်ကြပါတယ်
02:31
and they do it for hours
and hours and hours.
48
139018
2327
နာရီပေါင်းများစွာ ထပ်ခါတလဲလဲ
02:33
And if you try and take
the screen away from them,
49
141369
2356
သူတို့လေးတွေဆီက ကြည့်နေတာကို
ဖယ်လိုက်လို့ကတော့
02:35
they'll scream and scream and scream.
50
143749
1782
အော်ပြီ ဟစ်ပြီ ဆူညံပြီ
02:37
If you don't believe me --
51
145555
1262
ကျနော် ပြောတာကို မယုံရင်
02:38
and I've already seen people
in the audience nodding --
52
146841
2607
အခု ပရိသတ်ထဲမှာတင်
ခေါင်းညိတ်နေတဲ့လူတွေ တွေ့နေရပြီ
02:41
if you don't believe me, find someone
with small children and ask them,
53
149472
3391
မယုံရင် ကလေးရှိတဲ့ တစ်ယောက်ယောက်ကို
ဒီ surprise egg videos ကို
02:44
and they'll know about
the surprise egg videos.
54
152887
2340
သိသလားလို့မေးကြည့်ပါ။
02:47
So this is where we start.
55
155251
2070
ဆိုတော့ ဒီမှာ ကျနော်စပြောပြီ
02:49
It's 2018, and someone, or lots of people,
56
157345
3642
၂၀၁၈ မှာ လူတစ်ချို့ (သို့) အတော်များများဟာ
02:53
are using the same mechanism that, like,
Facebook and Instagram are using
57
161011
3941
ဒီ app ကို လူတွေ ဆက်ဆက်ကြည့်စေဖို့
အလားတူ နည်းလမ်းတွေ သုံးတဲ့Facebook,
02:56
to get you to keep checking that app,
58
164976
1989
Instagram တို့လိုမျိုးတွေကို သုံးနေကြတယ်။
02:58
and they're using it on YouTube
to hack the brains of very small children
59
166989
3985
အခုဆို YouTube ပေါ်မှာ ကလေးငယ်လေးတွေကို
အသုံးချပြီး
03:02
in return for advertising revenue.
60
170998
1958
ကြော်ငြာခ ယူဖို့ ကြိုးစားနေကြ တာပဲ
03:06
At least, I hope
that's what they're doing.
61
174346
2001
အနညး်ဆုံး သူတို့ ရည်ရွယ်ချက်က
ဒီလောက်ပဲ
03:08
I hope that's what they're doing it for,
62
176371
1955
ဒီအတွက်ပဲ သူတို့လုပ်တာလို့ မျှော်လင့်တယ်။
03:10
because there's easier ways
of making ad revenue on YouTube.
63
178350
5308
ဘာလို့ဆို YouTube ကြော်ငြာခရဖို့ ဒီထက်ပို
လွယ်တဲ့ နည်းလမ်းတွေ ရှိပါတယ်။
03:15
You can just make stuff up or steal stuff.
64
183682
2332
လုပ်ကြံဖန်တီးထားတာ
သူများဟာကို ခိုးချတာတွေပေါ့
03:18
So if you search for really
popular kids' cartoons
65
186038
2635
နာမည်ကြီး ကလေး ကာတွန်းကားတွေကို
ရှာကြည့်လိုက်ပါ
03:20
like "Peppa Pig" or "Paw Patrol,"
66
188697
1654
"့်Peppa Pig" (သို့) "Paw Patrol"
03:22
you'll find there's millions and millions
of these online as well.
67
190375
3147
ရှာကြည့်ရင် အင်တာနက်ပေါ်မှာ
ဒီကာတွန်းတွေ သန်းနဲ့ချီပြီးတွေ့ရပါမယ်
03:25
Of course, most of them aren't posted
by the original content creators.
68
193546
3352
ဒါပေမဲ့ တော်တော်များများက မူရင်းပိုင်ရှင်
ကိုယ်တိုင် တင်ထားတာ မဟုတ်ဘူး
03:28
They come from loads and loads
of different random accounts,
69
196922
2999
ဒီလိုပဲ လူအမျိုးအမျိုးက နည်းမျိုးစုံနဲ့
တင်နေကြတာပါ
03:31
and it's impossible to know
who's posting them
70
199945
2240
ဘယ်သူဘယ်ဝါ တင်တယ်ဆိုတာလည်း
အတိအကျသိဖို့ ခက်ပါတယ်
03:34
or what their motives might be.
71
202209
1822
ဘာရည်ရွယ်ချက်နဲ့ တင်တာ
မသိနိုင်ပါဘူး
03:36
Does that sound kind of familiar?
72
204428
1930
ဒါမျိုး ပြဿနာက ရင်းနှီးနေတယ်လို့ ထင်လား
03:38
Because it's exactly the same mechanism
73
206382
1980
ဒါမျိုး ဖြစ်စဉ်က
03:40
that's happening across most
of our digital services,
74
208386
2600
ကျနော်တို့ ဒစ်ဂျစ်တယ် လောကမှာ
အမြဲ ကြုံနေရတာပါ
03:43
where it's impossible to know
where this information is coming from.
75
211010
3207
ဒီအချက်အလက်တွေ ဘယ်က စပြီး
ပျံ့လာသလဲ သိဖို့ အင်မတန် ခက်ခဲပါတယ်
03:46
It's basically fake news for kids,
76
214241
1829
ဒါဟာကလေးတွေ အတွက် သတင်းမှားတွေပါ
03:48
and we're training them from birth
77
216094
2161
သူတို့တွေ ငယ်စဉ်ထဲက ဘယ်ကမှန်းမသိတဲ့
03:50
to click on the very first link
that comes along,
78
218279
2506
အင်တာနက်မှာ ထိပ်ဆုံးက ပေါ်တဲ့
link ကို နှိပ်ဖ​ို့
03:52
regardless of what the source is.
79
220809
1953
ကျနော်တို့ကဟာ အကျင့်လုပ်သလို ဖြစ်နေတာပါ
03:54
That's doesn't seem like
a terribly good idea.
80
222786
2603
သိပ်ကောင်းတဲ့ အတ​ွေးတော့ မဟုတ်ဘူး
03:58
Here's another thing
that's really big on kids' YouTube.
81
226399
2710
နောက်တစ်ချက် YouTube မှာ
ကလေးတွေ ကို လွှမ်းမိုးတဲ့ အရာက
04:01
This is called the "Finger Family Song."
82
229133
1928
Finger Family Song သီချင်းပါ။
04:03
I just heard someone groan
in the audience.
83
231085
2018
ခုပဲ ပရိသတ်ထဲက ညည်းသံ ကြားလိုက်တယ်။
04:05
This is the "Finger Family Song."
84
233127
1624
ဒါက Finger Family Song ပါ
04:06
This is the very first one I could find.
85
234775
1930
ဒါက ရှာလို့တွေ့တဲ့ အရင်ဆုံးပေါ်တဲ့ ဟာပဲ
04:08
It's from 2007, and it only has
200,000 views,
86
236729
2829
ဒါက ၂၀၀၇ တုန်းက တစ်ခု
ကြည့်ရှုသူ ၂၀၀,၀၀၀ ပဲရှိတယ်
04:11
which is, like, nothing in this game.
87
239582
1976
တစ်ခြားဟာတွေနဲ့ ယှဉ်ရင် အရမ်းနည်းသေးတယ်
04:13
But it has this insanely earwormy tune,
88
241582
2852
သူ့ သံစဉ်က သိပ်ကို နားထဲစွဲတယ်
04:16
which I'm not going to play to you,
89
244458
1682
ကျနော် ဖွင့်မပြတော့ပါဘူး
04:18
because it will sear itself
into your brain
90
246164
2008
ခင်ဗျားတို့ ဦးနှောက်ထဲ စွဲသွားမှာ စိုးလို့
04:20
in the same way that
it seared itself into mine,
91
248196
2395
ကျနော့်ဆီမှာတော့ တော်တော့်ကို စွဲနေပြီ။
04:22
and I'm not going to do that to you.
92
250615
1770
ခင်ဗျားတို့ကို မခံစားစေချင်ပါဘူး။
04:24
But like the surprise eggs,
93
252409
1344
surprise eggs လိုပဲ
04:25
it's got inside kids' heads
94
253777
2164
ကလေးငယ်တွေ ဦးနှောက်ထဲ စွဲနေတယ်
04:27
and addicted them to it.
95
255965
1607
သူတို့တွေ ဒါတွေကို စွဲလမ်းနေတယ်။
04:29
So within a few years,
these finger family videos
96
257596
2531
နှစ်အနည်းငယ် အတွင်းမှာပဲ
ဒီ finger family video တွေ
04:32
start appearing everywhere,
97
260151
1303
နေရာ အနှံ့မှာ ပျံ့လာတယ်
04:33
and you get versions
in different languages
98
261478
2029
လူသိများတဲ့ ကလေးကာွန်း အစားအသောက်ပုံစံနဲ့
04:35
with popular kids' cartoons using food
99
263531
2121
ဘာသာစကား အမျိုးမျိုးနဲ့တောင်
ထွက်လိုက်သေးတယ်။
04:37
or, frankly, using whatever kind
of animation elements
100
265676
2550
တစ်ချို့လဲ ပြောရရင် animation
ဖြစ်ရင်ပြီးရော
04:40
you seem to have lying around.
101
268250
2252
တွေ့ရာ မြင်ရာ အစုံလျှောက်ထည့်တယ်
04:43
And once again, there are millions
and millions and millions of these videos
102
271002
5197
ဒီ ဗီဒီယိုတွေလည်း သန်းနဲ့ချီပြီး ရှိနေတယ်
04:48
available online in all of these
kind of insane combinations.
103
276223
3435
အင်တာနက်ပေါ်မှာ ပုံစံ အမျိုးမျိုးနဲ့
ရှာလို့တွေ့နိုင်တယ်
04:51
And the more time
you start to spend with them,
104
279682
2228
ဒါတွေကို ခင်ဗျားတို့ ရှာကြည့် လေလေ
04:53
the crazier and crazier
you start to feel that you might be.
105
281934
3694
ပိုပိုပြီး ကြောင်တော်တောင်
ရူးနှမ်းနှမ်း ခံစားရလေပဲ
04:57
And that's where I
kind of launched into this,
106
285652
3333
ဒါတွေကြောင့် ကျနော် သိပ်ကို
စိတ်ဝင်စားသွားတာပဲ
05:01
that feeling of deep strangeness
and deep lack of understanding
107
289009
3666
ကျွန်တော့ဝန်းကျင်မှာ တင်ပြဖို့ထင်ရတာကို
ဘယ်လို တညိဆောက်ခဲ့တယ်ဆိုတာက
05:04
of how this thing was constructed
that seems to be presented around me.
108
292699
4175
သိပ်ကို ထူးဆန်းပြီး နားလည်ရခက်ပါတယ်။
05:08
Because it's impossible to know
where these things are coming from.
109
296898
3167
ဒါတွေ ဘယ်လို ဖြစ်လာသလဲဆိုတာ
သိဖို့ မဖြစ်နိုင်တာကြောင့်ပါ။
05:12
Like, who is making them?
110
300089
1241
ဥပမာ ဘယ်သူတွေက ဖန်တီးနေလဲ
05:13
Some of them appear to be made
of teams of professional animators.
111
301354
3143
တစ်ချို့ဟာတွေက ကျွမ်းကျင်တဲ့
animator တွေက ဖန်တီးထားတာ
05:16
Some of them are just randomly
assembled by software.
112
304521
2882
တစ်ချို့က software တစ်ခုခုနဲ့
ဒီလိုပဲ လျှောက်လုပ်ထားကြတာ
05:19
Some of them are quite wholesome-looking
young kids' entertainers.
113
307427
4253
တစ်ချို့ကတော့ ကလေးငယ်တွေ ဖျော်ဖြေရေးကို
အဓိက ဦးတည်တဲ့ လူတွေပေါ့
05:23
And some of them are from people
114
311704
1552
နောက်ပြီး တစ်ချို့ကတော့
05:25
who really clearly
shouldn't be around children at all.
115
313280
3007
ကလေးတွေ လုံးဝမပက်သက်သင့်တဲ့
လူတွေ ဖန်တီးထားတာပါ
05:28
(Laughter)
116
316311
1615
(ရယ်သံများ)
05:30
And once again, this impossibility
of figuring out who's making this stuff --
117
318987
4640
ထပ်ပြီးပြောချင်တာကတော့ ဒါတွေကို ဘယ်သူတွေ
ဖန်တီးနေလဲ ဆိုတာကို သိဖို့ မဖြစ်နိုင်တာပါ။
05:35
like, this is a bot?
118
323651
1156
ဥပမာ အလိုလို ဖန်တီးတာလား
05:36
Is this a person? Is this a troll?
119
324831
2647
လူတွေပဲလား၊ ဟာသ သက်သက်လုပ်ကြတာလား။
05:39
What does it mean
that we can't tell the difference
120
327502
2382
ကျနော်တို့ ဒါကို မခွဲခြားနိုင်ဘူးဆိုရင်
05:41
between these things anymore?
121
329908
1583
ဘယ်လိုလုပ်ကြမလဲ
05:43
And again, doesn't that uncertainty
feel kind of familiar right now?
122
331515
4848
ထပ်ပြောရရင် ဒီဖြစ်စဉ်က မရင်းနှီးနေဘူးလား
05:50
So the main way people get views
on their videos --
123
338145
2580
ဆိုတော့ ဒီဗီဒီယို တွေကနေ
ကြည့်ရှုသူဦးရေတိုးဖို့
05:52
and remember, views mean money --
124
340749
1707
ကြည့်တာ တိုးရင် ပိုက်ဆံရတာပေါ့
05:54
is that they stuff the titles
of these videos with these popular terms.
125
342480
4742
ကြည့်တာ တိုးဖို့ ဗီဒီယိုခေါင်းစဉ်တွေကို
နာမည်ကြီးနေတာတွေ ပေးကြတယ်
05:59
So you take, like, "surprise eggs"
126
347246
1687
ဆိုတော့ "surprise eggs" လိုမျိုး
06:00
and then you add
"Paw Patrol," "Easter egg,"
127
348957
2066
ပြီးတော့ "Paw Patrol", "Easter egg" လို
06:03
or whatever these things are,
128
351047
1393
တစ်ခြား နာမည်ကြီးနေတာတွေပေါ့
06:04
all of these words from other
popular videos into your title,
129
352464
2893
နာမည်ကြီး စကားလုံးတွေကို
သူတို့ ဗီဒီယိုခေါင်းစဉ်နေနဲ့ ယူပြီး
06:07
until you end up with this kind of
meaningless mash of language
130
355381
2968
ဒီလို အဓိပ္ပါယ် မရှိတဲ့ ဘာသာစကား
အရောတွေဖန်တီးလိုက်တာပဲ
06:10
that doesn't make sense to humans at all.
131
358373
2498
ကြည့်တာ တိုးဖို့ကလွဲပြီး
ဘာအဓိပ္ပါယ်မှ မရှိတာတွေ
06:12
Because of course it's only really
tiny kids who are watching your video,
132
360895
3546
တကယ်တမ်းကသူတို့ video တွေကို ကြည့်နေတာ
ကလေးလေးတွေလေ
06:16
and what the hell do they know?
133
364465
1827
ဒီကလေးလေးတွေ ဘာသိမှာတုန်း။
06:18
Your real audience
for this stuff is software.
134
366316
3007
တကယ့်တကယ် ကြည့်သူတွေများနေတာ
software ကြောင့်ပဲ
06:21
It's the algorithms.
135
369347
1156
ကွန်ပြူတာ နဲ့ တွက်တာပါ
06:22
It's the software that YouTube uses
136
370527
1855
ဘယ် ဗီဒီယိုတွေက တစ်ခြား ဗီဒီယိုတွေနဲ့
06:24
to select which videos
are like other videos,
137
372406
2483
တူသလဲသိဖို့ YouTube က သုံးထားတဲ့
software ကြောင့်ပဲ
06:26
to make them popular,
to make them recommended.
138
374913
2243
လူသိများအောင်၊ ကြည့်သင့်တဲ့
စာရင်းထဲပါဖို့ပါ။
06:29
And that's why you end up with this
kind of completely meaningless mash,
139
377180
3461
ဒီ software တွေကြောင့် ဒီလို အဓိပ္ပါယ်မရှိ
တဲ့ခေါင်းစဉ်နဲ့ အကြောင်းအရာတွေ
06:32
both of title and of content.
140
380665
2071
ဖြစ်ကုန်တော့တာပေါ့။
06:35
But the thing is, you have to remember,
141
383792
1894
ဒီမှာ ကျနော်တို့ သိသင့်တာက
06:37
there really are still people within
this algorithmically optimized system,
142
385710
4478
ဒီ algorithm တွေနဲ့ system ထဲမှာ လူတွေက
နေရာယူထားတယ်ဆိုတာပဲ
06:42
people who are kind
of increasingly forced to act out
143
390212
2790
ထူးထူးဆန်းဆန်း နာမည်ကြီး
နေတဲ့ ခေါင်းစဉ်တွေကို
06:45
these increasingly bizarre
combinations of words,
144
393026
3066
အလွဲသုံးစား လုပ်ပြီးတော့
06:48
like a desperate improvisation artist
responding to the combined screams
145
396116
5173
သန်းပေါင်းများစွာ ကလေးတွေ အတွက်
အဓိပ္ပါယ်မရှိတာတွေ
06:53
of a million toddlers at once.
146
401313
2203
ကြုံသလို ဖန်တီးနေကြတဲ့
အခြေအနေမဲ့ လူတွေပေါ့
06:57
There are real people
trapped within these systems,
147
405168
2468
ဒီလိုစနစ် ထဲမှာ
လူတွေ နေရာယူထားကြပါတယ်
06:59
and that's the other deeply strange thing
about this algorithmically driven culture,
148
407660
4055
ပြီးတော့ ဒီလို algorithm နဲ့တွက်ချက်ထားတဲ့
ယဉ်ကျေးမှုအကြောင်း အသိခက်တာရှိတယ်
07:03
because even if you're human,
149
411739
1381
အကြောင်းက သင်ဟာ လူဆိုတာတောင်
07:05
you have to end up behaving like a machine
150
413144
2145
ရှင်ကျန်ဖို့အတွက်ကိုပဲ
စက်တစ်ခုလို့ ပြုမူရင်း
07:07
just to survive.
151
415313
1800
အပ​ြီးသတ်ဖို့ခိုတယ်လေ။
07:09
And also, on the other side of the screen,
152
417137
2100
စခရင်ရဲ့ အခြားဘက်မှာလည်း
07:11
there still are these little kids
watching this stuff,
153
419261
2947
ကလေးလေးတွေဟာ
စွဲစွဲလမ်းလမ်း ကြည့်နေကြတာပါ
07:14
stuck, their full attention grabbed
by these weird mechanisms.
154
422232
4206
ဒီစနစ်တွေကပဲ ကလေးတွေ ရဲ့ စိတ်ဝင်စားမှုကို
ရယူနေကြတာပါ
07:18
And most of these kids are too small
to even use a website.
155
426768
2798
ဒီကလေးငယ် တော်တော်များများဟာ
website သုံးဖို့ ငယ်လွန်းပါတယ်
07:21
They're just kind of hammering
on the screen with their little hands.
156
429590
3276
သူတို့လေးတွေက screen ပေါ်မှာ
ဒီလိုပဲ လျှောက်နှိပ်ကြတာပါ
07:24
And so there's autoplay,
157
432890
1217
ဒီတော့ autoplay ရှိပါတယ်
07:26
where it just keeps playing these videos
over and over and over in a loop,
158
434131
3579
ဗီဒီယို တွေဟာ ထပ်ခါထပ်ခါ
မဆုံးနိုင်အောင် ပ​ြနေတာပါ
07:29
endlessly for hours and hours at a time.
159
437734
2059
မရပ်မနား နာရီပေါင်းများစွာပေါ့
07:31
And there's so much weirdness
in the system now
160
439817
2843
ဒီ အလိုaလျာက်စနစ် ကလဲ ဆန်းပါတယ်
07:34
that autoplay takes you
to some pretty strange places.
161
442684
3009
ကြည့်နေရင်း ထူးထူးဆန်းဆန်းတွေ
ပေါ်ပေါ်လာတယ်
07:37
This is how, within a dozen steps,
162
445717
2488
ဒါက ဒါဇင်ချီတဲ့အဆင့်တွေအတွင်းမှာ ပြသပုံပါ
07:40
you can go from a cute video
of a counting train
163
448229
3158
ချစ်စရာ ရထားလေး video ကြည့်နေရင်းကနေ
07:43
to masturbating Mickey Mouse.
164
451411
2442
မဖွယ်မရာလုပ်နေတဲ့ Mickey Mouse ဆီ
ရောက်သွား နိုင်တယ်
07:46
Yeah. I'm sorry about that.
165
454529
2288
စိတ်မရှိပါနဲ့ဗျာ
07:48
This does get worse.
166
456841
1700
ဒီထက်ပိုဆိုးတာတွေ ရှိပါတယ်
07:50
This is what happens
167
458565
1282
ဘာကြောင့်ဖြစ်လဲ ဆိုရင်
07:51
when all of these different keywords,
168
459871
3086
အချက်ပြစကားလုံး အမျိုးမျိုး
07:54
all these different pieces of attention,
169
462981
2461
အာရုံစိုက်စရာ အမျိုးမျိုး
07:57
this desperate generation of content,
170
465466
2807
ခုခေတ်လူတွေရဲ့ အခြေအနေမဲ့
အကြောင်းအရာ အမျိုးမျိုး
08:00
all comes together into a single place.
171
468297
2582
ဒါတွေအားလုံး တစ်နေရာတည်း ပေါင်းစည်းလာတာပါ။
08:03
This is where all those deeply weird
keywords come home to roost.
172
471871
4472
အခုလို အဓိပ္ပါယ်မဲ့ အကြောင်းအရာတွ​ေ
ဖြစ်တည်လာတာပါပဲ
08:08
You cross-breed the finger family video
173
476367
2391
finger family video ကိုပုံစံအမျိုးမျိုးနဲ့
08:10
with some live-action superhero stuff,
174
478782
2088
superhero ပုံစံလိုမျိုးတွေ ပြင်တာမျိုးပေါ့
08:12
you add in some weird,
trollish in-jokes or something,
175
480894
3256
ပြီးတော့ အဓိပ္ပါယ် မရှိတဲ့ ဟာသတွေလုပ်တယ်
08:16
and suddenly, you come
to a very weird place indeed.
176
484174
3366
ဒါနဲ့ပဲ အခုလို ကြောင်တောင်တောင်
လုပ်ကွက်တွေ ပေါ်လာတော့တာပေါ့
08:19
The stuff that tends to upset parents
177
487564
2113
ကလေးငယ်မိဘတွေကို
စိတ်ပျက်စေတဲ့ အရာတွေပေါ့
08:21
is the stuff that has kind of violent
or sexual content, right?
178
489701
3331
အကြမ်းဖက်သရုပ်တွေ
လိင်ပိုင်းဆိုင်ရာ သရုပ်တွေပေါ့
08:25
Children's cartoons getting assaulted,
179
493056
2822
ကလေးငယ်တွေရဲ့ ကာတွန်းတွေးထဲမှာ
ပြစ်မှုကျူးလွန်တာတွေ
08:27
getting killed,
180
495902
2018
သတ်ဖြတ်ကြတာတွေ
08:29
weird pranks that actually
genuinely terrify children.
181
497944
3343
ကလေးငယ်တွေ ကြောက်လန့်စေမယ့်
အဓိပ္ပါယ်မဲ့ လုပ်ရပ်တွေပါလာတာပါ။
08:33
What you have is software pulling in
all of these different influences
182
501311
3675
ဒီ software တွေက
အခုလို လွှမ်းမိုးမှုတွေကို ဖြစ်စေတာက
08:37
to automatically generate
kids' worst nightmares.
183
505010
2961
ကလေးတွေအတွက် အိပ်မက်ဆိုးတွေ
ဖန်တီးပေးနေတာပဲ
08:39
And this stuff really, really
does affect small children.
184
507995
2701
ဒီအရာတွေက ကလေးငယ်လေးတွေအတွက်
တကယ် ဆိုးကျိုးတွေပေးပါတယ်။
08:42
Parents report their children
being traumatized,
185
510720
2866
စိတ်ဒဏ်ရာရသွားတဲ့ ကလေးငယ်တွေအကြောင်း
မိဘတွေဆီက ကြားနေရပါတယ်
08:45
becoming afraid of the dark,
186
513610
1392
အမှောင်ကြောက်တတ်လာတာ
08:47
becoming afraid of their favorite
cartoon characters.
187
515026
3050
သူတို့တွေ အကြိုက်ဆုံး ကာတွန်း
ဇာတ်ကောင်တွေကို ကြောက်လာတာမျိုးပေါ့
08:50
If you take one thing away from this,
it's that if you have small children,
188
518524
3611
ကျနော့်ဆီက မှတ်သွားစေချင်တာက
သင့်မှာ ကလေးငယ်တွေရှိရင်
08:54
keep them the hell away from YouTube.
189
522159
1996
သူတို့ကို YouTube ပေးမသုံးပါနဲ့
08:56
(Applause)
190
524743
3949
(လက်ခုပ်သံများ)
09:02
But the other thing, the thing
that really gets to me about this,
191
530504
3096
နောက်တစ်ခုက ဒါကိုကျနော်ဘာကြောင့်
တွေးနေရလဲဆိုတော့
09:05
is that I'm not sure we even really
understand how we got to this point.
192
533624
4629
ကျနော်တို့ နည်းပညာတွေ ဘာလို့ ဒီအခြေအနေ
ရောက်လာရလဲဆိုတာအသေအချာ နားမလည်ကြဘူး
09:10
We've taken all of this influence,
all of these things,
193
538951
2931
ကျနော်တို့ ဒီနည်းပညာတွေရဲ့
လွှမ်းမိုးမှုတွေ ခံနေရတယ်
09:13
and munged them together in a way
that no one really intended.
194
541906
2953
ပြီးတော့ ကျနော်တို့ မလိုချင်တဲ့
အကျိုးဆက်တွေ ဖြစ်လာတာပါပဲ
09:16
And yet, this is also the way
that we're building the entire world.
195
544883
3156
ဒါပေမဲ့လည်း ဒီပုံစံအတိုင်းပဲ
တစ်ကမ္ဘာလုံးကို တည်ဆောက်နေကြတယ်
09:20
We're taking all of this data,
196
548063
1773
ကျနော်တို့ဟာ ဒီအချက်အလက်တွေကိုယူနေတယ်
09:21
a lot of it bad data,
197
549860
1447
မကောင်းတဲ့ အချက် အများအပ​ြား
09:23
a lot of historical data
full of prejudice,
198
551331
3029
အကျိုးအကြောင်း မခိုင်လုံတဲ့
အချက်အလက်တွေ
09:26
full of all of our worst
impulses of history,
199
554384
2837
သမိုင်းတစ်လျောက် အဆိုးရွားဆုံး
စိတ်ကူး လှုံ့ဆော်မှုတွေ
09:29
and we're building that
into huge data sets
200
557245
2049
ဒါကို ဧရာမ အချက်အလက်
အတွဲတွေထဲမှာ သိမ်းနေကာ
09:31
and then we're automating it.
201
559318
1423
အလိုအလျောက် ပျံ့နေတယ်
09:32
And we're munging it together
into things like credit reports,
202
560765
3502
ပြီးတော့ ဒီအဓိပ္ပါယ် မရှိတဲ့ အရာတွေက
အခြား အသုံးဝင်တဲ့ အရာတွေ
09:36
into insurance premiums,
203
564291
1634
ဘဏ်စာရင်းတွေ
09:37
into things like predictive
policing systems,
204
565949
2693
အာမခံ အချက်အလက်တွေ
ဥပဒေဆိုင်ရာ အချက်အလက်တွေ
09:40
into sentencing guidelines.
205
568666
1762
အကုန် ရောထွေးသွားစေပါတယ်
09:42
This is the way we're actually
constructing the world today
206
570452
2821
ဒီအချက်အလက်တွေနဲ့ပဲ ကျနော်တို့က
ဒီနေ့ ကမ္ဘာကြီးကို
09:45
out of this data.
207
573297
1151
တည်ဆောက်နေကြတာပါ။
09:46
And I don't know what's worse,
208
574472
1698
ဘာက ပိုဆိုးတာ ကျနော် မတွေးတတ်ဘူး၊၊
09:48
that we built a system
that seems to be entirely optimized
209
576194
3228
လူသား ကောင်းကျိူးမပြုတဲ့ စနစ်
တွေကိုကျနော်တို့ ကိုယ်တိုင်
09:51
for the absolute worst aspects
of human behavior,
210
579446
2808
ရည်ရွယ်ပြီး
တည်ဆောက်ခဲ့ကြလား
09:54
or that we seem
to have done it by accident,
211
582278
2425
(သို့) ဘာဆိုးကျိုးတွေ ဖန်တီးမိလဲ
09:56
without even realizing
that we were doing it,
212
584727
2207
သတိမပြုမိပဲ မတော်တဆ ဖန်တီးခဲ့မိတာလား၊
09:58
because we didn't really understand
the systems that we were building,
213
586958
3382
ကိုယ်တိုင် ဖန်တီးထားတဲ့ စနစ်တွေကို
အပြည့်အဝ နားမလည်ခဲ့ကြလို့ပါ။
10:02
and we didn't really understand
how to do anything differently with it.
214
590364
3683
ပြီး ဒါတွေကို အသုံးပြုသင့်တဲ့ နည်းလမ်းတွေ
အပြည့်အဝ နားမလည်ခဲ့ကြလို့ပါ။
10:06
There's a couple of things I think
that really seem to be driving this
215
594769
3365
ဒီဆိုးကျိုးတွေ ဖြစ်ဖို့ လှုံ့ဆော်နေတဲ့
အချက်အနည်းငယ် ပြောချင်ပါတယ်
10:10
most fully on YouTube,
216
598158
1189
အထူးသဖြင့် YouTube မှာပါ
10:11
and the first of those is advertising,
217
599371
1827
ပထမဆုံးက ကြော်ငြာပေါ့
10:13
which is the monetization of attention
218
601222
2837
တစ်ခြား ဘာလုပ်အားမှ မပါပဲ
10:16
without any real other variables at work,
219
604083
3136
ကြည့်သူအရေအတွက်နဲ့
ကြော်ငြာခ ပေးတဲ့စနစ်ပေါ့
10:19
any care for the people who are
actually developing this content,
220
607243
3885
ဒါတွေကို ဖန်တီးနေတဲ့ လူတွေစိတ်ဝင်စား
တာက ဒီအကြောင်းအရာကို ဖွံ့ဖြိုးဖို့၊
10:23
the centralization of the power,
the separation of those things.
221
611152
3636
ဒီစွမ်းအားကို ဗဟိုပြုချုပ်ကိုင်ဖို့တဲ့
ဒီအရာတွေကို ခွဲခြားဖို့ပါ။
10:26
And I think however you feel
about the use of advertising
222
614812
3144
ကျွန်တော့အထင် ဒီလိုအရာတွေကို
ကြော်ငြာသုံးခြင်းနဲ့ပတ်သက်ပြီး
10:29
to kind of support stuff,
223
617980
1238
ဘယ်လိုပဲ မြင်မြင်ပါ
10:31
the sight of grown men in diapers
rolling around in the sand
224
619242
3067
သဲထဲ လူးနေတဲ့ ခါးတောင်းကျိုက်ထားတဲ့
လူကြီးတစ်ယောက်ကို မြင်ပြီ်း
10:34
in the hope that an algorithm
that they don't really understand
225
622333
2983
သူတို့နားမလည်တဲ့ အယ်​ဂိုရစ်သမ်က
ဒါအတွက် သူတို့ကို ပိုက်ဆံပေးမယ်
10:37
will give them money for it
226
625340
1315
မျှော်လင့်တာက
10:38
suggests that this
probably isn't the thing
227
626679
2037
လူအဖွဲ့အစည်းနဲ့ ယဉ်ကျေးမှုအပေါ်
10:40
that we should be basing
our society and culture upon,
228
628740
2563
အခြေခံသင့်ကာ ဒီနည်းနဲ့ ဒါကို
ငွေကြေးထောက်ပံ့နေတယ်
10:43
and the way in which
we should be funding it.
229
631327
2160
ဆိုတဲ့အရာ မဖြစ်လောက်ဘူး
ဆိုတာ ညွှန်ပြပါတယ်
10:45
And the other thing that's kind of
the major driver of this is automation,
230
633511
3519
နောက် အဓိကအချက်တစ်ခုက
10:49
which is the deployment
of all of this technology
231
637054
2329
အလိုအလျောက်ပျံ့နှံ့ နေတဲ့ အချက်ပါ
10:51
as soon as it arrives,
without any kind of oversight,
232
639407
2521
ဒီနည်းပညာတွေ အသုံးပြုပြီး ဖြန့်လိုက်တဲ့အခါ
10:53
and then once it's out there,
233
641952
1412
အင်တာနက်ပေါ် တင်တာနဲ့
10:55
kind of throwing up our hands and going,
"Hey, it's not us, it's the technology."
234
643388
3843
အတားအဆီးမရှိ ပျံ့နှံ့သွာ;ပါပြီ။ သူတို့က
"ငါတို့ မဟုတ်ဘူ၊ နည်းပညာ လုပ်တာ"
10:59
Like, "We're not involved in it."
235
647255
1642
"ငါတို့ မပါဘူး" ဆိုတာမျိုးပေါ့။
11:00
That's not really good enough,
236
648921
1767
ဒါလုံးဝ မကောင်းပါဘူး
11:02
because this stuff isn't
just algorithmically governed,
237
650712
2710
ဘာလို့ဆို ဒါတွေက algorithm
ထိန်းချုပ်မှုတွေတင် မဟုတ်ပါဘူး
11:05
it's also algorithmically policed.
238
653446
2498
algorithm အရပါ အတင်းအကျပ်လုပ်တယ်။
11:07
When YouTube first started
to pay attention to this,
239
655968
2848
YouTube ကဒီပြဿနာကို စပြီး
အရေးယူတုန်းက ပြောခဲ့တာက
11:10
the first thing they said
they'd do about it
240
658840
2087
သူတို့ (YouTube) ဒါနဲ့ပက်သက်ပြီး
အဖြေရှာမယ်
11:12
was that they'd deploy
better machine learning algorithms
241
660951
2695
ဒါထက်ပိုကောင်းတဲ့
စက်သင်ကြားရေး algorithm တွေ
11:15
to moderate the content.
242
663670
1329
တည်ဆောက် ဖြေရှင်းမယ်ပေါ့။
11:17
Well, machine learning,
as any expert in it will tell you,
243
665023
3485
ကျွမ်းကျင် ပညာရှင်တွေက သင့်ကို ပြောကြမှာက
ကဲ၊ စက်သင်ကြားရေး ဆိုတာက
11:20
is basically what we've started to call
244
668532
1896
အခြေခံအားဖြင့် အလုပ်လုပ်ပုံကို တကယ်ပဲ
11:22
software that we don't really
understand how it works.
245
670452
2588
ကျွန်တော်တို့ နားမလည်တဲ့
software လို့ခေါ်တဲ့ အရာတဲ့။
11:25
And I think we have
enough of that already.
246
673064
3983
ကျွန်တော်ထင်တာတော့ ဒါကြီးက
တော်လောက်ပါပြီ။
11:29
We shouldn't be leaving
this stuff up to AI to decide
247
677071
3166
ဒါကို AI ဆီမှာထားပြီး ဆုံးဖြတ်ခိုင်းတာ
တော့ မဖြစ်သင့်ဘူး
11:32
what's appropriate or not,
248
680261
1251
သင့်တော်၊မတော်ဆိုတာကတော့
11:33
because we know what happens.
249
681536
1436
ဘာဖြစ်တာ ကျွန်တော်တို့သိလို့ပါ
11:34
It'll start censoring other things.
250
682996
1688
AI တွေကတော့ ဆင်ဆာတွေဖြတ်ပစ်မှာပဲ
11:36
It'll start censoring queer content.
251
684708
1783
တစ်ခုခု ထူးဆန်းတာနဲ့ ဖြတ်မှာပဲ။
11:38
It'll start censoring
legitimate public speech.
252
686515
2237
တရားဝင် မိန့်ခွန်းတွေကို
ဆင်ဆာ ဖြတ်မှာပဲ
11:40
What's allowed in these discourses,
253
688776
1925
ဒီဟောပြောချက်တွေမှာ ခွင့်ပြုတာက
11:42
it shouldn't be something
that's left up to unaccountable systems.
254
690725
3097
ဒီ ကွန်ပြူတာစနစ်တွေကိုပဲ အားမကိုးသင့်ဘူး၊
11:45
It's part of a discussion
all of us should be having.
255
693846
2947
ဒီပြဿနာကို ကျနော်တို့ အားလုံး
အဖြေရှာ ဆွေးနွေးသင့်ပါတယ်တဲ့။
11:48
But I'd leave a reminder
256
696817
1308
ဒါပေမဲ့ နောက်နည်းလမ်ကလည်း
11:50
that the alternative isn't
very pleasant, either.
257
698149
2753
သိပ်တော့ အဆင်မပြေလှဘူးဆိုတာ
သတိရစေလိုပါတယ်။
11:52
YouTube also announced recently
258
700926
1535
တစ်လောကပဲ YouTube က ကြေငြာခဲ့တယ်
11:54
that they're going to release
a version of their kids' app
259
702485
2767
ကလေးတွေအတွက် app အသစ်ထုတ်ပေးမယ်
11:57
that would be entirely
moderated by humans.
260
705276
2407
ဗီဒီယို တွေ စီစစ်ဖို့အတွက်
လူအင်အားပဲ သုံးမယ်
12:00
Facebook -- Zuckerberg said
much the same thing at Congress,
261
708134
3618
Facebook က Zuckerberg လည်းပဲ
ကွန်ဂရက် မှာအလားတူ ပြောခဲ့တာပဲ၊
12:03
when pressed about how they
were going to moderate their stuff.
262
711776
2987
စီစစ်ရေး အတွက် ဘာတွေလုပ်မှာလည်း
ဖိအားပေး သူတို့ကို မေးတဲ့အခါ
12:06
He said they'd have humans doing it.
263
714787
1747
လူအင်အားသုံးမယ် လို့ပဲ ဖြေခဲ့တယ်
12:08
And what that really means is,
264
716558
1459
ဒါဘာကို ပြလဲဆိုရင်
12:10
instead of having toddlers being
the first person to see this stuff,
265
718041
3223
ကလေးငယ်လေးတွေကို ဒီဗီဒီယိုတွေကို
အရင်ကြည့်ခိုင်းမယ့်အစား
12:13
you're going to have underpaid,
precarious contract workers
266
721288
2788
မရေရာတဲ့ ကန်ထရိုက် လစာနည်း
အလုပ်သမားတွေကို အရင်ခိုင်းရမှာ
12:16
without proper mental health support
267
724100
1726
ဒါကနေသင့်တင့်တဲ့ စိတ်ကျန်းမာရေး
12:17
being damaged by it as well.
268
725850
1376
အထောက်အပံ့ကို မထိခိုက်စေပဲလေ
12:19
(Laughter)
269
727250
1096
(ရယ်သံများ)
12:20
And I think we can all do
quite a lot better than that.
270
728370
2601
ဒီထက်ကောင်းတာ တစ်ခုခု
လုပ်နိုင်မယ်တော့ ထင်ပါတယ်။
12:22
(Applause)
271
730995
2499
(လက်ခုပ်သံများ)
12:26
The thought, I think, that brings those
two things together, really, for me,
272
734068
4613
ဒီနည်းလမ်း နှစ်ခုကို ယူဆောင်
လာတဲ့ စိတ်ကူးက
12:30
is agency.
273
738705
1420
အေဂျင်စီလို့ ကျနော်ထင်တယ်။
12:32
It's like, how much do we really
understand -- by agency, I mean:
274
740149
3157
ဆိုပါစို့၊ အေဂျင်စီ ဆိုတာကို ကျနော်တို့
ဘယ်လောက်နားလည်သလဲ
12:35
how we know how to act
in our own best interests.
275
743330
4390
ကျနော်တို့ရဲ့ စိတ်ဝင်အစားဆုံးတွေနဲ့
ပက်သက်ပြီး ဘယ်လို လုပ်ဆောင်ရမလဲ။
12:39
Which -- it's almost impossible to do
276
747744
1787
ကျနော်တို့ နားမလည်တဲ့ ဒီစနစ်တွေထဲမှာ
12:41
in these systems that we don't
really fully understand.
277
749555
3485
ဆောင်ရွက်ဖို့က သိပ်ဖြစ်နိုင်တဲ့
ကိစ္စတော့ မဟုတ်ဘူး။
12:45
Inequality of power
always leads to violence.
278
753064
3071
လုပ်ပိုင်ခွင့် မမျှတမှုဟာ
အကြမ်းဖက်မှုကို ဖြစ်စေပါတယ်။
12:48
And we can see inside these systems
279
756159
1685
ဒီစနစ် တွေကို ကြည့်မယ်ဆိုရင်
12:49
that inequality of understanding
does the same thing.
280
757868
2611
အရာတစ်ခုတည်းမှာကိုနားလည်မှု ညီမျှခြင်း
မရှိတာမြင်ရတယ်။
12:52
If there's one thing that we can do
to start to improve these systems,
281
760503
3779
ဒီစနစ်တွေ ပိုစတင်ကောင်းမွန်လာဖို့
ကျနော်တို့ လုပ်နိုင်တဲ့ တစ်ခုဆိုရင်
12:56
it's to make them more legible
to the people who use them,
282
764306
2718
ဒါတွေကို လူတွေအသုံးပြုဖို့
ပိုရှင်းလင်းပီသအောင် လုပ်ဖို့ပါ
12:59
so that all of us have
a common understanding
283
767048
2196
ဆိုတော့ ကျနော်တို့အားလုံး
အခုဘာပြဿနာလဲဆိုတာ
13:01
of what's actually going on here.
284
769268
1851
ယေဘူယျ နားလည်နိုင်အောင်ပေါ့။
13:03
The thing, though, I think
most about these systems
285
771970
2968
တကယ်တမ်း ဒီစနစ် ပြဿနာကလဲ
မျှော်လင့်ရတာက
13:06
is that this isn't, as I hope
I've explained, really about YouTube.
286
774962
3857
ကျနော်ပြောခဲ့သလို YouTube ကြောင့်ပဲလည်း
မဟုတ်ပြန်ပါဘူး။
13:10
It's about everything.
287
778843
1312
အားလုံး ပါဝင်နေပါတယ်။
13:12
These issues of accountability and agency,
288
780179
2444
ဒီအေဂျင်စီရဲ့တာဝန်ယူမှု တာဝန်ခံမှု
ပြဿနာတွေ
13:14
of opacity and complexity,
289
782647
2225
ရှုပ်ထွေးမှု ပွင့်လင်းမြင်သာမှု ပြဿနာတွေ
13:16
of the violence and exploitation
that inherently results
290
784896
3177
အကြမ်းဖက် သရုပ်နဲ့ မတရားမှု သရုပ်တွေရဲ့
အရင်းအမြစ် ကတော့
13:20
from the concentration
of power in a few hands --
291
788097
2794
လူနည်းစုရဲ့ လုပ်ပိုင်ခွင့်
ချုပ်ကိုင်ထားမှုပါပဲ။
13:22
these are much, much larger issues.
292
790915
2579
ဒီထက် အများကြီး ပိုကြီးတဲ့ ပြဿနာတွေပါ။
13:26
And they're issues not just of YouTube
and not just of technology in general,
293
794395
3687
ဒါတွေက YouTube ပြဿနာ တင်မဟုတ်ပဲ၊
နည်းပညာ ပြဿနာမဟုတ်ပဲ၊
13:30
and they're not even new.
294
798106
1265
အသစ်တွေတောင် မဟုတ်ဘူး။
13:31
They've been with us for ages.
295
799395
1461
ဒါတွေကြုံနေရတာ ကြာပါပြီ။
13:32
But we finally built this system,
this global system, the internet,
296
800880
4390
ဒါပေမဲ့ လူတွေတည်ဆောက်ခဲ့တဲ့
ကမ္ဘာလုံးဆိုင်ရာစနစ်၊ အင်တာနက်က
13:37
that's actually showing them to us
in this extraordinary way,
297
805294
3019
ဒါတွေက ဆန်းကြယ်တဲ့ နည်းလမ်းနဲ့ပြသနေပြီး
13:40
making them undeniable.
298
808337
1547
ငြင်းစရာမရှိအောင် လုပ်ပေးပါတယ်။
13:41
Technology has this extraordinary capacity
299
809908
2820
မက​ြာခဏ ပုန်းကွယ်နေတဲ့
ကွန်တော်တို့ရဲ့ အထူးခြားဆုံး
13:44
to both instantiate and continue
300
812752
3973
ဆန္ဒတွေနဲ့ အစွဲအားလုံးကို
သာဓကဆောင်ဖို့နဲ့ဆက်ရှိနေဖို့
13:48
all of our most extraordinary,
often hidden desires and biases
301
816749
4248
နှစ်ခုစလုံးအတွက်နည်းပညာဟာ အံ့ဩဖို့
ကောင်းတဲ့ အစွမ်းရှိပါတယ်
13:53
and encoding them into the world,
302
821021
1866
ဒါတွေကို ကမ္ဘာမှာထဲကို ကုဒ်သွင်းပေးတယ်
13:54
but it also writes them down
so that we can see them,
303
822911
3474
ဒါ့အပြင် ကျနော်တို့ မြင်နိုင်အောင်
ရေးချပေးသေးတယိ
13:58
so that we can't pretend
they don't exist anymore.
304
826409
3330
ဒါတွေ မတည်ရှိဘူးလို့ ကျနော်တို့
ဟန်မဆောင်နိုင်တော့အောင်ပေါ့။
14:01
We need to stop thinking about technology
as a solution to all of our problems,
305
829763
4319
နည်းပညာတွေက ပြဿနာတွေအားလုံးအတွက်
အဖြေလို့ တွေးနေတာတွေ ရပ်သင့်ပြီ၊
14:06
but think of it as a guide
to what those problems actually are,
306
834106
3757
ကျနော်တို့ ပြဿနာတွေ ကိုယ်တိုင်အဖြေရှာဖို့
အထောက်အကူအနေနဲ့ ပဲ သုံးသင့်တယ်
14:09
so we can start thinking
about them properly
307
837887
2144
ဒါတွေအကြောင်း မှန်မှန်ကန်ကန် တွေးတောပြီး
14:12
and start to address them.
308
840055
1766
စတင် ကိုင်တွယ် နိုင်အောင်ပါ။
14:13
Thank you very much.
309
841845
1335
ကျေးဇူးအများကြီးတင်ပါတယ်။
14:15
(Applause)
310
843204
5192
(လက်ခုပ်သံများ)
14:21
Thank you.
311
849733
1188
ကျေးဇူးတင်ပါတယ်။
14:22
(Applause)
312
850945
2869
(လက်ခုပ်သံများ)
14:28
Helen Walters: James, thank you
for coming and giving us that talk.
313
856839
3178
Helen Walters: James ရေ ကြွရောက်
ဟောပြောပေးလို့ ကျေးဇူးတင်ပါတယ်။
14:32
So it's interesting:
314
860041
1189
သိပ်ကို စိတ်ဝင်စားစရာပါ။
14:33
when you think about the films where
the robotic overlords take over,
315
861254
3495
စက်ရုပ်တွေကြီးစိုးတဲ့ သိပ္ပံခေတ်လွန်
ရုပ်ရှင်တွ​ေကို ကြည့်လိုက်ရင်
14:36
it's all a bit more glamorous
than what you're describing.
316
864773
3279
အခုပြောနေတာတွေထက်
နည်းနည်း ပိုစွဲမက်ဖွယ်ကောင်းတယ်လေ။
14:40
But I wonder -- in those films,
you have the resistance mounting.
317
868076
3749
ဒါပေမဲ့ တွေးမိတာက ဒီရုပ်ရှင်တွေမှာ
ဖြစ်မလာအောင် တားဆီးချင်တာရှိလား။
14:43
Is there a resistance mounting
towards this stuff?
318
871849
3216
ဒီအရာကို တားဆီးဖို့
ကြိုးစားနေကြတာ ရှိလား။
14:47
Do you see any positive signs,
green shoots of resistance?
319
875089
3796
ဒီခုခံမှုရဲ့ အပြုသဘောဆောင်တဲ့ လက္ခဏာ
တိုးတက်တဲ့လက္ခဏာတွေ ရှင်မြင်လား။
14:52
James Bridle: I don't know
about direct resistance,
320
880507
2416
James Bridle:တိုက်ရိုက် ခုခံမှု
အကြောင်းမသိဘူး
14:54
because I think this stuff
is super long-term.
321
882947
2264
ဘာလို့ဆို ဒါဟာရေရှည်သွားရမှာ။
14:57
I think it's baked into culture
in really deep ways.
322
885235
2510
ကျနော်တို့ ဒါက ယဉ်ကျေးမှုထဲမှာ
အတော် အမြစ်တွယ်နေပြီ
14:59
A friend of mine,
Eleanor Saitta, always says
323
887769
2132
ကျနော့်မိတ်ဆွေ Eleanor Saitta ကအမြဲပြောတယ်
15:01
that any technological problems
of sufficient scale and scope
324
889935
3609
ဘယ်လိုနည်းပညာပြဿနာ ကြီးကြီးသေးသေး မဆို
15:05
are political problems first of all.
325
893568
2267
ပထမတော့ နိုင်ငံရေးပြဿနာတွေပါတဲ့။
15:07
So all of these things we're working
to address within this
326
895859
2785
ဆိုတော့ ဒီပြဿနာတွေကို စပြီး
အဖြေရှာဖို့ဆိုရင်
15:10
are not going to be addressed
just by building the technology better,
327
898668
3274
ပုိကောင်းတဲ့ နည်းပညာ တည်ဆောက်ပြီး
ကိုင်တွယ်နေရုံနဲ့ မပြီးသေးပဲ
15:13
but actually by changing the society
that's producing these technologies.
328
901966
3464
ဒီနည်းပညာတွေ ထုတ်လုပ်နေတဲ့
လူ့အဖွဲ့အစည်းကိုပါပြောင်းလဲမှ ဖြစ်မယ်။
15:17
So no, right now, I think we've got
a hell of a long way to go.
329
905454
3027
ဆိုတော့ကာ ကျနော်တို့
အများကြီး ကြိုးစားရဦးမယ​်။
15:20
But as I said, I think by unpacking them,
330
908505
1986
ကျနော်ပြောခဲ့သလိုပဲ
ရှင်းလင်း ပြောဆိုခြင်း
15:22
by explaining them, by talking
about them super honestly,
331
910515
2697
ရိုးသားစွာ ဆွေးနွေခြင်းကနေ
ဒီပြဿနာတွေကို ထုတ်ဖော်ရမယ်။
15:25
we can actually start
to at least begin that process.
332
913236
2505
အနည်းဆုံး ဒီဖြစ်စဉ်ကို အရင်စတင်နိုင်ပါတယ်
15:27
HW: And so when you talk about
legibility and digital literacy,
333
915765
3562
HW: ရှင်ပြောခဲ့တဲ့ ဒစ်ဂျစ်တယ် အသိပညာနဲ့
ပက်သက်ပြီး ရှင်းလင်းမြင်သာဖို့က
15:31
I find it difficult to imagine
334
919351
1591
ကျွန်မ စိတ်ကူးကြည့်ဖို့ခက်တာက
15:32
that we need to place the burden
of digital literacy on users themselves.
335
920966
3680
ဒစ်ဂျစ်တယ် အသိပညာတွေ တာဝန်ကို
သုံးသူတွေကိုယ်တိုင် ယူဖို့လိုတယ်ဆိုတာပါ။
15:36
But whose responsibility
is education in this new world?
336
924670
4562
အနာဂတ်မှာ ပညာရေးမှာ
ဘယ်သူက တာဝန်ရှိတယ်လို့ ထင်လဲ။
15:41
JB: Again, I think this responsibility
is kind of up to all of us,
337
929256
3612
JB: ထပ်ပြောရရင်၊ ဒီလိုသိဖို့က ကျနော်တို့
အားလုံးမှှှာ တာဝန်ရှိပါတယ်။
15:44
that everything we do,
everything we build, everything we make,
338
932892
2984
ကျနော်တို့ လုပ်သမျှ၊ တည်ဆောက်သမျှ၊
ဖန်တီးသမျှ အားလုံးကို
15:47
needs to be made
in a consensual discussion
339
935900
3692
ရှောင်နေသူအားလုံးနဲ့အတူ
အများသဘောတူတဲ့
15:51
with everyone who's avoiding it;
340
939616
1940
ဆွေးနွေးမှုတစ်ခုမှာ လုပ်ဖို့လိုပါတယ်။
15:53
that we're not building systems
intended to trick and surprise people
341
941580
4341
လူတွေကို မှန်တာလုပ်စေဖို့ လှည့်စားပြီး၊
အံ့အားသင့်စေဖို့ ရည်ရွယ်ပြီး စနစ်တွေ
15:57
into doing the right thing,
342
945945
2300
ဆောက်လုပ်တာ မဟုတ်ပဲ
16:00
but that they're actually involved
in every step in educating them,
343
948269
3236
တကယ်ပဲ အဆင့်ဆင့်တိုင်းမှာ သူတို့ကို
အသိပညာပေးဖို့ လည်းပါဝင်ပါတယ်။
16:03
because each of these systems
is educational.
344
951529
2278
စနစ်တစ်ခုစီဟာ အသိပည​ော
တိုးစေတာကြောင့်ပါ။
16:05
That's what I'm hopeful about,
about even this really grim stuff,
345
953831
3102
ကျနော်မျှော်လင့်တာကတော့
ဒါက မနှစ်မြို့စရာဆိုတာတောင်
16:08
that if you can take it
and look at it properly,
346
956957
2262
ဒါတွေကို သင့်တင့်စွာ အသုံးချနိုင်မယ်ဆိုရင်
16:11
it's actually in itself
a piece of education
347
959243
2089
၎င်းကိုယ်၌က ဒီစနစ် တွေ
လုပ်ဆောင်ပုံကို
16:13
that allows you to start seeing
how complex systems come together and work
348
961356
3762
နားလည်စေတဲ့ပညာရေးရဲ့ အပိုင်းအစတစ်ခုပါ။
16:17
and maybe be able to apply
that knowledge elsewhere in the world.
349
965142
3501
ကမ္ဘာ့တစ်ခြားနေရာတွေမှာ
ပြန်လည်အသုံးချဖို့ ဖြစ်နိုင်လာမှာပါ။
16:20
HW: James, it's such
an important discussion,
350
968667
2115
HW: ဒါဟာ သိပ်ကို အရေးပါတဲ့ ဆွေးနွေးချက်ပါ။
16:22
and I know many people here
are really open and prepared to have it,
351
970806
3227
ဒီက လူအများကလည်း ပွင့်လင်းပြီး
လက်လခံဖို့ အသင့်ရှိတာသေချာပါတယ်။
16:26
so thanks for starting off our morning.
352
974057
1859
မနက်ခင်းကို စပေးတဲ့အတွက် ကျေးဇူးပါ။
16:27
JB: Thanks very much. Cheers.
353
975940
1400
JB: ကျေးဇူးပါ။
ရွှင်လန်းကြပါစေ
16:29
(Applause)
354
977364
1651
(လက်ခုပ်သံများ)
Translated by ThuRein Tun
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com