ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

เซเน็พ ทูเฟกสิ: เรากำลังสร้างสภาพทางสังคมที่ถูกควบคุมแบบโหดร้ายรุนแรง

Filmed:
2,866,905 views

เซเน็พ ทูเฟกสิ นักสังคมวิทยาเชิงเทคโน บอกว่า ในการคลิกเข้าไปแต่ละครั้งนั้น เรากำลังสร้างสภาพสังคมที่ถูกควบคุมแบบโหดร้ายรุนแรง โดยพลังอำนาจของปัญญาประดิษฐ์ ในการพูดเพื่อเปิดหูเปิดตาให้ผู้คนได้รู้นี้ เธอพูดถึงรายละเอียดวิธีการที่ธุรกิจเดิมๆ ที่ใช้ชุดคำสั่งขั้นตอนวิธีของคอมพิวเตอร์ อย่างเช่น เฟซบุค กูเกิล และอเมซอน ให้คุณคลิกไปที่โฆษณา แล้วก็ยังใช้เพื่อจัดระเบียบให้คุณเข้าไปยังข้อมูลด้านการเมืองและสังคมอีกด้วย และแม้กระทั่งว่าเครื่องจักรนั้นก็ไม่ได้เป็นการคุกคามที่แท้จริง แต่สิ่งที่เราจำเป็นต้องเข้าใจก็คือ วิธีการที่ผู้มีอำนาจใช้ปัญญาประดิษฐ์ เพื่อควบคุมเรา -- และสิ่งที่เราสามารถทำเพื่อตอบโต้ได้
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceเสียงพูด fearsความกลัว
of artificialเทียม intelligenceสติปัญญา,
0
760
3536
เมื่อผู้คนออกมากล่าวว่า
กลัวปัญญาประดิษฐ์
00:16
very oftenบ่อยครั้ง, they invokeขอร้อง imagesภาพ
of humanoidมนุษย์ robotsหุ่นยนต์ runวิ่ง amokอาละวาด.
1
4320
3976
บ่อยครั้ง พวกมันนำมาซึ่งภาพพจน์
พวกหุ่นยนต์มนุษย์วิ่งพล่านอาละวาดไปทั่ว
00:20
You know? TerminatorTerminator?
2
8320
1240
รู้ไหม?
หนังเรื่องคนเหล็ก?
00:22
You know, that mightอาจ be
something to considerพิจารณา,
3
10400
2336
นั่นอาจเป็นบางสิ่งบางอย่าง
ที่ต้องมาพิจารณาให้ดี
00:24
but that's a distantไกล threatการคุกคาม.
4
12760
1856
แต่นั่นเป็นภัยคุกคามที่ยังอยู่ห่างไกล
00:26
Or, we fretทำให้ไม่สบายใจ about digitalดิจิตอล surveillanceการตรวจตรา
5
14640
3456
หรือไม่ก็ เป็นการที่เราทุกข์กังวลใจ
เกี่ยวกับการสอดแนมผ่านทางระบบดิจิตอล
00:30
with metaphorsอุปมาอุปมัย from the pastอดีต.
6
18120
1776
โดยการเปรียบเทียบจากอดีต
00:31
"1984," Georgeจอร์จ Orwell'sเวลล์ "1984,"
7
19920
2656
"1984" หนังสือของจอร์จ ออร์เวลล์ "1984"
00:34
it's hittingกดปุ่ม the bestsellerขายดี listsรายการ again.
8
22600
2280
ขณะนี้ติดอันดับหนังสือขายดีที่สุดอีกครั้ง
00:37
It's a great bookหนังสือ,
9
25960
1416
เป็นหนังสือที่เยี่ยมมาก
00:39
but it's not the correctแก้ไข dystopiaโทเปีย
for the 21stเซนต์ centuryศตวรรษ.
10
27400
3880
แต่นั่นไม่ถือเป็นจินภาพที่ถูกต้อง
ของสังคมที่เลวร้ายสำหรับศตวรรษที่ 21 นี้
00:44
What we need to fearกลัว mostมากที่สุด
11
32080
1416
สิ่งที่เราต้องกลัวมากที่สุด
00:45
is not what artificialเทียม intelligenceสติปัญญา
will do to us on its ownด้วยตัวเอง,
12
33520
4776
ไม่ใช่สิ่งที่ปัญญาประดิษฐ์
จะทำกับเราด้วยตัวมันเอง
00:50
but how the people in powerอำนาจ
will use artificialเทียม intelligenceสติปัญญา
13
38320
4736
แต่เป็นวิธีการที่คนที่มีอำนาจ
จะใช้ปัญญาประดิษฐ์
00:55
to controlควบคุม us and to manipulateจัดการ us
14
43080
2816
เพื่อควบคุมเรา และเพื่อล่อลวงเรา
00:57
in novelนวนิยาย, sometimesบางครั้ง hiddenซ่อนเร้น,
15
45920
3136
ในรูปแบบนิยาย ซึ่งบางครั้งก็ซ่อนเร้น
01:01
subtleบอบบาง and unexpectedไม่คาดฝัน waysวิธี.
16
49080
3016
ในรูปแบบที่แยบยล และคาดไม่ถึง
01:04
Much of the technologyเทคโนโลยี
17
52120
1856
เทคโนโลยีจำนวนมาก
01:06
that threatensขู่ our freedomเสรีภาพ
and our dignityเกียรติ in the near-termระยะเวลาอันใกล้ futureอนาคต
18
54000
4336
ที่คุกคามอิสระภาพ และเกียรติยศของเรา
ในช่วงอนาคตอันใกล้นี้
01:10
is beingกำลัง developedพัฒนา by companiesบริษัท
19
58360
1856
กำลังถูกพัฒนาโดยบริษัทต่าง ๆ
01:12
in the businessธุรกิจ of capturingจับ
and sellingขาย our dataข้อมูล and our attentionความสนใจ
20
60240
4936
ในธุรกิจที่เข้ามาเก็บและขาย
ข้อมูล และความสนใจของเรา
01:17
to advertisersผู้ลงโฆษณา and othersคนอื่น ๆ:
21
65200
2256
ให้กับพวกบริษัทโฆษณาและบริษัทอื่น ๆ
01:19
FacebookFacebook, GoogleGoogle, Amazonอเมซอน,
22
67480
3416
เช่น เฟสบุ๊ก กูเกิล อเมซอน
01:22
Alibabaอาลีบาบา, Tencentเทนเซนต์.
23
70920
1880
อาลีบาบา เท็นเซ็นท์
01:26
Now, artificialเทียม intelligenceสติปัญญา has startedเริ่มต้น
bolsteringกอด theirของพวกเขา businessธุรกิจ as well.
24
74040
5496
ตอนนี้ ปัญญาประดิษฐ์ได้เริ่ม
ปรับเสริมธุรกิจพวกเขาให้แข็งแรงขึ้นอีกด้วย
01:31
And it mayอาจ seemดูเหมือน
like artificialเทียม intelligenceสติปัญญา
25
79560
2096
และมันอาจดูราวกับว่า
ปัญญาประดิษฐ์
01:33
is just the nextต่อไป thing after onlineออนไลน์ adsโฆษณา.
26
81680
2856
ก็เป็นเพียงแค่สิ่งที่จะมาถัดไปจาก
โฆษณาทางอินเตอร์เน็ต
01:36
It's not.
27
84560
1216
แต่มันไม่ใช่ค่ะ
01:37
It's a jumpกระโดด in categoryประเภท.
28
85800
2456
มันเป็นการก้าวกระโดดในลำดับขั้น
01:40
It's a wholeทั้งหมด differentต่าง worldโลก,
29
88280
2576
มันเป็นโลกที่แตกต่างออกไปอย่างสิ้นเชิง
01:42
and it has great potentialที่อาจเกิดขึ้น.
30
90880
2616
และมันก็มีศักยภาพที่ยิ่งใหญ่
01:45
It could accelerateเร่งความเร็ว our understandingความเข้าใจ
of manyจำนวนมาก areasพื้นที่ of studyศึกษา and researchการวิจัย.
31
93520
6920
มันอาจเร่งความเข้าใจของเราให้เร็วขึ้นได้
ในการศึกษา และการวิจัยหลายๆสาขา
01:53
But to paraphraseถอดความ
a famousมีชื่อเสียง Hollywoodฮอลลีวู้ด philosopherนักปรัชญา,
32
101120
3496
แต่เมื่อถอดคำพูดของนักปรัชญาฮอลลีวูด
ผู้มีชื่อเสียง ที่กล่าวว่า
01:56
"With prodigiousมหัศจรรย์ potentialที่อาจเกิดขึ้น
comesมา prodigiousมหัศจรรย์ riskอันตราย."
33
104640
3640
"ด้วยศักยภาพมหาศาล ก็จะมีมาซึ่ง
การเสี่ยงที่มหาศาลเช่นกัน"
02:01
Now let's look at a basicขั้นพื้นฐาน factความจริง
of our digitalดิจิตอล livesชีวิต, onlineออนไลน์ adsโฆษณา.
34
109120
3936
ทีนี้มาดูข้อเท็จจริงพื้นฐาน
ของชีวิตดิจิตอลของเรา อย่างโฆษณาออนไลน์
02:05
Right? We kindชนิด of dismissยกเลิก them.
35
113080
2896
ใช่มั๊ยคะ? เราไม่ค่อยจะสนใจมัน
02:08
They seemดูเหมือน crudeหยาบ, ineffectiveไม่ได้ผล.
36
116000
1976
มันดูจะยังหยาบ ๆ ไร้ประสิทธิภาพ
02:10
We'veเราได้ all had the experienceประสบการณ์
of beingกำลัง followedตาม on the webเว็บ
37
118000
4256
เราทุกคนเคยมีประสบการณ์ของการถูกติดตาม
ทางอินเตอร์เน็ตมาแลัว
02:14
by an adการโฆษณา basedซึ่งเป็นรากฐาน on something
we searchedสืบค้น or readอ่าน.
38
122280
2776
โดยโฆษณาที่ขึ้นอยู่กับบางอย่าง
ที่เราเคยค้นหาหรือเคยอ่าน
02:17
You know, you look up a pairคู่ of bootsรองเท้าบูท
39
125080
1856

อย่างเช่น คุณมองหารองเท้าบูทสักคู่
02:18
and for a weekสัปดาห์, those bootsรองเท้าบูท are followingดังต่อไปนี้
you around everywhereทุกที่ you go.
40
126960
3376
แล้วก็นานเป็นอาทิตย์ รองเท้าบูทพวกนั้น
ก็ตามคุณไปทั่ว ไม่ว่าจะไปที่ไหน
02:22
Even after you succumbยอม and buyซื้อ them,
they're still followingดังต่อไปนี้ you around.
41
130360
3656
แม้กระทั่งว่า คุณยอมไปซื้อมันมา
มันก็ยังคงตามคุณไปทั่ว
02:26
We're kindชนิด of inuredที่ได้ทำให้อดทน to that kindชนิด
of basicขั้นพื้นฐาน, cheapถูก manipulationการจัดการ.
42
134040
3016
เหมือนพวกเราชินชากับ
การล่อลวงพื้นฐานง่าย ๆ กระจอก ๆ นั้นไปแล้ว
02:29
We rollม้วน our eyesตา and we think,
"You know what? These things don't work."
43
137080
3400
เรากลอกตารำคราญใจ และเราคิดว่า
"รู้อะไรมั๊ย? ของแบบนี้ใช้ไม่ได้ผลหรอก"
02:33
Exceptยกเว้น, onlineออนไลน์,
44
141720
2096
ยกเว้นทางอินเตอร์เน็ต
02:35
the digitalดิจิตอล technologiesเทคโนโลยี are not just adsโฆษณา.
45
143840
3600
เทคโนโลยีดิจิตอลนั้น ไม่ใช่แค่เพียงโฆษณา
02:40
Now, to understandเข้าใจ that,
let's think of a physicalกายภาพ worldโลก exampleตัวอย่าง.
46
148240
3120
ทีนี้ เพื่อจะได้เข้าใจเรื่องนั้น
เรามาคิดถึงตัวอย่างในโลกทางกายภาพ
02:43
You know how, at the checkoutเช็คเอาท์ countersเคาน์เตอร์
at supermarketsซูเปอร์มาร์เก็ต, nearใกล้ the cashierแคชเชียร์,
47
151840
4656
คุณก็รู้ ที่ช่องจ่ายเงิน
ในซุปเปอร์มาร์เก็ต ใกล้เครื่องคิดเงิน
02:48
there's candyลูกอม and gumเหงือก
at the eyeตา levelชั้น of kidsเด็ก?
48
156520
3480
จะมีพวกลูกอมและหมากฝรั่ง
วางอยู่ในระดับสายตาของพวกเด็ก ๆ​
02:52
That's designedได้รับการออกแบบ to make them
whineสะอื้น at theirของพวกเขา parentsพ่อแม่
49
160800
3496
นั่นถูกออกแบบมา เพื่อให้เด็กเหล่านั้น
งอแงใส่พ่อแม่
02:56
just as the parentsพ่อแม่
are about to sortประเภท of checkตรวจสอบ out.
50
164320
3080
ในขณะที่พ่อแม่
กำลังจะจ่ายเงิน
03:00
Now, that's a persuasionการชักชวน architectureสถาปัตยกรรม.
51
168040
2640
นั่นค่ะ นั่นเป็นสถาปัตยกรรมเชิงการชักจูง
03:03
It's not niceดี, but it kindชนิด of worksโรงงาน.
52
171160
3096
ไม่ใช่สิ่งที่ดี แต่ใช้การได้
03:06
That's why you see it
in everyทุกๆ supermarketซุปเปอร์มาร์เก็ต.
53
174280
2040
นั่นคือเหตุผลที่คุณเห็นมัน
ในทุกร้านค้า
03:08
Now, in the physicalกายภาพ worldโลก,
54
176720
1696
ทีนี้ ในโลกทางกายภาพนั้น,
03:10
suchอย่างเช่น persuasionการชักชวน architecturesสถาปัตยกรรม
are kindชนิด of limitedถูก จำกัด,
55
178440
2496
สถาปัตยกรรมเชิงชักจูงแบบนั้น
ค่อนข้างมีข้อจำกัด
03:12
because you can only put
so manyจำนวนมาก things by the cashierแคชเชียร์. Right?
56
180960
4816
เพราะคุณได้แค่วางของหลายอย่าง
ไว้ใกล้เครื่องคิดเงินได้ ใช่มั๊ยคะ?
03:17
And the candyลูกอม and gumเหงือก,
it's the sameเหมือนกัน for everyoneทุกคน,
57
185800
4296
แล้วพวกลูกกวาดและหมากฝรั่ง
ก็เหมือนๆกันสำหรับทุกคน
03:22
even thoughแม้ it mostlyส่วนใหญ่ worksโรงงาน
58
190120
1456
แม้ว่าวิธีนี้ส่วนใหญ่ใช้การได้
03:23
only for people who have
whinyขี้แง little humansมนุษย์ besideข้าง them.
59
191600
4040
แต่ก็เพียงกับคนที่มีเจ้าตัวน้อย
ร้องโหยหวนอยู่ข้างกาย
03:29
In the physicalกายภาพ worldโลก,
we liveมีชีวิต with those limitationsข้อ จำกัด.
60
197160
3920
ในโลกเชิงกายภาพ
เราอยู่กับข้อจำกัดเหล่านั้น
03:34
In the digitalดิจิตอล worldโลก, thoughแม้,
61
202280
1936
แต่ในโลกดิจิตอลเนี่ยสิ
03:36
persuasionการชักชวน architecturesสถาปัตยกรรม
can be builtสร้างขึ้น at the scaleขนาด of billionsพันล้าน
62
204240
4320
สถาปัตยกรรมเชิงชักจูง
สามารถถูกสร้างขึ้นมาได้ในระดับพันล้าน
03:41
and they can targetเป้า, inferสรุป, understandเข้าใจ
63
209840
3856
และมันก็สามารถเล็งเป้า สรุป เข้าใจ
03:45
and be deployedนำไปใช้ at individualsบุคคล
64
213720
2896
และถูกนำไปแยกใช้กับปัจเจกบุคคล
03:48
one by one
65
216640
1216
ทีละคน
03:49
by figuringการหา out your weaknessesจุดอ่อน,
66
217880
2136
โดยการวิเคราะห์ถึงจุดอ่อนของคุณ
03:52
and they can be sentส่ง
to everyone'sทุกคน phoneโทรศัพท์ privateเอกชน screenจอภาพ,
67
220040
5616
และมันก็ยังสามารถถูกส่งไปที่หน้าจอ
โทรศัพท์ส่วนตัวของทุกคน
03:57
so it's not visibleมองเห็นได้ to us.
68
225680
2256
เพื่อที่เราจะได้มองไม่เห็น
03:59
And that's differentต่าง.
69
227960
1256
และนั่นเป็นข้อแตกต่าง
04:01
And that's just one of the basicขั้นพื้นฐาน things
that artificialเทียม intelligenceสติปัญญา can do.
70
229240
3576
และนั่นเป็นเพียงของพื้น ๆ
ที่ปัญญาประดิษฐ์สามารถทำได้
04:04
Now, let's take an exampleตัวอย่าง.
71
232840
1336
ทีนี้ มาดูอีกสักตัวอย่างค่ะ
04:06
Let's say you want to sellขาย
planeเครื่องบิน ticketsตั๋ว to Vegasสเวกัส. Right?
72
234200
2696
เอาว่า คุณอยากจะขายตั๋วเครื่องบิน
ไปที่ลาส เวกัสนะคะ?
04:08
So in the oldเก่า worldโลก, you could think
of some demographicsประชากร to targetเป้า
73
236920
3496
ในโลกเดิม ๆ คุณอาจคิดถึง
กลุ่มประชากรที่คุณจะตั้งเป้า
04:12
basedซึ่งเป็นรากฐาน on experienceประสบการณ์
and what you can guessเดา.
74
240440
2520
ขึ้นอยู่กับประสบการณ์
และสิ่งที่คุณสามารถคาดเดาได้
04:15
You mightอาจ try to advertiseโฆษณา to, oh,
75
243560
2816
คุณอาจจะพยายามโฆษณาไปยัง,
04:18
menผู้ชาย betweenระหว่าง the agesทุกเพศทุกวัย of 25 and 35,
76
246400
2496
ผู้ชายอายุระหว่าง 25 ถึง 35 ปี
04:20
or people who have
a highสูง limitจำกัด on theirของพวกเขา creditเครดิต cardบัตร,
77
248920
3936
หรือ ผู้คนที่มีวงเงินบัตรเครดิตสูง
04:24
or retiredถอยออก couplesคู่รัก. Right?
78
252880
1376
หรือคู่ครองวัยเกษียณ ใช่ไหม?
04:26
That's what you would do in the pastอดีต.
79
254280
1816
นั่นเป็นสิ่งที่คุณอาจจะทำในอดีต
04:28
With bigใหญ่ dataข้อมูล and machineเครื่อง learningการเรียนรู้,
80
256120
2896
ด้วยข้อมูลขนาดใหญ่
และการเรียนรู้ของเครื่องจักรกล
04:31
that's not how it worksโรงงาน anymoreอีกต่อไป.
81
259040
1524
นั่นไม่ใช่วิธีที่ได้ผลต่อไปแล้ว
04:33
So to imagineจินตนาการ that,
82
261320
2176
เพื่อที่จะจินตนาการถึงสิ่งนั้น
04:35
think of all the dataข้อมูล
that FacebookFacebook has on you:
83
263520
3856
ลองคิดถึงข้อมูลทั้งหมด
ที่เฟสบุ๊กมีเกี่ยวกับคุณ:
04:39
everyทุกๆ statusสถานะ updateปรับปรุง you ever typedพิมพ์,
84
267400
2536
ทุกสถานะที่คุณเคยพิมพ์
04:41
everyทุกๆ Messengerผู้สื่อสาร conversationการสนทนา,
85
269960
2016
ทุกการสนทนาในแมสเซนเจอร์
04:44
everyทุกๆ placeสถานที่ you loggedเข้าสู่ระบบ in from,
86
272000
1880
ทุกที่ ที่คุณเคยใช้ล๊อคอิน
04:48
all your photographsการถ่ายภาพ
that you uploadedอัปโหลด there.
87
276400
3176
รูปภาพคุณทั้งหมด
ที่คุณถ่ายโอนข้อมูลลงไป
04:51
If you startเริ่มต้น typingการพิมพ์ something
and changeเปลี่ยนแปลง your mindใจ and deleteลบ it,
88
279600
3776
ถ้าคุณเริ่มต้นพิมพ์บางอย่าง
แล้วเปลี่ยนใจและลบมันไปเสีย
04:55
FacebookFacebook keepsช่วยให้ those
and analyzesวิเคราะห์ them, too.
89
283400
3200
เฟซบุ๊กจะเก็บมันไว้ แล้วก็วิเคราะห์
สิ่งที่คุณลบไปแล้วนั้นด้วย
04:59
Increasinglyขึ้น, it triesพยายาม
to matchการจับคู่ you with your offlineออฟไลน์ dataข้อมูล.
90
287160
3936
เพิ่มมากขึ้นเรื่อย ๆ มันพยายามจะจับคู่
คุณกับข้อมูลออฟไลน์ของคุณ
05:03
It alsoด้วย purchasesการซื้อสินค้า
a lot of dataข้อมูล from dataข้อมูล brokersโบรกเกอร์.
91
291120
3176
นอกจากนี้ มันยังไปซื้อข้อมูลมากมาย
จากนายหน้าขายข้อมูลอีกด้วย
05:06
It could be everything
from your financialการเงิน recordsบันทึก
92
294320
3416
ข้อมูลนั้นอาจจะเป็นได้ทุกเรื่อง
ตั้งแต่บันทึกด้านการเงินของคุณ
05:09
to a good chunkก้อน of your browsingเรียกดู historyประวัติศาสตร์.
93
297760
2120
จนถึงประวัติการเรียกดูเว็บไซต์มากมาย
05:12
Right? In the US,
suchอย่างเช่น dataข้อมูล is routinelyจำเจ collectedเก็บรวบรวม,
94
300360
5416
ใช่ไหมคะ? ในสหรัฐฯ ข้อมูลพวกนั้น
ถูกเก็บรวบรวมไว้ประจำเป็นกิจวัตร
05:17
collatedเรียง and soldขาย.
95
305800
1960
เรียบเรียงแล้วก็ขายไป
05:20
In Europeยุโรป, they have tougherรุนแรง rulesกฎระเบียบ.
96
308320
2440
แต่ในยุโรป
พวกเขามีกฎที่เข้มงวดกว่านี้ค่ะ
05:23
So what happensที่เกิดขึ้น then is,
97
311680
2200
สิ่งที่เกิดขึ้นก็คือ
05:26
by churningchurning throughตลอด all that dataข้อมูล,
these machine-learningเครื่องการเรียนรู้ algorithmsอัลกอริทึม --
98
314920
4016
โดยการคลุกเคล้าข้อมูลทั่วทั้งหมด,
ชุดคำสั่งการเรียนรู้ของเครื่องพวกนี้ --
05:30
that's why they're calledเรียกว่า
learningการเรียนรู้ algorithmsอัลกอริทึม --
99
318960
2896
นั่นคือเหตุผลที่เรียกมันว่า
ชุดคำสั่งขั้นตอนการเรียนรู้ ..
05:33
they learnเรียน to understandเข้าใจ
the characteristicsลักษณะ of people
100
321880
4096
พวกมันเรียนรู้ที่จะเข้าใจ
ลักษณะเฉพาะของผู้คน
05:38
who purchasedซื้อ ticketsตั๋ว to Vegasสเวกัส before.
101
326000
2520
ที่ซื้อตั๋วไปลาสเวกัสมาก่อนแล้ว
05:41
When they learnเรียน this from existingที่มีอยู่ dataข้อมูล,
102
329760
3536
เมื่อพวกมันเรียนรู้เรื่องนี้
จากข้อมูลที่มีอยู่
05:45
they alsoด้วย learnเรียน
how to applyใช้ this to newใหม่ people.
103
333320
3816
พวกมันยังเรียนรู้อีกด้วย
ถึงวิธีประยุกต์ใช้กับคนใหม่
05:49
So if they're presentedนำเสนอ with a newใหม่ personคน,
104
337160
3056
ดังนั้นถ้ามีคนใหม่เข้ามา
05:52
they can classifyแยกประเภท whetherว่า that personคน
is likelyน่าจะ to buyซื้อ a ticketตั๋ว to Vegasสเวกัส or not.
105
340240
4640
พวกมันก็สามารถแยกได้ว่า
คนนั้นน่าจะซื้อตั๋วไปฃาสเวกัสหรือไม่
05:57
Fine. You're thinkingคิด,
an offerเสนอ to buyซื้อ ticketsตั๋ว to Vegasสเวกัส.
106
345720
5456
ก็ดีค่ะ คุณกำลังคิดถึง
การเสนอขายตั๋วไปเวกัส
06:03
I can ignoreไม่สนใจ that.
107
351200
1456
ฉันไม่สนใจเรื่องนั้นก็ได้
06:04
But the problemปัญหา isn't that.
108
352680
2216
แต่นั่นไม่ใช่ปัญหา
06:06
The problemปัญหา is,
109
354920
1576
ปัญหาที่ว่านั้นคือ
06:08
we no longerอีกต่อไป really understandเข้าใจ
how these complexซับซ้อน algorithmsอัลกอริทึม work.
110
356520
4136
เราจะไม่เข้าใจแท้จริงอีกต่อไปว่า ชุดคำสั่ง
ขั้นตอนวิธีที่ซับซ้อนพวกนี้ทำงานอย่างไร
06:12
We don't understandเข้าใจ
how they're doing this categorizationการจำแนกประเภท.
111
360680
3456
เราไม่เข้าใจว่า พวกมันกำลังทำ
การแยกประเภทข้อมูลนี้ได้อย่างไร
06:16
It's giantยักษ์ matricesการฝึกอบรม,
thousandsพัน of rowsแถว and columnsคอลัมน์,
112
364160
4416
มันเป็นระบบเมตริกที่ใหญ่มหึมา
เต็มไปด้วยแถบแถวของข้อมูลนับพัน
06:20
maybe millionsล้าน of rowsแถว and columnsคอลัมน์,
113
368600
1960
หรืออาจจะนับล้านเลยก็ได้
06:23
and not the programmersโปรแกรมเมอร์
114
371320
2640
และไม่ว่าจะเป็นคนเขียนโปรแกรม
06:26
and not anybodyใคร ๆ who looksรูปลักษณ์ at it,
115
374760
1680
และใครก็ตามที่ดูมัน
06:29
even if you have all the dataข้อมูล,
116
377440
1496
แม้คุณจะมีข้อมูลทั้งหมดนั้น
06:30
understandsเข้าใจ anymoreอีกต่อไป
how exactlyอย่างแน่นอน it's operatingการดำเนินงาน
117
378960
4616
ก็อาจจะไม่เข้าใจอีกต่อไปว่า
มันกำลังทำงานอย่างไร
06:35
any more than you'dคุณควรที่จะ know
what I was thinkingคิด right now
118
383600
3776
ไม่มากไปกว่า การที่คุณอาจล่วงรู้
ว่าฉันกำลังคิดอยู่ในขณะนี้
06:39
if you were shownแสดงให้เห็นว่า
a crossข้าม sectionมาตรา of my brainสมอง.
119
387400
3960
หากว่าคุณได้เห็นภาพตัดตามขวางของสมองฉัน
06:44
It's like we're not programmingการเขียนโปรแกรม anymoreอีกต่อไป,
120
392360
2576
มันเหมือนกับว่า
เราไม่ได้กำลังเขียนโปรแกรมอีกต่อไปแล้ว
06:46
we're growingการเจริญเติบโต intelligenceสติปัญญา
that we don't trulyอย่างแท้จริง understandเข้าใจ.
121
394960
4400
แต่เรากำลังสร้างสติปัญญาที่หลักแหลม
ที่เราไม่เข้าใจอย่างแท้จริง ให้เติบโตขึ้น
06:52
And these things only work
if there's an enormousมหาศาล amountจำนวน of dataข้อมูล,
122
400520
3976
และสิ่งเหล่านี้ทำงานก็ต่อเมื่อ
มีข้อมูลจำนวนมากมายเท่านั้น
06:56
so they alsoด้วย encourageส่งเสริม
deepลึก surveillanceการตรวจตรา on all of us
123
404520
5096
ดังนั้น พวกเขาจึงส่งเสริม
การสอดแนมเชิงลึกกับพวกเราทุกคน
07:01
so that the machineเครื่อง learningการเรียนรู้
algorithmsอัลกอริทึม can work.
124
409640
2336
เพื่อให้เครื่องจักรใช้
ชุดคำสั่งการเรียนรู้มาทำงาน
07:04
That's why FacebookFacebook wants
to collectเก็บ all the dataข้อมูล it can about you.
125
412000
3176
นั่นคือเหตุผลที่เฟซบุ๊กต้องการ
รวบรวมข้อมูลคุณทั้งหมดเท่าที่จะทำได้
07:07
The algorithmsอัลกอริทึม work better.
126
415200
1576
เพื่อให้ชุดคำสั่งทำงานได้ดีขึ้น
07:08
So let's pushดัน that Vegasสเวกัส exampleตัวอย่าง a bitบิต.
127
416800
2696
ค่ะ เรามารุกต่อในตัวอย่างเรื่องเวกัสอีกนิด
07:11
What if the systemระบบ
that we do not understandเข้าใจ
128
419520
3680
สมมุติว่าระบบที่ว่า
ซึ่งเราไม่เข้าใจนั้น
07:16
was pickingการเลือก up that it's easierง่ายดาย
to sellขาย Vegasสเวกัส ticketsตั๋ว
129
424200
5136
กำลังจับได้ว่า
มันง่ายกว่าที่จะขายตั๋วไปเวกัส
07:21
to people who are bipolarมีสองขั้ว
and about to enterเข้าสู่ the manicความคลั่งไคล้ phaseระยะ.
130
429360
3760
ให้กับคนที่เป็นโรคจิตชนิดไบโพลาร์
และกำลังจะเข้าช่วงอารมณ์ดีผิดปกติ
07:25
Suchอย่างเช่น people tendมีแนวโน้ม to becomeกลายเป็น
overspendersoverspenders, compulsiveซึ่งต้องกระทำ gamblersการเล่นการพนัน.
131
433640
4920
คนแบบนั้นมีแนวโน้มที่จะใช้จ่ายเงินเกินตัว
เป็นนักพนันที่ควบคุมตัวเองไม่ได้
07:31
They could do this, and you'dคุณควรที่จะ have no clueเงื่อนงำ
that's what they were pickingการเลือก up on.
132
439280
4456
มันก็จะทำสิ่งที่ว่านี้ และคุณก็ไม่อาจรู้ได้
ว่านั่นคือสิ่งที่มันหยิบมาใช้ได้
07:35
I gaveให้ this exampleตัวอย่าง
to a bunchพวง of computerคอมพิวเตอร์ scientistsนักวิทยาศาสตร์ onceครั้งหนึ่ง
133
443760
3616
ครั้งหนึ่ง ฉันเคยให้ตัวอย่างนี้
กับกลุ่มนักวิทยาศาสตร์คอมพิวเตอร์
07:39
and afterwardsภายหลัง, one of them cameมา up to me.
134
447400
2056
และหลังจากนั้น หนึ่งในนั้นมาหาฉัน
07:41
He was troubledทุกข์ and he said,
"That's why I couldn'tไม่สามารถ publishประกาศ it."
135
449480
3520
เขาเดือดร้อนใจ และบอกว่า
"นั่นล่ะสาเหตุที่ผมพิมพ์เผยแพร่มันไม่ได้"
07:45
I was like, "Couldn'tไม่สามารถ publishประกาศ what?"
136
453600
1715
ฉันก็แบบ "ไม่อาจพิมพ์เผยแพร่อะไร?"
07:47
He had triedพยายาม to see whetherว่า you can indeedจริง
figureรูป out the onsetการโจมตี of maniaความบ้าคลั่ง
137
455800
5856
เขาได้พยายามดูว่า คุณจะสามารถรู้ได้ถึง
การเข้าสู่ช่วงอารมณ์ดีผิดปกติ
07:53
from socialสังคม mediaสื่อ postsโพสต์
before clinicalทางคลินิก symptomsอาการ,
138
461680
3216
จากการพิมพ์ข้อความลงในสื่อสังคมออนไน์
ก่อนมีอาการของโรค
07:56
and it had workedทำงาน,
139
464920
1776
และปรากฎว่ามันก็ทำได้
07:58
and it had workedทำงาน very well,
140
466720
2056
และมันก็ใช้การได้อย่างดีมาก
08:00
and he had no ideaความคิด how it workedทำงาน
or what it was pickingการเลือก up on.
141
468800
4880
และเขาก็ไม่รู้ว่า มันทำงานได้อย่างไร
หรือมันกำลังหยิบจับอะไรขึ้นมา
08:06
Now, the problemปัญหา isn't solvedแก้ไข
if he doesn't publishประกาศ it,
142
474840
4416
ดังนั้น ปัญหาจึงยังไม่ได้ถูกแก้ไข
ถ้าเขาไม่ได้พิมพ์เผยแพร่มันไป
08:11
because there are alreadyแล้ว companiesบริษัท
143
479280
1896
เพราะในขณะนี้ มีหลายบริษัท
08:13
that are developingที่กำลังพัฒนา
this kindชนิด of technologyเทคโนโลยี,
144
481200
2536
ที่กำลังพัฒนาเทคโนโลยีประเภทนี้อยู่
08:15
and a lot of the stuffสิ่ง
is just off the shelfหิ้ง.
145
483760
2800
และมีอยู่มากมายหลายอย่างแค่
หาได้ง่ายมีจำหน่ายทั่วไป
08:19
This is not very difficultยาก anymoreอีกต่อไป.
146
487240
2576
นี่ไม่ใช่เรื่องยากเย็นมากมายอีกต่อไป
08:21
Do you ever go on YouTubeYouTube
meaningความหมาย to watch one videoวีดีโอ
147
489840
3456
คุณเคยเข้าไปในยูทูบมั๊ยคะ
ตั้งใจจะดูแค่วิดีโอเดียว
08:25
and an hourชั่วโมง laterต่อมา you've watchedดู 27?
148
493320
2360
และแล้วหนึ่งชั่วโมงต่อมา
คุณดูไปแล้ว 27 เรื่อง
08:28
You know how YouTubeYouTube
has this columnคอลัมน์ on the right
149
496760
2496
คุณรู้ถึงการที่ยูทูบมีช่อง อยู่ทางขวามือ
08:31
that saysกล่าวว่า, "Up nextต่อไป"
150
499280
2216
ที่บอกไว่า "ลำดับต่อไป"
08:33
and it autoplaysเล่นอัตโนมัติ something?
151
501520
1816
และมันก็เล่นต่อเองได้ในบางครั้ง?
08:35
It's an algorithmขั้นตอนวิธี
152
503360
1216
เป็นชุดคำสั่งขั้นตอนวิธี
08:36
pickingการเลือก what it thinksคิดว่า
that you mightอาจ be interestedสนใจ in
153
504600
3616
กำลังจับสิ่งที่มันคิดว่า คุณอาจจะสนใจ
08:40
and maybe not find on your ownด้วยตัวเอง.
154
508240
1536
และบางทีคุณอาจพบไม่ได้ด้วยตัวเอง
08:41
It's not a humanเป็นมนุษย์ editorบรรณาธิการ.
155
509800
1256
มันไม่ใช่บรรณาธิการมนุษย์
08:43
It's what algorithmsอัลกอริทึม do.
156
511080
1416
มันเป็นสิ่งที่ทำโดยชุดคำสั่ง
08:44
It picksหยิบ up on what you have watchedดู
and what people like you have watchedดู,
157
512520
4736
มันจับเอาสิ่งที่คุณได้ดูไปแล้ว
และสิ่งที่คนเหมือนคุณได้ดูไปแล้ว
08:49
and infersอ้างถึง that that mustต้อง be
what you're interestedสนใจ in,
158
517280
4216
และอนุมานว่า นั่นจะต้องเป็นสิ่งที่คุณสนใจ
08:53
what you want more of,
159
521520
1255
ที่คุณจะต้องการมากขึ้น
08:54
and just showsแสดงให้เห็นว่า you more.
160
522799
1336
แล้วแค่แสดงให้คุณเห็นมากขึ้น
08:56
It soundsเสียง like a benignอ่อนโยน
and usefulมีประโยชน์ featureลักษณะ,
161
524159
2201
ฟังดูเหมือนกับ เป็นคุณลักษณะที่ดี
และมีประโยชน์
08:59
exceptยกเว้น when it isn't.
162
527280
1200
เว้นแต่มันไม่ใช่
09:01
So in 2016, I attendedเข้าร่วม ralliesการชุมนุม
of then-candidateจากนั้นผู้สมัคร Donaldโดนัลด์ Trumpคนที่กล้าหาญ
163
529640
6960
ในปี 2016 ฉันเข้าร่วมการชุมนุมกับ
โดแนล ทรัมพ์ ซึ่งตอนนั้นยังเป็นผู้สมัคร
09:09
to studyศึกษา as a scholarนักวิชาการ
the movementการเคลื่อนไหว supportingที่สนับสนุน him.
164
537840
3336
เพื่อที่จะศึกษาในฐานะผู้ที่ได้รับทุน
ความเคลื่อนไหวที่สนับสนุนเขาอยู่
09:13
I studyศึกษา socialสังคม movementsการเคลื่อนไหว,
so I was studyingการศึกษา it, too.
165
541200
3456
ฉันศึกษาความเคลื่อนไหวทางด้านสังคม
จึงกำลังศึกษามันด้วยเช่นกัน
09:16
And then I wanted to writeเขียน something
about one of his ralliesการชุมนุม,
166
544680
3336
แล้วฉันก็อยากจะเขียนอะไรสักอย่าง
เกี่ยวกับการชุมนุมครั้งหนึ่งของเขา
09:20
so I watchedดู it a fewน้อย timesครั้ง on YouTubeYouTube.
167
548040
1960
ฉันจึงเข้าไปดูมันสองสามครั้งในยูทูบ
09:23
YouTubeYouTube startedเริ่มต้น recommendingแนะนำ to me
168
551240
3096
ยูทูบก็เริ่มแนะนำฉัน
09:26
and autoplayingเล่นอัตโนมัติ to me
whiteขาว supremacistsupremacist videosวิดีโอ
169
554360
4256
และก็เล่นวิดีโออัตโนมัติให้ฉันดูวิดีโอ
ของผู้ที่เชื่อในความเป็นเลิศของคนผิวขาว
09:30
in increasingที่เพิ่มขึ้น orderใบสั่ง of extremismลัทธิหัวรนแรง.
170
558640
2656
ตามลำดับที่เพิ่มสูงขึ้นเรื่อยๆ
ของลัทธิหัวรุนแรง
09:33
If I watchedดู one,
171
561320
1816
ถ้าหากดูไปแล้วหนึ่งเรื่อง
09:35
it servedทำหน้าที่ up one even more extremeสุดขีด
172
563160
2976
มันก็ให้อีกหนึ่งเรื่องที่ยิ่งสูงขึ้นอีก
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
และเล่นโดยอัตโนมัติด้วย
09:40
If you watch Hillaryฮิลลารี Clintonคลินตัน
or Bernieเบอร์นี Sandersแซนเดอ contentเนื้อหา,
174
568320
4536
ถ้าคุณดูเนื้อหาของ ฮิลลารี คลินตัน
หรือ เบอร์นี แซนเดอร์
09:44
YouTubeYouTube recommendsแนะนำ
and autoplaysเล่นอัตโนมัติ conspiracyการกบฏ left,
175
572880
4696
ยูทูบก็แนะนำ และเล่นให้อัตโนมัติ
เรื่องเกี่ยวกับฝ่ายซ้ายสมคบคิดกัน
09:49
and it goesไป downhillตกต่ำ from there.
176
577600
1760
แล้วก็เป็นอย่างนี้ไป หนักขึ้นเรื่อยๆ
09:52
Well, you mightอาจ be thinkingคิด,
this is politicsการเมือง, but it's not.
177
580480
3056
คุณอาจจะกำลังคิดอยู่ว่า
นี่มันเป็นเรื่องการเมือง แต่มันไม่ใข่
09:55
This isn't about politicsการเมือง.
178
583560
1256
สิ่งนี้ไม่ได้เกี่ยวกับการเมือง
09:56
This is just the algorithmขั้นตอนวิธี
figuringการหา out humanเป็นมนุษย์ behaviorพฤติกรรม.
179
584840
3096
เรื่องนี้เป็นแค่ขั้นตอนคำสั่ง
ที่กำลังวิเคราะห์พฤติกรรมมนุษย์
09:59
I onceครั้งหนึ่ง watchedดู a videoวีดีโอ
about vegetarianismการกินเจ on YouTubeYouTube
180
587960
4776
มีอยู่ครั้งหนึ่ง ฉันดูวิดิโอ
เกี่ยวกับลัทธิมังสวิรัติ ในยูทูบ
10:04
and YouTubeYouTube recommendedแนะนำ
and autoplayedautoplayed a videoวีดีโอ about beingกำลัง veganมังสวิรัติ.
181
592760
4936
และยูทูบก็แนะนำ และเล่นวิดิโอต่ออัตโนมัติ
เรื่องเกี่ยวกับการเป็นคนกินมังสวิรัติ
10:09
It's like you're never
hardcoreไม่ยอมใครง่ายๆ enoughพอ for YouTubeYouTube.
182
597720
3016
เหมือนอย่างกับว่า คุณไม่เคยสุดโต่งพอ
สำหรับยูทูบ
10:12
(Laughterเสียงหัวเราะ)
183
600760
1576
(เสียงหัวเราะ)
10:14
So what's going on?
184
602360
1560
แล้วมันกำลังเกิดอะไรขึ้นเหรอคะ?
10:16
Now, YouTube'sของ YouTube algorithmขั้นตอนวิธี is proprietaryเป็นเจ้าของ,
185
604520
3536
ตอนนี้ ขั้นตอนคำสั่งของยูทูบ
จดทะเบียนกรรมสิทธิ์ไปแล้ว
10:20
but here'sนี่คือ what I think is going on.
186
608080
2360
แต่ตรงนี้ เป็นสิ่งที่ฉันคิดว่า
กำลังเกิดขึ้นอยู่
10:23
The algorithmขั้นตอนวิธี has figuredคิด out
187
611360
2096
ชุดคำสั่งขั้นตอนวิธีคิดออกแล้วว่า
10:25
that if you can enticeล่อ people
188
613480
3696
ถ้าหากสามารถชักนำผู้คนไป
10:29
into thinkingคิด that you can
showแสดง them something more hardcoreไม่ยอมใครง่ายๆ,
189
617200
3736
ให้คิดว่า คุณแสดงให้พวกเขาได้เห็น
บางสิ่งบางอย่างที่สุดโต่งยิ่งขึ้น
10:32
they're more likelyน่าจะ to stayพักอยู่ on the siteเว็บไซต์
190
620960
2416
พวกเขาก็น่าจะยังคงดูเว็บไซต์นั้นอยู่
นานยิ่งขึ้น
10:35
watchingการเฝ้าดู videoวีดีโอ after videoวีดีโอ
going down that rabbitกระต่าย holeรู
191
623400
4416
ดูวิดีโอแล้ววิดีโอเล่า
ลงไปสู่ภาวะอันชุลมุนวุ่นวาย
10:39
while GoogleGoogle servesให้บริการอาหาร them adsโฆษณา.
192
627840
1680
ในขณะที่กูเกิลก็เอาโฆษณามาให้คุณดู
10:43
Now, with nobodyไม่มีใคร mindingการตั้งใจฟัง
the ethicsจริยธรรม of the storeเก็บ,
193
631760
3120
ทีนี้ เมื่อไม่มีใครสนใจจะว่าอะไร
ในเรื่องจริยธรรมของร้านค้า
10:47
these sitesเว็บไซต์ can profileข้อมูลส่วนตัว people
194
635720
4240
เว็บไซต์พวกนี้ก็สามารถเก็บเอาข้อมูลส่วนตัว
ของผู้คนทั้งหลาย
10:53
who are Jewชาวยิว hatersเกลียดชัง,
195
641680
1920
ที่เกลียดชังพวกยิว
10:56
who think that Jewsชาวยิว are parasitesปรสิต
196
644360
2480
ที่คิดว่าพวกยิวเป็นพวกเกาะคนอื่นกิน
11:00
and who have suchอย่างเช่น explicitชัดเจน
anti-Semiticต่อต้านยิว contentเนื้อหา,
197
648320
4920
และที่มีความพอใจในการเป็นปฏิปักษ์
กับพวกยิวอย่างเปิดเผยแน่นอน
11:06
and let you targetเป้า them with adsโฆษณา.
198
654080
2000
และก็ให้คุณตั้งเป้าไปที่พวกเขา ในการโฆษณา
11:09
They can alsoด้วย mobilizeระดมพล algorithmsอัลกอริทึม
199
657200
3536
พวกเขายังสามารถระดม
ชุดคำสั่งขั้นตอนวิธีเข้ามาได้อีกด้วย
11:12
to find for you look-alikeดูเหมือน audiencesผู้ชม,
200
660760
3136
เพื่อใช้ค้นหาผู้ชมที่มีความคล้ายคลึงกับคุณ
11:15
people who do not have suchอย่างเช่น explicitชัดเจน
anti-Semiticต่อต้านยิว contentเนื้อหา on theirของพวกเขา profileข้อมูลส่วนตัว
201
663920
5576
ผู้คนที่ไม่ได้มีเนื้อหาต่อต้านยิว
อย่างเปิดเผยในข้อมูลส่วนตัว
11:21
but who the algorithmขั้นตอนวิธี detectsตรวจพบ
mayอาจ be susceptibleอ่อนแอ to suchอย่างเช่น messagesข้อความ,
202
669520
6176
แต่เป็นชุดคำสั่งนั้นแกะรอยได้ว่า
อาจจะรู้สึกหวั่นไหวต่อข่าวสารข้อความนั้น
11:27
and letsช่วยให้ you targetเป้า them with adsโฆษณา, too.
203
675720
1920
และให้คุณเล็งเป้าโฆษณาไปที่พวกเขาอีกด้วย
11:30
Now, this mayอาจ soundเสียง
like an implausibleไม่น่าเชื่อ exampleตัวอย่าง,
204
678680
2736
เรื่องนี้อาจจะฟังดูแล้ว
เหมือนตัวอย่างที่เหลือเชื่อ
11:33
but this is realจริง.
205
681440
1320
แต่นี่เป็นเรื่องจริง
11:35
ProPublicaProPublica investigatedการตรวจสอบ this
206
683480
2136
เว็บไซต์ข่าวสหรัฐฯโปรพับลิกา
ตรวจสอบเรื่องนี้
11:37
and foundพบ that you can indeedจริง
do this on FacebookFacebook,
207
685640
3616
และพบว่า โดยแท้แล้ว
คุณก็สามารถทำแบบนี้ได้ ในเฟซบุ๊ก
11:41
and FacebookFacebook helpfullyอย่างเป็นประโยชน์
offeredที่นำเสนอ up suggestionsข้อเสนอแนะ
208
689280
2416
และเฟซบุ๊กก็ช่วยเหลือเสนอแนะ
11:43
on how to broadenเราขอแนะนำให้ that audienceผู้ชม.
209
691720
1600
เรื่องวิธีจะขยายผู้ชมให้กว้างขึ้น
11:46
BuzzFeedอ่านเพิ่ม triedพยายาม it for GoogleGoogle,
and very quicklyอย่างรวดเร็ว they foundพบ,
210
694720
3016
เว็บไซต์ข่าวบัซฟีดได้ทดลองกับกูเกิล
และก็พบอย่างรวดเร็วมาก
11:49
yepอ๋อ, you can do it on GoogleGoogle, too.
211
697760
1736
ใช่เลย คุณทำบนกูเกิลได้ด้วย
11:51
And it wasn'tก็ไม่ได้ even expensiveแพง.
212
699520
1696
และมันไม่แพงด้วยซ้ำ
11:53
The ProPublicaProPublica reporterผู้สื่อข่าว
spentการใช้จ่าย about 30 dollarsดอลลาร์
213
701240
4416
นักข่าวโปรพับลิกา ใช้เงินประมาณ 30 ดอลลาร์
11:57
to targetเป้า this categoryประเภท.
214
705680
2240
เพื่อตั้งเป้าประเภทนี้
12:02
So last yearปี, Donaldโดนัลด์ Trump'sของทรัมป์
socialสังคม mediaสื่อ managerผู้จัดการ disclosedเปิดเผย
215
710600
5296
เมื่อปีที่แล้ว ผู้จัดการด้านสื่อสังคม
ของโดนัลด์ ทรัมป์ ได้เปิดเผยว่า
12:07
that they were usingการใช้ FacebookFacebook darkมืด postsโพสต์
to demobilizeปล่อยทหาร people,
216
715920
5336
เขาใช้วิธีโพสในเฟซบุ๊กแบบให้เห็นเฉพาะ
กลุ่มที่ตั้งเป้าไว้เท่านั้น เพื่อระดมคน
12:13
not to persuadeชักชวน them,
217
721280
1376
ไม่ใช่เพื่อชักจูงคน
12:14
but to convinceโน้มน้าวใจ them not to voteโหวต at all.
218
722680
2800
แต่เพื่อโน้มน้าวพวกเค้า
ไม่ไปลงคะแนนเสียงเลย
12:18
And to do that,
they targetedเป้าหมาย specificallyเฉพาะ,
219
726520
3576
และในการทำอย่างนั้น
พวกเขาก็ตั้งเป้าเจาะจงเป็นพิเศษ
12:22
for exampleตัวอย่าง, African-Americanแอฟริกันอเมริกัน menผู้ชาย
in keyสำคัญ citiesเมือง like Philadelphiaนครฟิลาเดลเฟีย,
220
730120
3896
ตัวอย่างเช่น คนแอฟริกันอเมริกัน
ในเมืองสำคัญ เช่น ฟิลาเดลเฟีย
12:26
and I'm going to readอ่าน
exactlyอย่างแน่นอน what he said.
221
734040
2456
และก็กำลังจะอ่านสิ่งที่เขาพูด
ตรงเป๊ะกับที่เขาพูด
12:28
I'm quotingข้อความ.
222
736520
1216
ฉัยยกคำพูดมาตรง ๆ
12:29
They were usingการใช้ "nonpublicไม่เปิดเผยต่อสาธารณชน postsโพสต์
223
737760
3016
พวกเขาใช้ "โพสที่ไม่เป็นสาธารณะ
12:32
whoseใคร viewershipผู้ชม the campaignรณรงค์ controlsการควบคุม
224
740800
2176
ซึ่งจำกัดการผู้เข้าชมนั้น โดยทีมหาเสียง
12:35
so that only the people
we want to see it see it.
225
743000
3776
เพื่อให้เฉพาะผู้เข้าชมที่เราต้องการ
ให้เห็นเท่านั้น ที่ได้เห็นมัน
12:38
We modeledถ่ายแบบ this.
226
746800
1216
เราสร้างรูปแบบนี้ขึ้น
12:40
It will dramaticallyเป็นคุ้งเป็นแคว affectมีผลต่อ her abilityความสามารถ
to turnกลับ these people out."
227
748040
4720
มันจะกระทบกระเทือนอย่างรวดเร็วไปถึง
ความสามารถของเธอ ที่จะทำให้คนพวกนี้ออกมา"
12:45
What's in those darkมืด postsโพสต์?
228
753720
2280
มีอะไรอยู่ในโพสต์เฉพาะกิจนั้นบ้าง
12:48
We have no ideaความคิด.
229
756480
1656
เราเดาไม่ออกเลย
12:50
FacebookFacebook won'tเคยชิน tell us.
230
758160
1200
เฟซบุ๊กจะไม่บอกเรา
12:52
So FacebookFacebook alsoด้วย algorithmicallyอัลกอริทึม
arrangesจัด the postsโพสต์
231
760480
4376
เฟซบุ๊กยังจัดเรียงการโพสต์นั้น
ไปตามลำดับคำสั่งชุดขั้นตอนวิธี
12:56
that your friendsเพื่อน put on FacebookFacebook,
or the pagesหน้า you followปฏิบัติตาม.
232
764880
3736
สิ่งที่เพื่อนคุณใส่เข้าไปในเฟซบุ๊ก
หรือบนเพจที่คุณติดตามอยู่
13:00
It doesn't showแสดง you
everything chronologicallyลำดับ.
233
768640
2216
มันไม่ได้แสดงทุกอย่างให้คุณดู
ตามลำดับก่อนหลัง
13:02
It putsทำให้ the orderใบสั่ง in the way
that the algorithmขั้นตอนวิธี thinksคิดว่า will enticeล่อ you
234
770880
4816
มันเรียงลำดับตามที่ชุดคำสั่งขั้นตอนวิธี
คิดว่า มันจะหลอกล่อคุณ
13:07
to stayพักอยู่ on the siteเว็บไซต์ longerอีกต่อไป.
235
775720
1840
ให้ยังอยู่ในเว็บไซต์นั้น ให้นานขึ้น
13:11
Now, so this has a lot of consequencesผลที่ตามมา.
236
779040
3376
เรื่องนี้จึงส่งให้เกิดผลที่ตามมามากมาย
13:14
You mayอาจ be thinkingคิด
somebodyบางคน is snubbingเพื่อนสนิท you on FacebookFacebook.
237
782440
3800
คุณอาจกำลังคิดว่า
ใครบางคนกำลังดูถูกดูแคลนคุณอยู่ บนเฟซบุ๊ก
13:18
The algorithmขั้นตอนวิธี mayอาจ never
be showingการแสดง your postเสา to them.
238
786800
3256
ลำดับขั้นตอนคำสั่งอาจไม่แสดง
สิ่งที่คุณโพสต์ลงไป ให้พวกเขาเห็นเลย
13:22
The algorithmขั้นตอนวิธี is prioritizingจัดลำดับความสำคัญ
some of them and buryingฝัง the othersคนอื่น ๆ.
239
790080
5960
ชุดคำสั่ง กำลังจัดลำดับความสำคัญ
ของบางเรื่อง และก็ฝังกลบเรื่องอื่นที่เหลือ
13:29
Experimentsการทดลอง showแสดง
240
797320
1296
การทดลองแสดงให้เห็นว่า
13:30
that what the algorithmขั้นตอนวิธี picksหยิบ to showแสดง you
can affectมีผลต่อ your emotionsอารมณ์.
241
798640
4520
สิ่งที่ลำดับขั้นตอนคำสั่งหยิบออกมาให้เห็น
สามารถกระทบถึงอารมณ์ของคุณได้
13:36
But that's not all.
242
804600
1200
แต่นั่นไม่ใช่ทั้งหมด
13:38
It alsoด้วย affectsส่งผลกระทบต่อ politicalในทางการเมือง behaviorพฤติกรรม.
243
806280
2360
มันยังกระทบถึงพฤติกรรมทางการเมืองอีกด้วย
13:41
So in 2010, in the midtermมิดเทอม electionsเลือกตั้ง,
244
809360
4656
ดังนั้น ในปี ค.ศ 2010
ในการเลือกตั้งกึ่งวาระ
13:46
FacebookFacebook did an experimentการทดลอง
on 61 millionล้าน people in the US
245
814040
5896
เฟซบุ๊กได้ทำการทดลองกับชาวอเมริกัน
จำนวน 61 ล้านคนในสหรัฐฯ
13:51
that was disclosedเปิดเผย after the factความจริง.
246
819960
1896
ซึ่งถูกเปิดเผยออกมา หลังข้อเท็จจริงนั้น
13:53
So some people were shownแสดงให้เห็นว่า,
"Todayในวันนี้ is electionการเลือกตั้ง day,"
247
821880
3416
คนบางคนจึงได้รับการนำแสดงให้เห็น
"วันนี้เป็นวันเลือกตั้ง"
13:57
the simplerที่เรียบง่าย one,
248
825320
1376
ข้อความง่าย ๆ
13:58
and some people were shownแสดงให้เห็นว่า
the one with that tinyขนาดเล็ก tweakบิด
249
826720
3896
และบางคนก็ได้รับการนำเสนอให้เห็น
ข้อความที่ปรับเปลี่ยนไปเล็กน้อยนั้น
14:02
with those little thumbnailsรูปขนาดย่อ
250
830640
2096
พร้อมกับรูปหัวแม่มือเล็กๆ
14:04
of your friendsเพื่อน who clickedคลิก on "I votedได้รับการโหวต."
251
832760
2840
ของเพื่อนคุณที่คลิกเข้าไปที่
"ฉันออกเสียงเลือกตั้งแล้ว"
14:09
This simpleง่าย tweakบิด.
252
837000
1400
นี่เป็นการปรับเปลี่ยนที่ง่าย
14:11
OK? So the picturesภาพ were the only changeเปลี่ยนแปลง,
253
839520
4296
ใช่ไหม? รูปภาพจึงเป็นสิ่งเดียวที่เปลี่ยน
14:15
and that postเสา shownแสดงให้เห็นว่า just onceครั้งหนึ่ง
254
843840
3256
และการโพสต์นั้นแสดงให้เห็นแค่ครั้งเดียว
14:19
turnedหัน out an additionalเพิ่มเติม 340,000 votersผู้มีสิทธิเลือกตั้ง
255
847120
6056
ปรากฎว่า มีคนไปออกเสียงเพิ่มขึ้น
ถึง 340,000 คน
14:25
in that electionการเลือกตั้ง,
256
853200
1696
ในการเลือกตั้งครั้งนั้น,
14:26
accordingตาม to this researchการวิจัย
257
854920
1696
ตามรายงานวิจัยนี้
14:28
as confirmedได้รับการยืนยัน by the voterผู้เลือกตั้ง rollsม้วน.
258
856640
2520
ซึ่งได้รับการยืนยัน
โดยทะเบียนผู้มีสิทธิเลือกตั้ง
14:32
A flukeความบังเอิญ? No.
259
860920
1656
เป็นความบังเอิญหรือ? ไม่ใช่ค่ะ
14:34
Because in 2012,
they repeatedซ้ำแล้วซ้ำอีก the sameเหมือนกัน experimentการทดลอง.
260
862600
5360
เพราะว่าในปี ค.ศ 2012
พวกเขาทำการทดลองเหมือนกันนี้อีกครั้ง
14:40
And that time,
261
868840
1736
และในครั้งนั้น
14:42
that civicของเทศบาล messageข่าวสาร shownแสดงให้เห็นว่า just onceครั้งหนึ่ง
262
870600
3296
ข้อความเกี่ยวกับสิทธิหน้าที่พลเมืองนั้น
ถูกนำเสนอแค่ครั้งเดียว
14:45
turnedหัน out an additionalเพิ่มเติม 270,000 votersผู้มีสิทธิเลือกตั้ง.
263
873920
4440
ปรากฎว่าได้คนที่มาออกเสียงเพิ่มขึ้น
อีก 270,000 คน
14:51
For referenceการอ้างอิง, the 2016
US presidentialประธานาธิบดี electionการเลือกตั้ง
264
879160
5216
เพื่อการอ้างอิง การเลือกตั้งประธานาธิบดี
ของสหรัฐฯ ในปี ค.ศ 2016
14:56
was decidedตัดสินใจ by about 100,000 votesคะแนนโหวต.
265
884400
3520
ถูกตัดสินด้วยเสียงราว 100,000 เสียง
15:01
Now, FacebookFacebook can alsoด้วย
very easilyอย่างง่ายดาย inferสรุป what your politicsการเมือง are,
266
889360
4736
ปัจจุบัน เฟซบุ๊กยังสรุปได้อย่างง่ายดาย
อีกด้วยว่า มุมมองการเมืองคุณเป็นอย่างไร
15:06
even if you've never
disclosedเปิดเผย them on the siteเว็บไซต์.
267
894120
2256
แม้ว่าคุณไม่เคยเปิดเผยเรื่องนั้นในเว็บไซต์
15:08
Right? These algorithmsอัลกอริทึม
can do that quiteทีเดียว easilyอย่างง่ายดาย.
268
896400
2520
ใช่ไหม? ชุดขั้นตอนคำสั่งเหล่านี้
กลับทำได้ง่ายดาย
15:11
What if a platformเวที with that kindชนิด of powerอำนาจ
269
899960
3896
อะไรจะเกิดขึ้น หากว่าระบบ
ที่พร้อมด้วยพลังอำนาจเช่นนั้น
15:15
decidesตัดสินใจ to turnกลับ out supportersผู้สนับสนุน
of one candidateผู้สมัคร over the other?
270
903880
5040
ตัดสินใจให้ผู้สนับสนุนของผู้สมัครคนหนึ่ง
ออกไปลงคะแนน เกินกว่าผู้สมัครอีกคน?
15:21
How would we even know about it?
271
909680
2440
แล้วเราจะรู้เกี่ยวกับมันได้อย่างไร?
15:25
Now, we startedเริ่มต้น from someplaceบางแห่ง
seeminglyดูเหมือนว่า innocuousไม่มีอันตราย --
272
913560
4136
ตอนนี้ เราได้เริ่มต้นมาจากที่แห่งหนึ่ง
ซึ่งดูเหมือนจะไม่มีอันตราย --
15:29
onlineออนไลน์ addsเพิ่ม followingดังต่อไปนี้ us around --
273
917720
2216
คือโฆษณาออนไลน์ ที่ติดตามเราไปทั่ว --
15:31
and we'veเราได้ landedเป็นเจ้าของที่ดิน someplaceบางแห่ง elseอื่น.
274
919960
1840
แล้วเราก็ร่อนลงไปในที่อีกแห่งหนึ่ง
15:35
As a publicสาธารณะ and as citizensประชา,
275
923480
2456
ในฐานะที่เป็นสาธารณชน และในฐานะพลเมือง
15:37
we no longerอีกต่อไป know
if we're seeingเห็น the sameเหมือนกัน informationข้อมูล
276
925960
3416
เราจะไม่รู้อีกต่อไป
ว่าเรากำลังเห็นข้อมูลข่าวสารเดียวกัน
15:41
or what anybodyใคร ๆ elseอื่น is seeingเห็น,
277
929400
1480
หรือสิ่งที่คนอื่นเห็นคืออะไร
15:43
and withoutไม่มี a commonร่วมกัน basisรากฐาน of informationข้อมูล,
278
931680
2576
และเมื่อปราศจากพื้นฐานข้อมูลข่าวสารร่วมกัน
15:46
little by little,
279
934280
1616
ทีละน้อยละนิด
15:47
publicสาธารณะ debateอภิปราย is becomingการกลาย impossibleเป็นไปไม่ได้,
280
935920
3216
การอภิปรายโต้เถียงกันทางสาธารณะ
ก็กำลังจะเป็นไปไม่ได้
15:51
and we're just at
the beginningการเริ่มต้น stagesขั้นตอน of this.
281
939160
2976
และเราก็เพียงแค่อยู่ที่ขั้นตอนต้น ๆ
ของเรื่องนี้เท่านั้น
15:54
These algorithmsอัลกอริทึม can quiteทีเดียว easilyอย่างง่ายดาย inferสรุป
282
942160
3456
ชุดคำสั่งขั้นตอนวิธีเหล่านี้
สามารถอนุมานได้อย่างง่ายดาย
15:57
things like your people'sของผู้คน ethnicityเชื้อชาติ,
283
945640
3256
อย่างชาติพันธุ์ของคุณ
16:00
religiousเคร่งศาสนา and politicalในทางการเมือง viewsมุมมอง,
personalityบุคลิกภาพ traitsลักษณะ,
284
948920
2336
แนวคิดเรื่องศาสนาและการเมือง
ลักษณะบุคลิกภาพ
16:03
intelligenceสติปัญญา, happinessความสุข,
use of addictiveเสพติด substancesสาร,
285
951280
3376
ความเฉลียวฉลาด ความสุข
การใช้สารเสพย์ติด
16:06
parentalผู้ปกครอง separationการแยก, ageอายุ and gendersเพศ,
286
954680
3136
การหย่าร้างของพ่อแม่
อายุ และเพศ
16:09
just from FacebookFacebook likesชอบ.
287
957840
1960
จากเพียงแค่ ปุ่มชอบ ของเฟซบุ๊ก
16:13
These algorithmsอัลกอริทึม can identifyแยกแยะ protestersประท้วง
288
961440
4056
ชุดคำสั่งขั้นตอนวิธีเหล่านี้
ก็สามารถระบุตัวผู้ประท้วงได้
16:17
even if theirของพวกเขา facesใบหน้า
are partiallyเพียงบางส่วน concealedปกปิด.
289
965520
2760
แม้ว่าใบหน้าของพวกเขา
จะถูกปกปิดซ่อนเร้นเป็นบางส่วน
16:21
These algorithmsอัลกอริทึม mayอาจ be ableสามารถ
to detectตรวจจับ people'sของผู้คน sexualทางเพศ orientationปฐมนิเทศ
290
969720
6616
ชุดคำสั่งขั้นตอนวิธีเหล่านี้
อาจจะสามารถแกะรอยแนวโน้มทางเพศของผู้คน
16:28
just from theirของพวกเขา datingการนัดหมาย profileข้อมูลส่วนตัว picturesภาพ.
291
976360
3200
จากเพียงภาพข้อมูลส่วนตัว
ในการนัดหมายนัดพบของพวกเขา
16:33
Now, these are probabilisticความน่าจะเป็น guessesคาดเดา,
292
981560
2616
ตอนนี้ นี่คือการคะเนถึงความน่าจะเป็นไปได้
16:36
so they're not going
to be 100 percentเปอร์เซ็นต์ right,
293
984200
2896
ดังนั้นมันจึงจะไม่ถูกต้อง 100 เปอร์เซ็นต์
16:39
but I don't see the powerfulมีอำนาจ resistingต่อต้าน
the temptationสิ่งล่อใจ to use these technologiesเทคโนโลยี
294
987120
4896
แต่ฉันไม่เห็นมี การต่อต้านที่ทรงพลัง
ต่อสิ่งล่อใจที่จะใช้เทคโนโลยีเหล่านี้
16:44
just because there are
some falseเท็จ positivesบวก,
295
992040
2176
แค่เพราะพวกมัน
มีประโยชน์เชิงเท็จบางอย่าง
16:46
whichที่ will of courseหลักสูตร createสร้าง
a wholeทั้งหมด other layerชั้น of problemsปัญหาที่เกิดขึ้น.
296
994240
3256
ซึ่งแน่นอนว่า
มันสามารถสร้างปัญหาอีกหลายชั้น
16:49
Imagineจินตนาการ what a stateสถานะ can do
297
997520
2936
ลองจินตนาการดูว่า รัฐจะสามารถทำอะไรได้บ้าง
16:52
with the immenseเวิ้งว้าง amountจำนวน of dataข้อมูล
it has on its citizensประชา.
298
1000480
3560
ด้วยปริมาณข้อมูลมากมายที่มี
เกี่ยวกับพลเมืองของรัฐ
16:56
Chinaประเทศจีน is alreadyแล้ว usingการใช้
faceใบหน้า detectionการตรวจพบ technologyเทคโนโลยี
299
1004680
4776
ขณะนี้จีนกำลังใช้เทคโนโลยี
การแกะรอยใบหน้าแล้ว
17:01
to identifyแยกแยะ and arrestจับกุม people.
300
1009480
2880
เพื่อระบุตัวและจับกุมผู้คน
17:05
And here'sนี่คือ the tragedyโศกนาฏกรรม:
301
1013280
2136
และนี่เป็นเรื่องเศร้าที่ว่านั้น:
17:07
we're buildingอาคาร this infrastructureโครงสร้างพื้นฐาน
of surveillanceการตรวจตรา authoritarianismอัตตา
302
1015440
5536
เรากำลังสร้างโครงสร้างพื้นฐานของ
สอดแนมตามแบบลัทธิอำนาจนิยมขึ้นมา
17:13
merelyแค่ to get people to clickคลิก on adsโฆษณา.
303
1021000
2960
เพียงเพื่อให้ผู้คนคลิกเข้าไปในโฆษณา
17:17
And this won'tเคยชิน be
Orwell'sเวลล์ authoritarianismอัตตา.
304
1025240
2576
เรื่องนี้ จะไม่เป็นลัทธิอำนาจนิยม
ตามแบบของออร์เวลล์
17:19
This isn't "1984."
305
1027839
1897
นี่ไม่ใช่เรื่อง "1984"
17:21
Now, if authoritarianismอัตตา
is usingการใช้ overtโจ่งแจ้ง fearกลัว to terrorizeข่มขวัญ us,
306
1029760
4576
ทีนี้ ถ้าลัทธิอำนาจนิยมกำลังใช้
ความกลัวที่โจ่งแจ้ง เพื่อคุกคามข่มขวัญเรา
17:26
we'llดี all be scaredกลัว, but we'llดี know it,
307
1034359
2897
เราทุกคนก็จะตกใจกลัว แต่เราก็จะรู้
17:29
we'llดี hateเกลียด it and we'llดี resistต่อต้าน it.
308
1037280
2200
เราก็จะเกลียดชังมัน และเราก็จะต่อต้านมัน
17:32
But if the people in powerอำนาจ
are usingการใช้ these algorithmsอัลกอริทึม
309
1040880
4416
แต่ถ้าคนที่อยู่ในอำนาจนั้น
กำลังใช้ชุดตำสั่งขั้นตอนวิธีเหล่านี้
17:37
to quietlyเงียบ ๆ watch us,
310
1045319
3377
เพื่อเฝ้ามองดูเราอย่างเงียบ ๆ
17:40
to judgeผู้พิพากษา us and to nudgeดุน us,
311
1048720
2080
เพื่อตัดสินเรา และเพื่อสะกิดเรา
17:43
to predictทำนาย and identifyแยกแยะ
the troublemakersก่อกวน and the rebelsกบฏ,
312
1051720
4176
เพื่อให้คาดเดาและระบุตัวตน
คนที่จะสร้างความเดือดร้อน และผู้ทรยศ
17:47
to deployปรับใช้ persuasionการชักชวน
architecturesสถาปัตยกรรม at scaleขนาด
313
1055920
3896
เพื่อวางสถาปัตยกรรมการโน้มน้าว
อย่างกว้างขวาง
17:51
and to manipulateจัดการ individualsบุคคล one by one
314
1059840
4136
และเพื่อโน้มน้าวบุคคล ทีละคน
17:56
usingการใช้ theirของพวกเขา personalส่วนบุคคล, individualรายบุคคล
weaknessesจุดอ่อน and vulnerabilitiesช่องโหว่,
315
1064000
5440
โดยการใช้จุดอ่อนและความเปราะบางอ่อนแอ
ส่วนตัวรายบุคคลของพวกเขา
18:02
and if they're doing it at scaleขนาด
316
1070720
2200
และถ้าเขากำลังทำสิ่งนั้นอยู่
อย่างกว้างขวาง
18:06
throughตลอด our privateเอกชน screensหน้าจอ
317
1074080
1736
ผ่านทางหน้าจอส่วนตัวของเรา
18:07
so that we don't even know
318
1075840
1656
เพื่อที่ว่า กระทั่งเราไม่รู้เลยว่า
18:09
what our fellowมนุษย์ citizensประชา
and neighborsเพื่อนบ้าน are seeingเห็น,
319
1077520
2760
พลเมืองพวกพ้องและเพื่อนบ้านของเรานั้น
กำลังดูอะไรอยุ่,
18:13
that authoritarianismอัตตา
will envelopห่อ us like a spider'sแมงมุม webเว็บ
320
1081560
4816
ลัทธิอำนาจนิยมนั้น
จะครอบงำเราเอาไว้ ราวกับใยแมงมุม
18:18
and we mayอาจ not even know we're in it.
321
1086400
2480
และจนกระทั่งเราอาจไม่รู้เลยว่า
เราอยู่ในนั้น
18:22
So Facebook'sของ Facebook marketตลาด capitalizationโครงสร้างเงินทุน
322
1090440
2936
ดังนั้นโครงสร้างเงินทุนการตลาดของเฟซบุ๊ก
18:25
is approachingใกล้เข้ามา halfครึ่ง a trillionล้านล้าน dollarsดอลลาร์.
323
1093400
3296
จึงกำลังเข้าไปถึงเงินจำนวน
ครึ่งล้านล้านดอลลาร์
18:28
It's because it worksโรงงาน great
as a persuasionการชักชวน architectureสถาปัตยกรรม.
324
1096720
3120
นั่นเพราะว่า มันทำงานได้เยี่ยมยอด
ในฐานะเป็นสถาปัตยกรรมการชักจูง
18:33
But the structureโครงสร้าง of that architectureสถาปัตยกรรม
325
1101760
2816
แต่โครงสร้างของสถาปัตยกรรมดังกล่าวนั้น
18:36
is the sameเหมือนกัน whetherว่า you're sellingขาย shoesรองเท้า
326
1104600
3216
ก็เหมือนกัน ไม่ว่าคุณจะกำลังขายรองเท้า
18:39
or whetherว่า you're sellingขาย politicsการเมือง.
327
1107840
2496
หรือไม่ว่าคุณจะกำลังขายนโยบยาการเมืองอยู่
18:42
The algorithmsอัลกอริทึม do not know the differenceข้อแตกต่าง.
328
1110360
3120
ชุดคำสั่งขั้นตอนวิธีไม่รู้ถึงความแตกต่าง
18:46
The sameเหมือนกัน algorithmsอัลกอริทึม setชุด looseหลวม uponเมื่อ us
329
1114240
3296
ชุดคำสั่งขั้นตอนวิธีเดียวกันที่ปล่อยเรา
18:49
to make us more pliableยืดหยุ่นได้ for adsโฆษณา
330
1117560
3176
ให้เรายิ่งโอนอ่อนตามโฆษณายิ่งขึ้น
18:52
are alsoด้วย organizingการจัดระเบียบ our politicalในทางการเมือง,
personalส่วนบุคคล and socialสังคม informationข้อมูล flowsไหล,
331
1120760
6736
ก็กำลังจัดระเบียบ กระแสข้อมูลข่าวสาร
ด้านการเมือง ส่วนตัว และสังคมของเราอีกด้วย
18:59
and that's what's got to changeเปลี่ยนแปลง.
332
1127520
1840
และนั่นเป็นสิ่งที่จะต้องเปลี่ยน
19:02
Now, don't get me wrongไม่ถูกต้อง,
333
1130240
2296
ทีนี้ อย่าเข้าใจฉันผิดไปนะคะ
19:04
we use digitalดิจิตอล platformsแพลตฟอร์ม
because they provideให้ us with great valueความคุ้มค่า.
334
1132560
3680
เราใช้ฐานงานดิจิตอล ก็เพราะว่า
มันให้คุณค่าที่ยิ่งใหญ่แก่เรา
19:09
I use FacebookFacebook to keep in touchแตะ
with friendsเพื่อน and familyครอบครัว around the worldโลก.
335
1137120
3560
เราใช้เฟซบุ๊กเพื่อติดต่อกับเพื่อน ๆ
และครอบครัวเราไปทั่วโลก
19:14
I've writtenเขียน about how crucialสำคัญมาก
socialสังคม mediaสื่อ is for socialสังคม movementsการเคลื่อนไหว.
336
1142000
5776
ฉันได้เขียนหนังสือไว้ว่า สื่อสังคมออนไลน์
สำคัญยิ่งต่อการเคลื่อนไหวทางสังคมอย่างไร
19:19
I have studiedมีการศึกษา how
these technologiesเทคโนโลยี can be used
337
1147800
3016
ฉันได้ศึกษาถึงวิธีที่จะ
สามารถนำเทคโนโลยีเหล่านี้ไปใช้ได้อย่างไร
19:22
to circumventใช้อุบายดัก censorshipเซ็นเซอร์ around the worldโลก.
338
1150840
2480
เพื่อหลีกเลี่ยงการเซ็นเซอร์ทั่วโลก
19:27
But it's not that the people who runวิ่ง,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
แต่ไม่ใช่ว่า คนที่ทำงาน
ในที่อย่างเฟซบุ๊ก หรือกุเกิล
19:33
are maliciouslyโดยมีเจตนาร้าย and deliberatelyจงใจ tryingพยายาม
340
1161720
2696
กำลังมุ่งร้ายและจงใจพยายาม
19:36
to make the countryประเทศ
or the worldโลก more polarizedโพลาไรซ์
341
1164440
4456
ที่จะทำให้ประเทศชาติ
หรือโลก ถูกแบ่งแยกยิ่งขึ้น
19:40
and encourageส่งเสริม extremismลัทธิหัวรนแรง.
342
1168920
1680
และส่งเสริมลัทธิหัวรุนแรง
19:43
I readอ่าน the manyจำนวนมาก
well-intentionedเจตนาดี statementsงบ
343
1171440
3976
ฉันได้อ่านคำแถลงที่ปรารถณาดีมากมาย
19:47
that these people put out.
344
1175440
3320
ที่ผู้คนเหล่านี้แถลงออกมา
19:51
But it's not the intentเจตนา or the statementsงบ
people in technologyเทคโนโลยี make that matterเรื่อง,
345
1179600
6056
ทว่าที่สำคัญ มันไม่ใช่ความตั้งใจหรือคำแถลง
ที่ผู้คนในเทคโนโลยีนั้นบอกมาหรอก
19:57
it's the structuresโครงสร้าง
and businessธุรกิจ modelsรุ่น they're buildingอาคาร.
346
1185680
3560
แต่มันเป็นโครงสร้าง และแบบแผนทางธุรกิจ
ที่พวกเขากำลังสร้างขึ้นมาต่างหาก
20:02
And that's the coreแกน of the problemปัญหา.
347
1190360
2096
และนั่นแหละ คือ แก่นของปัญหา
20:04
Eitherทั้ง FacebookFacebook is a giantยักษ์ con
of halfครึ่ง a trillionล้านล้าน dollarsดอลลาร์
348
1192480
4720
หรือเฟซบุ๊คเป็นการหลอกลวงขนาดยักษ์
ในเงินครึ่งล้านล้านนั้น
20:10
and adsโฆษณา don't work on the siteเว็บไซต์,
349
1198200
1896
และโฆษณาก็ใช้การไม่ได้ในเว็บไซต์นั้น
20:12
it doesn't work
as a persuasionการชักชวน architectureสถาปัตยกรรม,
350
1200120
2696
มันใช้การไม่ได้
ในฐานะเป็นสถาปัตยกรรมเชิงการชักจูง
20:14
or its powerอำนาจ of influenceมีอิทธิพล
is of great concernกังวล.
351
1202840
4120
หรือเป็นเรื่องอำนาจในการชักจูง
โน้มน้าวของมันนั้น เป็นเรื่องน่าห่วงใยมากๆ
20:20
It's eitherทั้ง one or the other.
352
1208560
1776
มันเป็นอย่างใดอย่างหนึ่ง
20:22
It's similarคล้ายคลึงกัน for GoogleGoogle, too.
353
1210360
1600
มันก็คล้ายคลึงสำหรับกูเกิลด้วย
20:24
So what can we do?
354
1212880
2456
ดังนั้น เราจะสามารถทำอะไรได้หรือ?
20:27
This needsจำเป็น to changeเปลี่ยนแปลง.
355
1215360
1936
สิ่งนี้จำเป็นต้องเปลี่ยน
20:29
Now, I can't offerเสนอ a simpleง่าย recipeสูตรอาหาร,
356
1217320
2576
ตอนนี้ ฉันไม่อาจเสนอสูตรสำเร็จง่าย ๆ ได้
20:31
because we need to restructureปรับโครงสร้าง
357
1219920
2256
เพราะว่าเราจำเป็นต้องปรับโครงสร้าง
20:34
the wholeทั้งหมด way our
digitalดิจิตอล technologyเทคโนโลยี operatesดำเนินการ.
358
1222200
3016
ในเรื่องวิธีการทั้งหมด
ที่เทคโนโลยีดิจิตอลทำงาน
20:37
Everything from the way
technologyเทคโนโลยี is developedพัฒนา
359
1225240
4096
ทุกสิ่งทุกอย่าง ตั้งแต่วิธีการ
ที่เทคโนโลยีนี้ถูกพัฒนาขึ้นมา
20:41
to the way the incentivesแรงจูงใจ,
economicด้านเศรษฐกิจ and otherwiseมิฉะนั้น,
360
1229360
3856
ไปจนถึงแรงจูงใจ เศรษฐกิจ และเรื่องอื่นๆ
20:45
are builtสร้างขึ้น into the systemระบบ.
361
1233240
2280
ซึ่งถูกสร้างเข้ามาอยู่ในระบบนี้
20:48
We have to faceใบหน้า and try to dealจัดการ with
362
1236480
3456
เราจะต้องเผชิญหน้าและพยายามที่จะจัดการกับ
20:51
the lackไม่มี of transparencyความโปร่งใส
createdสร้าง by the proprietaryเป็นเจ้าของ algorithmsอัลกอริทึม,
363
1239960
4656
การขาดความโปร่งใส ที่ถูกสร้างขึ้นมาโดย
ชุดคำสั่งขั้นตอนวิธี ที่สั่งการด้วยตัวเอง
20:56
the structuralโครงสร้าง challengeท้าทาย
of machineเครื่อง learning'sของการเรียนรู้ opacityความทึบแสง,
364
1244640
3816
ความท้าทายเชิงโครงสร้าง ในความคลุมเครือ
ของการเรียนรู้ของเครื่องจักร
21:00
all this indiscriminateตามอำเภอใจ dataข้อมูล
that's beingกำลัง collectedเก็บรวบรวม about us.
365
1248480
3400
ข้อมูลที่เอามาตามอำเภอใจ
ที่ถูกสะสมจากพวกเรา
21:05
We have a bigใหญ่ taskงาน in frontด้านหน้า of us.
366
1253000
2520
เรามีงานชิ้นใหญ่อยู่เบื้องหน้าเรา
21:08
We have to mobilizeระดมพล our technologyเทคโนโลยี,
367
1256160
2680
เราจะต้องระดมเทคโนโลยีของเรา
21:11
our creativityความคิดสร้างสรรค์
368
1259760
1576
ความคิดสร้างสรรค์ของเรา
21:13
and yes, our politicsการเมือง
369
1261360
1880
และใช่ค่ะ, การเมืองของเรา
21:16
so that we can buildสร้าง
artificialเทียม intelligenceสติปัญญา
370
1264240
2656
เพื่อที่ว่าเราจะสามารถสร้างปัญญาประดิษฐ์
21:18
that supportsสนับสนุน us in our humanเป็นมนุษย์ goalsเป้าหมาย
371
1266920
3120
ที่จะส่งเสริมเรา ในเป้าหมาย
ด้านความเป็นมนุษย์ของเรา
21:22
but that is alsoด้วย constrainedถูก จำกัด
by our humanเป็นมนุษย์ valuesค่า.
372
1270800
3920
แต่สิ่งนั้นก็ยังถูกบีบบังคับไว้ด้วย
ค่านิยมในความเป็นมนุษย์ของเราอีกด้วย
21:27
And I understandเข้าใจ this won'tเคยชิน be easyง่าย.
373
1275600
2160
และฉันก็เข้าใจว่า นี่ไม่ใช่เรื่องง่าย
21:30
We mightอาจ not even easilyอย่างง่ายดาย agreeตกลง
on what those termsเงื่อนไข mean.
374
1278360
3600
เราอาจจะแม้กระทั่ง ตกลงกันได้ง่ายๆ
ในเรื่องความหมายของคำศัพท์เหล่านั้น
21:34
But if we take seriouslyอย่างจริงจัง
375
1282920
2400
แต่ถ้าหากว่าเราเอาจริงเอาจัง
21:38
how these systemsระบบ that we
dependขึ้นอยู่กับ on for so much operateทำงาน,
376
1286240
5976
ว่าระบบที่เราพึ่งพามันอย่างมากเหล่านี้นั้น
ทำงานอย่างไร
21:44
I don't see how we can postponeเลื่อนเวลา
this conversationการสนทนา anymoreอีกต่อไป.
377
1292240
4120
ฉันก็ไม่เห็นว่า เราจะสามารถเลื่อน
การพูดคุยกันในเรื่องนี้ต่อไปอีก ได้อย่างไร
21:49
These structuresโครงสร้าง
378
1297200
2536
โครงสร้างเหล่านี้
21:51
are organizingการจัดระเบียบ how we functionฟังก์ชัน
379
1299760
4096
กำลังจะจัดระบบวิธีการที่เราปฏิบัติการงาน
21:55
and they're controllingการควบคุม
380
1303880
2296
และพวกมันกำลังควบคุม
21:58
what we can and we cannotไม่ได้ do.
381
1306200
2616
สิ่งที่เราสามารถทำได้ และที่เราทำไม่ได้
22:00
And manyจำนวนมาก of these ad-financedโฆษณาทุน platformsแพลตฟอร์ม,
382
1308840
2456
และฐานโฆษณาที่ได้เงินสนับสนุนเหล่านี้
เป็นจำนวนมาก
22:03
they boastโม้ that they're freeฟรี.
383
1311320
1576
พวกเขาอวดอ้างว่า พวกเขาเป็นอิสระ
22:04
In this contextบริบท, it meansวิธี
that we are the productสินค้า that's beingกำลัง soldขาย.
384
1312920
4560
แต่ในเนื้อหานี้นั้น มันหมายถึงว่า
เราเป็นผลิตภัณฑ์ ที่กำลังถูกขาย
22:10
We need a digitalดิจิตอล economyเศรษฐกิจ
385
1318840
2736
เราจำเป็นต้องมีเศรษฐกิจเชิงดิจิตอล
22:13
where our dataข้อมูล and our attentionความสนใจ
386
1321600
3496
เป็นที่ซึ่งข้อมูลของเรา
และความสนใจของเรานั้น
22:17
is not for saleการขาย to the highest-biddingสูงสุดเสนอราคา
authoritarianเกี่ยวกับอำนาจเผด็จการ or demagogueผู้ปลุกปั่น.
387
1325120
5080
ไม่ใช่สำหรับเพื่อขายให้กับ
เผด็จการหรือพวกกวนเมืองที่เสนอราคาสูงสุด
22:23
(Applauseการปรบมือ)
388
1331160
3800
(เสียงปรบมือ)
22:30
So to go back to
that Hollywoodฮอลลีวู้ด paraphraseถอดความ,
389
1338480
3256
ค่ะ เพื่อกลับไปที่ถ้อยความฮอลลีวูด
ที่พูดถึงมาแล้วนั้
22:33
we do want the prodigiousมหัศจรรย์ potentialที่อาจเกิดขึ้น
390
1341760
3736
เราต้องการจริงๆ
ให้ศักยภาพที่มหาศาล
22:37
of artificialเทียม intelligenceสติปัญญา
and digitalดิจิตอล technologyเทคโนโลยี to blossomดอก,
391
1345520
3200
ของปัญญาประดิษฐ์ และดิจิตอลเทคโนโลยี
เบ่งบาน
22:41
but for that, we mustต้อง faceใบหน้า
this prodigiousมหัศจรรย์ menaceการคุกคาม,
392
1349400
4936
แต่ในเรื่องนั้น เราจะต้องเผชิญกับ
ภัยอันตรายมากมายมหาศาลนี้
22:46
open-eyedเปิดตา and now.
393
1354360
1936
เปิดหูเปิดตาเสียตอนนี้เลยค่ะ
22:48
Thank you.
394
1356320
1216
ขอบคุณคะ
22:49
(Applauseการปรบมือ)
395
1357560
4640
(ปรบมือ)

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com