ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

เซย์เน็พ ตูเฟ็คชี่ (Zeynep Tufekci): เมื่อมีปัญญาประดิษฐ์ ศีลธรรมมนุษย์ก็ยิ่งสำคัญ

Filmed:
1,648,711 views

ปัญญาประดิษฐ์เกิดขึ้นแล้ว เรากำลังใช้ให้มันแก้ปัญหาในเรื่องที่ไม่มีคำตอบตายตัว แต่วิธีอันซับซ้อนที่เอไอใช้เรียนรู้และพัฒนาตนเอง ทำให้เราเข้าใจมันได้ยาก และยากยิ่งกว่าในการควบคุม ในทอล์กแฝงข้อเตือนใจนี้ นักเทคโนสังคมวิทยา เซย์เนป ตูเฟ็คจี อธิบายให้ฟังว่า ปัญญาประดิษฐ์อาจสร้างข้อผิดพลาดที่ผิดจากรูปการณ์แบบมนุษย์ได้ โดยที่เราอาจไม่สามารถคาดหรือเตรียมรับมือ "เราจะถ่ายโอนความรับผิดชอบของเราให้คอมพิวเตอร์ไม่ได้" เธอกล่าว "เรายิ่งต้องยึดมั่นในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์"
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedเริ่มต้น my first jobงาน
as a computerคอมพิวเตอร์ programmerโปรแกรมเมอร์
0
739
4122
ดิฉันเริ่มทำงานครั้งแรก
เป็นคอมพิวเตอร์ โปรแกรมเมอร์
00:16
in my very first yearปี of collegeวิทยาลัย --
1
4885
1956
ในปีแรกที่เรียนมหาวิทยาลัย
00:18
basicallyเป็นพื้น, as a teenagerวัยโจ๋.
2
6865
1507
ตั้งแต่ยังวัยรุ่น
00:20
Soonในไม่ช้า after I startedเริ่มต้น workingการทำงาน,
3
8889
1732
เริ่มทำงานเขียนโปรแกรม
00:22
writingการเขียน softwareซอฟต์แวร์ in a companyบริษัท,
4
10645
1610
ให้บริษัทได้ไม่นาน
00:24
a managerผู้จัดการ who workedทำงาน at the companyบริษัท
cameมา down to where I was,
5
12799
3635
ผู้จัดการคนหนึ่งในบริษัทนั้น
มาหาดิฉัน
00:28
and he whisperedกระซิบ to me,
6
16458
1268
แล้วกระซิบถามว่า
00:30
"Can he tell if I'm lyingโกหก?"
7
18229
2861
"มันจับโกหกผมได้หรือเปล่า?"
00:33
There was nobodyไม่มีใคร elseอื่น in the roomห้อง.
8
21806
2077
ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก
00:37
"Can who tell if you're lyingโกหก?
And why are we whisperingเสียงกระซิบ?"
9
25032
4389
"ใครที่ไหนจับโกหกคุณได้เหรอ?
แล้วเราจะกระซิบกันทำไม?"
00:42
The managerผู้จัดการ pointedแหลม
at the computerคอมพิวเตอร์ in the roomห้อง.
10
30266
3107
ผู้จัดการก็ชี้
ไปที่คอมพิวเตอร์
00:45
"Can he tell if I'm lyingโกหก?"
11
33397
3096
"มันจับโกหกผมได้หรือเปล่า?"
00:49
Well, that managerผู้จัดการ was havingมี
an affairเรื่อง with the receptionistพนักงานต้อนรับ.
12
37613
4362
พอดีว่า ผู้จัดการคนนั้น
เป็นชู้อยู่กับพนักงานต้อนรับ
00:53
(Laughterเสียงหัวเราะ)
13
41999
1112
(เสียงหัวเราะ)
00:55
And I was still a teenagerวัยโจ๋.
14
43135
1766
ตอนนั้น ฉันยังเป็นแค่วัยรุ่น
00:57
So I whisper-shoutedกระซิบตะโกน back to him,
15
45447
2019
ฉันเลยกระซิบดัง ๆ กลับไปว่า
00:59
"Yes, the computerคอมพิวเตอร์ can tell
if you're lyingโกหก."
16
47490
3624
"ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ"
01:03
(Laughterเสียงหัวเราะ)
17
51138
1806
(เสียงหัวเราะ)
01:04
Well, I laughedหัวเราะ, but actuallyแท้จริง,
the laugh'sเสียงหัวเราะของ on me.
18
52968
2923
ดิฉันอำไปขำ ๆ แต่ตอนนี้
ดิฉันกลับขำไม่ออกเสียเอง
01:07
Nowadaysในปัจจุบันนี้, there are computationalการคำนวณ systemsระบบ
19
55915
3268
ปัจจุบัน มีระบบคอมพิวเตอร์
01:11
that can sussซัส out
emotionalอารมณ์ statesรัฐ and even lyingโกหก
20
59207
3548
ที่สามารถตรวจจับอารมณ์
หรือกระทั่งคำโกหกได้
01:14
from processingการประมวลผล humanเป็นมนุษย์ facesใบหน้า.
21
62779
2044
โดยการประมวลผลใบหน้ามนุษย์
01:17
Advertisersผู้ลงโฆษณา and even governmentsรัฐบาล
are very interestedสนใจ.
22
65248
4153
ทั้งบริษัทโฆษณาและรัฐบาล
ต่างก็สนใจอย่างมาก
01:22
I had becomeกลายเป็น a computerคอมพิวเตอร์ programmerโปรแกรมเมอร์
23
70319
1862
ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์
01:24
because I was one of those kidsเด็ก
crazyบ้า about mathคณิตศาสตร์ and scienceวิทยาศาสตร์.
24
72205
3113
เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์
และวิทยาศาสตร์มาก ๆ
01:27
But somewhereที่ไหนสักแห่ง alongตาม the lineเส้น
I'd learnedได้เรียนรู้ about nuclearนิวเคลียร์ weaponsอาวุธ,
25
75942
3108
แต่พอโตขึ้น
ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์
01:31
and I'd gottenอากาศ really concernedเกี่ยวข้อง
with the ethicsจริยธรรม of scienceวิทยาศาสตร์.
26
79074
2952
ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง
จริยธรรมทางวิทยาศาสตร์เอามาก ๆ
01:34
I was troubledทุกข์.
27
82050
1204
ดิฉันรู้สึกไม่ดีเลย
01:35
Howeverอย่างไรก็ตาม, because of familyครอบครัว circumstancesพฤติการณ์,
28
83278
2641
อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว
01:37
I alsoด้วย neededจำเป็น to startเริ่มต้น workingการทำงาน
as soonในไม่ช้า as possibleเป็นไปได้.
29
85943
3298
ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย
01:41
So I thought to myselfตนเอง, hey,
let me pickเลือก a technicalวิชาการ fieldสนาม
30
89265
3299
ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค
01:44
where I can get a jobงาน easilyอย่างง่ายดาย
31
92588
1796
แบบที่ดิฉันจะได้งานง่าย ๆ
01:46
and where I don't have to dealจัดการ
with any troublesomeรบกวน questionsคำถาม of ethicsจริยธรรม.
32
94408
4018
และก็ไม่ต้องมาปวดหัวกับ
ปัญหาจริยธรรมอะไรก็แล้วกัน
01:51
So I pickedหยิบ computersคอมพิวเตอร์.
33
99022
1529
ดิฉันเลยเลือกคอมพิวเตอร์
01:52
(Laughterเสียงหัวเราะ)
34
100575
1104
(เสียงหัวเราะ)
01:53
Well, haฮ้า, haฮ้า, haฮ้า!
All the laughsหัวเราะ are on me.
35
101703
3410
ฮ่า ฮ่า ฮ่า
ดิฉันนี่เองกลับขำไม่ออก
01:57
Nowadaysในปัจจุบันนี้, computerคอมพิวเตอร์ scientistsนักวิทยาศาสตร์
are buildingอาคาร platformsแพลตฟอร์ม
36
105137
2754
ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์
กำลังสร้างแพลตฟอร์ม
01:59
that controlควบคุม what a billionพันล้าน
people see everyทุกๆ day.
37
107915
4209
ที่ควบคุมสื่อซึ่งประชากร
เป็นพันล้านคนดูอยู่ทุกวัน
02:05
They're developingที่กำลังพัฒนา carsรถ
that could decideตัดสิน who to runวิ่ง over.
38
113052
3822
พวกเขากำลังสร้างรถ
ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้
02:09
They're even buildingอาคาร machinesเครื่อง, weaponsอาวุธ,
39
117707
3213
พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ
02:12
that mightอาจ killฆ่า humanเป็นมนุษย์ beingsสิ่งมีชีวิต in warสงคราม.
40
120944
2285
ที่คร่าชีวิตมนุษย์ในสงครามได้
02:15
It's ethicsจริยธรรม all the way down.
41
123253
2771
สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม
02:19
Machineเครื่อง intelligenceสติปัญญา is here.
42
127183
2058
เครื่องจักร มีสติปัญญาแล้ว
02:21
We're now usingการใช้ computationการคำนวณ
to make all sortประเภท of decisionsการตัดสินใจ,
43
129823
3474
เราใช้คอมพิวเตอร์คำนวณ
เพื่อตัดสินใจเรื่องสารพัดอย่าง
02:25
but alsoด้วย newใหม่ kindsชนิด of decisionsการตัดสินใจ.
44
133321
1886
รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย
02:27
We're askingถาม questionsคำถาม to computationการคำนวณ
that have no singleเดียว right answersคำตอบ,
45
135231
5172
เราเริ่มใช้คอมพิวเตอร์
เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว
02:32
that are subjectiveอัตนัย
46
140427
1202
คำถามอัตนัย
02:33
and open-endedเปิดสิ้นสุดวันที่ and value-ladenค่าภาระ.
47
141653
2325
ปลายเปิด และต้องใช้มุมมองในการตอบ
02:36
We're askingถาม questionsคำถาม like,
48
144002
1758
คำถามอย่างเช่น
02:37
"Who should the companyบริษัท hireจ้าง?"
49
145784
1650
"บริษัทควรจ้างใครดี"
02:40
"Whichที่ updateปรับปรุง from whichที่ friendเพื่อน
should you be shownแสดงให้เห็นว่า?"
50
148096
2759
"ควรแสดงอัพเดตของเฟรนด์คนไหนดี"
02:42
"Whichที่ convictนักโทษ is more
likelyน่าจะ to reoffendreoffend?"
51
150879
2266
"นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก"
02:45
"Whichที่ newsข่าว itemชิ้น or movieหนัง
should be recommendedแนะนำ to people?"
52
153514
3054
"ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี"
02:48
Look, yes, we'veเราได้ been usingการใช้
computersคอมพิวเตอร์ for a while,
53
156592
3372
ใช่ค่ะ
เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว
02:51
but this is differentต่าง.
54
159988
1517
แต่นี่ไม่เหมือนแต่ก่อน
02:53
This is a historicalประวัติศาสตร์ twistบิด,
55
161529
2067
นี่คือจุดพลิกผันครั้งประวัติศาสตร์
02:55
because we cannotไม่ได้ anchorสมอ computationการคำนวณ
for suchอย่างเช่น subjectiveอัตนัย decisionsการตัดสินใจ
56
163620
5337
เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์
มาช่วยแก้ปัญหาเชิงอัตวิสัย
03:00
the way we can anchorสมอ computationการคำนวณ
for flyingการบิน airplanesเครื่องบิน, buildingอาคาร bridgesสะพาน,
57
168981
5420
แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน
สร้างสะพาน
03:06
going to the moonดวงจันทร์.
58
174425
1259
หรือไปดวงจันทร์
03:08
Are airplanesเครื่องบิน saferปลอดภัยมากขึ้น?
Did the bridgeสะพาน swayพลิ้วไหว and fallตก?
59
176449
3259
เครื่องบินปลอดภัยขึ้นมั้ย
สะพานจะแกว่งหรือพังมั้ย
03:11
There, we have agreed-uponตามที่ตกลงกัน,
fairlyอย่างเป็นธรรม clearชัดเจน benchmarksมาตรฐาน,
60
179732
4498
เรื่องแบบนี้ เรามีจุดตรวจสอบ
ที่จับต้อง เห็นตรงกันได้
03:16
and we have lawsกฎหมาย of natureธรรมชาติ to guideแนะนำ us.
61
184254
2239
และเรามีกฎธรรมชาติช่วยนำทางให้
03:18
We have no suchอย่างเช่น anchorsแองเคอ and benchmarksมาตรฐาน
62
186517
3394
แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น
03:21
for decisionsการตัดสินใจ in messyยุ่ง humanเป็นมนุษย์ affairsธุรกิจ.
63
189935
3963
สำหรับการตัดสิน
เรื่องธุระที่ยุ่งเหยิงของมนุษย์
03:25
To make things more complicatedซับซ้อน,
our softwareซอฟต์แวร์ is gettingได้รับ more powerfulมีอำนาจ,
64
193922
4237
เรื่องยิ่งยุ่งยากขึ้นอีก
เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น
03:30
but it's alsoด้วย gettingได้รับ lessน้อยกว่า
transparentโปร่งใส and more complexซับซ้อน.
65
198183
3773
แต่ขณะเดียวกัน ก็โปร่งใสลดลง
และซับซ้อนมากขึ้น
03:34
Recentlyเมื่อเร็ว ๆ นี้, in the pastอดีต decadeทศวรรษ,
66
202542
2040
ในทศวรรษที่ผ่านมา
03:36
complexซับซ้อน algorithmsอัลกอริทึม
have madeทำ great stridesความก้าวหน้า.
67
204606
2729
อัลกอริธึ่มระดับซับซ้อน
ก้าวล้ำรุดหน้าอย่างยิ่ง
03:39
They can recognizeรับรู้ humanเป็นมนุษย์ facesใบหน้า.
68
207359
1990
พวกมันตรวจจับใบหน้ามนุษย์ได้
03:41
They can decipherแปลรหัส handwritingลายมือ.
69
209985
2055
แกะลายมือได้
03:44
They can detectตรวจจับ creditเครดิต cardบัตร fraudการหลอกลวง
70
212436
2066
ตรวจหาการโกงบัตรเครดิต
03:46
and blockกลุ่ม spamสแปม
71
214526
1189
และบล็อกสแปมได้
03:47
and they can translateแปลความ betweenระหว่าง languagesภาษา.
72
215739
2037
แปลภาษาได้หลากหลาย
03:49
They can detectตรวจจับ tumorsเนื้องอก in medicalทางการแพทย์ imagingการถ่ายภาพ.
73
217800
2574
ค้นหาเนื้องอกผ่านระบบฉายภาพได้
03:52
They can beatตี humansมนุษย์ in chessหมากรุก and Go.
74
220398
2205
เล่นหมากรุกและโกะชนะมนุษย์ได้
03:55
Much of this progressความคืบหน้า comesมา
from a methodวิธี calledเรียกว่า "machineเครื่อง learningการเรียนรู้."
75
223264
4504
ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ
"แมคชีน เลิร์นนิ่ง" (Machine Learning)
04:00
Machineเครื่อง learningการเรียนรู้ is differentต่าง
than traditionalแบบดั้งเดิม programmingการเขียนโปรแกรม,
76
228175
3187
แมคชีน เลิร์นนิ่ง ต่างจาก
การเขียนโปรแกรมทั่วไป
04:03
where you give the computerคอมพิวเตอร์
detailedรายละเอียด, exactแน่นอน, painstakingอุตสาหะ instructionsคำแนะนำ.
77
231386
3585
ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์
อย่างละเอียด เจาะจง และรัดกุม
04:07
It's more like you take the systemระบบ
and you feedอาหาร it lots of dataข้อมูล,
78
235378
4182
กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก
เข้าสู่ระบบ
04:11
includingรวมไปถึง unstructuredไม่มีโครง dataข้อมูล,
79
239584
1656
ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง
04:13
like the kindชนิด we generateผลิต
in our digitalดิจิตอล livesชีวิต.
80
241264
2278
แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต
04:15
And the systemระบบ learnsเรียนรู้
by churningchurning throughตลอด this dataข้อมูล.
81
243566
2730
จากนั้น ระบบจะเรียนรู้
โดยประมวลย่อยข้อมูลเหล่านั้น
04:18
And alsoด้วย, cruciallyขับเคลื่อน,
82
246669
1526
และที่สำคัญ
04:20
these systemsระบบ don't operateทำงาน
underภายใต้ a single-answerคำตอบเดียว logicตรรกะ.
83
248219
4380
ระบบพวกนี้ไม่ได้ทำงาน
โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว
04:24
They don't produceก่อ a simpleง่าย answerตอบ;
it's more probabilisticความน่าจะเป็น:
84
252623
2959
พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ
แต่เป็นคำตอบที่อิงความน่าจะเป็น
04:27
"This one is probablyอาจ more like
what you're looking for."
85
255606
3483
"คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่"
04:32
Now, the upsideกลับหัวกลับหาง is:
this methodวิธี is really powerfulมีอำนาจ.
86
260023
3070
ซึ่งมีด้านดีคือ
วิธีการนี้ทรงพลังเอามาก ๆ
04:35
The headหัว of Google'sของ Google AIAI systemsระบบ calledเรียกว่า it,
87
263117
2076
หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า
04:37
"the unreasonableไม่มีเหตุผล effectivenessประสิทธิผล of dataข้อมูล."
88
265217
2197
"ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า"
04:39
The downsideข้อเสีย is,
89
267791
1353
แต่ด้าบลบก็คือ
04:41
we don't really understandเข้าใจ
what the systemระบบ learnedได้เรียนรู้.
90
269738
3071
เรายังไม่เข้าใจเลยว่า
อะไรคือสิ่งที่ระบบเรียนรู้
04:44
In factความจริง, that's its powerอำนาจ.
91
272833
1587
ซึ่งนี่เองคือจุดเด่นของมัน
04:46
This is lessน้อยกว่า like givingให้
instructionsคำแนะนำ to a computerคอมพิวเตอร์;
92
274946
3798
นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์
04:51
it's more like trainingการอบรม
a puppy-machine-creatureลูกสุนัขเครื่องสิ่งมีชีวิต
93
279200
4064
แต่เป็นเหมือนการฝึกลูกหมา
ที่เผอิญเป็นคอมพิวเตอร์
04:55
we don't really understandเข้าใจ or controlควบคุม.
94
283288
2371
เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย
04:58
So this is our problemปัญหา.
95
286362
1551
นี่เองคือปัญหาของเรา
05:00
It's a problemปัญหา when this artificialเทียม
intelligenceสติปัญญา systemระบบ getsได้รับ things wrongไม่ถูกต้อง.
96
288427
4262
จะเกิดปัญหาขึ้น เมื่อระบบเอไอ
พวกนี้ตีความข้อมูลผิด
05:04
It's alsoด้วย a problemปัญหา
when it getsได้รับ things right,
97
292713
3540
และจะเกิดปัญหาเช่นกัน
แม้เมื่อมันตีความถูก
05:08
because we don't even know whichที่ is whichที่
when it's a subjectiveอัตนัย problemปัญหา.
98
296277
3628
เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก
เมื่อพูดถึงปัญหาแบบอัตนัย
05:11
We don't know what this thing is thinkingคิด.
99
299929
2339
เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่
05:15
So, considerพิจารณา a hiringการว่าจ้าง algorithmขั้นตอนวิธี --
100
303493
3683
สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน
05:20
a systemระบบ used to hireจ้าง people,
usingการใช้ machine-learningเครื่องการเรียนรู้ systemsระบบ.
101
308123
4311
ระบบที่ตัดสินใจจ้างพนักงาน
โดยใช้วิธีแมคชีน เลิร์นนิ่ง
05:25
Suchอย่างเช่น a systemระบบ would have been trainedผ่านการฝึกอบรม
on previousก่อน employees'พนักงาน dataข้อมูล
102
313052
3579
ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล
พนักงานที่เคยจ้างในอดีต
05:28
and instructedได้รับคำสั่ง to find and hireจ้าง
103
316655
2591
และถูกสั่งให้ค้นหาและว่าจ้าง
05:31
people like the existingที่มีอยู่
highสูง performersนักแสดง in the companyบริษัท.
104
319270
3038
คนที่มีคุณสมบัติเหมือนพนักงาน
ระดับเยี่ยมที่มีอยู่ในปัจจุบัน
05:34
Soundsเสียง good.
105
322814
1153
ฟังดูดี
05:35
I onceครั้งหนึ่ง attendedเข้าร่วม a conferenceการประชุม
106
323991
1999
ครั้งหนึ่ง ดิฉันเข้าประชุม
05:38
that broughtนำ togetherด้วยกัน
humanเป็นมนุษย์ resourcesทรัพยากร managersผู้จัดการ and executivesผู้บริหารระดับสูง,
107
326014
3125
งานเสวนาที่รวมเอา
ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์
05:41
high-levelระดับสูง people,
108
329163
1206
คนระดับสูง ๆ
05:42
usingการใช้ suchอย่างเช่น systemsระบบ in hiringการว่าจ้าง.
109
330393
1559
ที่ใช้ระบบแบบนี้ไว้จ้างงาน
05:43
They were superซุปเปอร์ excitedตื่นเต้น.
110
331976
1646
พวกเขาตื่นเต้นมาก ๆ
05:45
They thought that this would make hiringการว่าจ้าง
more objectiveวัตถุประสงค์, lessน้อยกว่า biasedลำเอียง,
111
333646
4653
พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน
ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง
05:50
and give womenผู้หญิง
and minoritiesชนกลุ่มน้อย a better shotการถ่ายภาพ
112
338323
3000
ทำให้ผู้หญิงและคนกลุ่มน้อย
มีโอกาสได้จ้างดีขึ้น
05:53
againstต่อต้าน biasedลำเอียง humanเป็นมนุษย์ managersผู้จัดการ.
113
341347
2188
เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ
05:55
And look -- humanเป็นมนุษย์ hiringการว่าจ้าง is biasedลำเอียง.
114
343559
2843
การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ
05:59
I know.
115
347099
1185
ฉันรู้ดี
06:00
I mean, in one of my earlyตอนต้น jobsงาน
as a programmerโปรแกรมเมอร์,
116
348308
3005
ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ
06:03
my immediateทันทีทันใด managerผู้จัดการ would sometimesบางครั้ง
come down to where I was
117
351337
3868
บางครั้ง หัวหน้าของฉัน
จะมาหาฉัน
06:07
really earlyตอนต้น in the morningตอนเช้า
or really lateสาย in the afternoonตอนบ่าย,
118
355229
3753
ตอนเช้ามาก ๆ หรือไม่ก็
ตอนบ่ายมาก ๆ
06:11
and she'dเธอต้องการ say, "ZeynepZeynep,
let's go to lunchอาหารกลางวัน!"
119
359006
3062
เธอบอกว่า "เซย์เน็ป
ไปกินข้าวเที่ยงกัน!"
06:14
I'd be puzzledงงงวย by the weirdแปลก timingการจับเวลา.
120
362724
2167
พอดูเวลา ฉันก็จะงง
06:16
It's 4pm. Lunchอาหารกลางวัน?
121
364915
2129
บ่าย 4 ข้าวเที่ยงเหรอ?
06:19
I was brokeยากจน, so freeฟรี lunchอาหารกลางวัน. I always wentไป.
122
367068
3094
ตอนนั้น ฉันไม่มีเงิน
ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ
06:22
I laterต่อมา realizedตระหนัก what was happeningสิ่งที่เกิดขึ้น.
123
370618
2067
ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง
06:24
My immediateทันทีทันใด managersผู้จัดการ
had not confessedสารภาพ to theirของพวกเขา higher-upsสูงกว่าอัพ
124
372709
4546
หัวหน้าของฉันไม่ได้
บอกผู้ใหญ่ตามตรงว่า
06:29
that the programmerโปรแกรมเมอร์ they hiredที่จ้าง
for a seriousจริงจัง jobงาน was a teenวัยรุ่น girlสาว
125
377279
3113
โปรแกรมเมอร์ที่พวกเขาจ้าง
มานั้น เป็นแค่วัยรุ่นผู้หญิง
06:32
who woreสวม jeansกางเกงยีนส์ and sneakersรองเท้าผ้าใบ to work.
126
380416
3930
ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน
06:37
I was doing a good jobงาน,
I just lookedมอง wrongไม่ถูกต้อง
127
385174
2202
ดิฉันทำผลงานดี
แต่รูปลักษณ์นั้นไม่ผ่าน
06:39
and was the wrongไม่ถูกต้อง ageอายุ and genderเพศ.
128
387400
1699
ไม่ผ่านทั้งอายุ และเพศ
06:41
So hiringการว่าจ้าง in a gender-เพศ- and race-blindการแข่งขันที่ตาบอด way
129
389123
3346
แน่นอนว่า การจ้างงานโดย
ไม่คำนึงถึงเพศ และเชื้อชาติ
06:44
certainlyอย่างแน่นอน soundsเสียง good to me.
130
392493
1865
ถูกใจฉันแน่นอน
06:47
But with these systemsระบบ,
it is more complicatedซับซ้อน, and here'sนี่คือ why:
131
395031
3341
แต่ถ้าเราใช้ระบบนี้
จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ
06:50
Currentlyปัจจุบัน, computationalการคำนวณ systemsระบบ
can inferสรุป all sortsทุกประเภท of things about you
132
398968
5791
เพราะในปัจจุบันระบบคอมพิวเตอร์
สามารถคาดเดาเรื่องของคุณได้สารพัด
06:56
from your digitalดิจิตอล crumbscrumbs,
133
404783
1872
จากร่องรอยทางดิจิตอลของคุณ
06:58
even if you have not
disclosedเปิดเผย those things.
134
406679
2333
ถึงแม้คุณจะไม่เปิดเผย
ข้อมูลเหล่านั้นเลยก็ตาม
07:01
They can inferสรุป your sexualทางเพศ orientationปฐมนิเทศ,
135
409506
2927
พวกมันคาดเดาได้
ทั้งรสนิยมทางเพศของคุณ
07:04
your personalityบุคลิกภาพ traitsลักษณะ,
136
412994
1306
บุคลิกนิสัย
07:06
your politicalในทางการเมือง leaningsโอนเอียง.
137
414859
1373
แนวโน้มทางการเมือง
07:08
They have predictiveทำนาย powerอำนาจ
with highสูง levelsระดับ of accuracyความถูกต้อง.
138
416830
3685
พวกมันสามารถทำนายได้
ด้วยความแม่นยำสูง
07:13
Rememberจำ -- for things
you haven'tยังไม่ได้ even disclosedเปิดเผย.
139
421362
2578
อย่าลืมค่ะ นี่แค่เรื่อง
ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ
07:15
This is inferenceการอนุมาน.
140
423964
1591
เป็นแค่การคาดเดา
07:17
I have a friendเพื่อน who developedพัฒนา
suchอย่างเช่น computationalการคำนวณ systemsระบบ
141
425579
3261
ดิฉันมีเพื่อนที่พัฒนา
ระบบคอมพิวเตอร์แบบนี้
07:20
to predictทำนาย the likelihoodความเป็นไปได้
of clinicalทางคลินิก or postpartumหลังคลอด depressionพายุดีเปรสชัน
142
428864
3641
เพื่อทำนายความน่าจะเป็น
ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก
07:24
from socialสังคม mediaสื่อ dataข้อมูล.
143
432529
1416
โดยใช้ข้อมูลโซเชียลมีเดีย
07:26
The resultsผล are impressiveประทับใจ.
144
434676
1427
ผลที่ได้ น่าประทับใจมาก
07:28
Her systemระบบ can predictทำนาย
the likelihoodความเป็นไปได้ of depressionพายุดีเปรสชัน
145
436492
3357
ระบบของเธอสามารถทำนาย
แนวโน้มการเป็นโรคซึมเศร้า
07:31
monthsเดือน before the onsetการโจมตี of any symptomsอาการ --
146
439873
3903
ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง
07:35
monthsเดือน before.
147
443800
1373
รู้ล่วงหน้าหลายเดือน
07:37
No symptomsอาการ, there's predictionคาดการณ์.
148
445197
2246
ยังไม่มีอาการ แต่เป็นแค่การทำนาย
07:39
She hopesความหวัง it will be used
for earlyตอนต้น interventionการแทรกแซง. Great!
149
447467
4812
เธอหวังว่าจะใช้ระบบนี้
เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ!
07:44
But now put this in the contextบริบท of hiringการว่าจ้าง.
150
452911
2040
ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน
07:48
So at this humanเป็นมนุษย์ resourcesทรัพยากร
managersผู้จัดการ conferenceการประชุม,
151
456027
3046
ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์
งานนี้
07:51
I approachedเดินเข้ามาใกล้ a high-levelระดับสูง managerผู้จัดการ
in a very largeใหญ่ companyบริษัท,
152
459097
4709
ดิฉันพูดคุยกับผู้บริหารระดับสูง
ของบริษัทใหญ่ยักษ์แห่งหนึ่ง
07:55
and I said to her, "Look,
what if, unbeknownstถิ่น to you,
153
463830
4578
ดิฉันถามเธอว่า "สมมติว่า
โดยที่คุณไม่ล่วงรู้"
08:00
your systemระบบ is weedingการกำจัดวัชพืช out people
with highสูง futureอนาคต likelihoodความเป็นไปได้ of depressionพายุดีเปรสชัน?
154
468432
6549
ระบบคัดคนที่มีแนวโน้ม
เป็นโรคซึมเศร้าในอนาคตสูงออกไป
08:07
They're not depressedตกต่ำ now,
just maybe in the futureอนาคต, more likelyน่าจะ.
155
475761
3376
ไม่ใช่ว่าซึมเศร้าตอนนี้นะ
แค่อาจจะซึมเศร้าในอนาคต
08:11
What if it's weedingการกำจัดวัชพืช out womenผู้หญิง
more likelyน่าจะ to be pregnantตั้งครรภ์
156
479923
3406
ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง
ว่าจะตั้งครรภ์
08:15
in the nextต่อไป yearปี or two
but aren'tไม่ได้ pregnantตั้งครรภ์ now?
157
483353
2586
ในอีกปีสองปี
แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ
08:18
What if it's hiringการว่าจ้าง aggressiveก้าวร้าว people
because that's your workplaceที่ทำงาน cultureวัฒนธรรม?"
158
486844
5636
สมมติว่า มันจ้างคนบุคลิกก้าวร้าว
เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ
08:25
You can't tell this by looking
at genderเพศ breakdownsพัง.
159
493173
2691
เรื่องเหล่านี้ คุณดูไม่ออก
โดยใช้แค่เพศจำแนก
08:27
Those mayอาจ be balancedสมดุลย์.
160
495888
1502
มันอาจเหมือน ๆ กันก็ได้
08:29
And sinceตั้งแต่ this is machineเครื่อง learningการเรียนรู้,
not traditionalแบบดั้งเดิม codingการเข้ารหัส,
161
497414
3557
และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง
ไม่ใช่การโปรแกรมแบบปกติ
08:32
there is no variableตัวแปร there
labeledป้ายกำกับ "higherสูงกว่า riskอันตราย of depressionพายุดีเปรสชัน,"
162
500995
4907
จึงไม่มีตัวแปรที่ระบุว่า
"ความเสี่ยงซึมเศร้าสูง"
08:37
"higherสูงกว่า riskอันตราย of pregnancyการตั้งครรภ์,"
163
505926
1833
"ความเสี่ยงตั้งครรภ์สูง"
08:39
"aggressiveก้าวร้าว guy scaleขนาด."
164
507783
1734
"ระดับความก้าวร้าวสูง"
08:41
Not only do you not know
what your systemระบบ is selectingการเลือก on,
165
509995
3679
คุณไม่เพียงไม่รู้ว่า
ระบบเลือกอะไรมา
08:45
you don't even know
where to beginเริ่ม to look.
166
513698
2323
คุณไม่รู้ด้วยซ้ำ
ว่าจะเริ่มหาจากตรงไหนดี
08:48
It's a blackสีดำ boxกล่อง.
167
516045
1246
มันเหมือนกล่องดำ
08:49
It has predictiveทำนาย powerอำนาจ,
but you don't understandเข้าใจ it.
168
517315
2807
มันสามารถทำนายได้
แต่เราไม่อาจเข้าใจมันได้
08:52
"What safeguardsการป้องกัน," I askedถาม, "do you have
169
520486
2369
ฉันถาม "คุณจะใช้วิธีป้องกันใด
08:54
to make sure that your blackสีดำ boxกล่อง
isn't doing something shadyร่มครึ้ม?"
170
522879
3673
เพื่อให้แน่ใจว่า กล่องดำของคุณ
ไม่ทำอะไรนอกลู่นอกทาง
09:00
She lookedมอง at me as if I had
just steppedก้าว on 10 puppyลูกสุนัข tailsเสื้อหางยาว.
171
528863
3878
เธอมองดิฉันกลับเหมือนดิฉันกำลัง
เหยียบหางลูกหมาอยู่ 10 ตัว
09:04
(Laughterเสียงหัวเราะ)
172
532765
1248
(เสียงหัวเราะ)
09:06
She staredจ้อง at me and she said,
173
534037
2041
เธอจ้องดิฉันกลับ และพูดว่า
09:08
"I don't want to hearได้ยิน
anotherอื่น wordคำ about this."
174
536556
4333
"อย่ามาพูดอะไรแบบนี้
ให้ฉันฟังอีกนะคะ"
09:13
And she turnedหัน around and walkedเดิน away.
175
541458
2034
แล้วเธอก็หันหน้า เดินหนีไป
09:16
Mindใจ you -- she wasn'tก็ไม่ได้ rudeหยาบ.
176
544064
1486
เธอไม่ได้หยาบคายหรอกค่ะ
09:17
It was clearlyอย่างเห็นได้ชัด: what I don't know
isn't my problemปัญหา, go away, deathความตาย stareจ้อง.
177
545574
6308
แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน
ไปไกล ๆ ไล่ด้วยสายตา
09:23
(Laughterเสียงหัวเราะ)
178
551906
1246
(เสียงหัวเราะ)
09:25
Look, suchอย่างเช่น a systemระบบ
mayอาจ even be lessน้อยกว่า biasedลำเอียง
179
553862
3839
ระบบแบบนั้น
อาจมีอคติน้อยกว่า
09:29
than humanเป็นมนุษย์ managersผู้จัดการ in some waysวิธี.
180
557725
2103
ผู้จัดการมนุษย์ในบางด้าน
09:31
And it could make monetaryเป็นเงิน senseความรู้สึก.
181
559852
2146
และอาจคุ้มค่าทางการเงินด้วยก็จริง
09:34
But it could alsoด้วย leadนำ
182
562573
1650
แต่ก็อาจเป็นต้นเหตุ
09:36
to a steadyมั่นคง but stealthyหลบ ๆ ซ่อน ๆ
shuttingปิด out of the jobงาน marketตลาด
183
564247
4748
ที่ค่อย ๆ นำไปสู่การกีดกัน
คนที่มีแนวโน้มซึมเศร้า
09:41
of people with higherสูงกว่า riskอันตราย of depressionพายุดีเปรสชัน.
184
569019
2293
ออกจากตลาดแรงงานไปเลย
โดยเราไม่รู้ตัว
09:43
Is this the kindชนิด of societyสังคม
we want to buildสร้าง,
185
571753
2596
นี่คือสังคมแบบที่เราอยาก
สร้างขึ้น
09:46
withoutไม่มี even knowingรู้ดี we'veเราได้ doneเสร็จแล้ว this,
186
574373
2285
โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ
09:48
because we turnedหัน decision-makingการตัดสินใจ
to machinesเครื่อง we don't totallyโดยสิ้นเชิง understandเข้าใจ?
187
576682
3964
อยู่ในมือของเครื่องกลที่เราเอง
ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ
09:53
Anotherอื่น problemปัญหา is this:
188
581265
1458
อีกปัญหาหนึ่งคือ
09:55
these systemsระบบ are oftenบ่อยครั้ง trainedผ่านการฝึกอบรม
on dataข้อมูล generatedสร้าง by our actionsการปฏิบัติ,
189
583314
4452
ระบบเหล่านี้ มักถูกฝึกฝน
โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา
09:59
humanเป็นมนุษย์ imprintsแอ็กเซส.
190
587790
1816
พฤติกรรมของมนุษย์
10:02
Well, they could just be
reflectingสะท้อนให้เห็นถึง our biasesอคติ,
191
590188
3808
ฉะนั้น มันอาจรับเอาอคติของเรา
10:06
and these systemsระบบ
could be pickingการเลือก up on our biasesอคติ
192
594020
3593
แล้วก็หยิบอคติเหล่านั้นออกมา
10:09
and amplifyingขยาย them
193
597637
1313
ขยายให้รุนแรงขึ้น
10:10
and showingการแสดง them back to us,
194
598974
1418
แล้วก็แสดงผลกลับมาให้เราดู
10:12
while we're tellingบอก ourselvesตัวเรา,
195
600416
1462
ขณะที่เราพร่ำบอกตัวเองว่า
10:13
"We're just doing objectiveวัตถุประสงค์,
neutralเป็นกลาง computationการคำนวณ."
196
601902
3117
"เรากำลังคำนวณอย่างเป็นกลาง
ตามข้อเท็จจริง"
10:18
Researchersนักวิจัย foundพบ that on GoogleGoogle,
197
606314
2677
นักวิจัยพบว่าบนกูเกิ้ล
10:22
womenผู้หญิง are lessน้อยกว่า likelyน่าจะ than menผู้ชาย
to be shownแสดงให้เห็นว่า jobงาน adsโฆษณา for high-payingสูงจ่าย jobsงาน.
198
610134
5313
โฆษณางานรายได้สูงมีแนวโน้มจะแสดง
ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย
10:28
And searchingค้นหา for African-Americanแอฟริกันอเมริกัน namesชื่อ
199
616463
2530
และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน
10:31
is more likelyน่าจะ to bringนำมาซึ่ง up adsโฆษณา
suggestingบอกเป็นนัย ๆ criminalอาชญากร historyประวัติศาสตร์,
200
619017
4706
ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง
กับประวัติอาชญากรรมจะแสดงขึ้นมา
10:35
even when there is noneไม่มี.
201
623747
1567
แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม
10:38
Suchอย่างเช่น hiddenซ่อนเร้น biasesอคติ
and black-boxกล่องดำ algorithmsอัลกอริทึม
202
626693
3549
อคติซ่อนเร้น
และอัลกอริธึ่มกล่องดำแบบนี้เอง
10:42
that researchersนักวิจัย uncoverเปิดเผย sometimesบางครั้ง
but sometimesบางครั้ง we don't know,
203
630266
3973
ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ
แต่บางครั้งก็ไม่อาจรู้ได้
10:46
can have life-alteringชีวิตเปลี่ยนแปลง consequencesผลที่ตามมา.
204
634263
2661
ที่อาจสร้างผลกระทบ
ถึงขั้นเปลี่ยนชีวิตคนได้
10:49
In Wisconsinวิสคอนซิน, a defendantจำเลย
was sentencedถูกพิพากษา to sixหก yearsปี in prisonคุก
205
637958
4159
ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง
ถูกตัดสินจำคุกหกปี
10:54
for evadingสิง the policeตำรวจ.
206
642141
1355
ข้อหาหลบหนีตำรวจ
10:56
You mayอาจ not know this,
207
644824
1186
เรื่องนี้คุณอาจไม่รู้
10:58
but algorithmsอัลกอริทึม are increasinglyขึ้น used
in paroleทัณฑ์บน and sentencingการพิพากษาวางโทษ decisionsการตัดสินใจ.
208
646034
3998
แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง
การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ
11:02
He wanted to know:
How is this scoreคะแนน calculatedคำนวณ?
209
650056
2955
ผู้ต้องหาคนนั้นอยากรู้ว่า
คะแนนนี้มีวิธีคำนวณอย่างไร
11:05
It's a commercialเชิงพาณิชย์ blackสีดำ boxกล่อง.
210
653795
1665
อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร
11:07
The companyบริษัท refusedปฏิเสธ to have its algorithmขั้นตอนวิธี
be challengedท้าทาย in openเปิด courtศาล.
211
655484
4205
บริษัทนั้นปฎิเสธที่จะให้
ศาลไต่สวนอัลกอริธึ่มของตนเอง
11:12
But ProPublicaProPublica, an investigativeสืบสวน
nonprofitไม่แสวงหาผลกำไร, auditedผ่านการตรวจสอบ that very algorithmขั้นตอนวิธี
212
660396
5532
แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร
ตรวจสอบอัลกอริธึ่มนั้น
11:17
with what publicสาธารณะ dataข้อมูล they could find,
213
665952
2016
โดยใช้ข้อมูลสาธารณะเท่าที่หาได้
11:19
and foundพบ that its outcomesผลลัพธ์ were biasedลำเอียง
214
667992
2316
และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่
11:22
and its predictiveทำนาย powerอำนาจ
was dismalกลุ้มใจ, barelyเพิ่งจะ better than chanceโอกาส,
215
670332
3629
ความสามารถในการทำนายย่ำแย่
ดีกว่าเดาสุ่มแค่นิดเดียว
11:25
and it was wronglyอย่างผิดพลาด labelingการติดฉลาก
blackสีดำ defendantsจำเลย as futureอนาคต criminalsอาชญากร
216
673985
4416
มันให้ผลลัพธ์ที่ผิดพลาดว่า
ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต
11:30
at twiceสองครั้ง the rateอัตรา of whiteขาว defendantsจำเลย.
217
678425
3895
สูงเป็นสองเท่าของผู้ต้องหาผิวขาว
11:35
So, considerพิจารณา this caseกรณี:
218
683891
1564
ลองดูอีกคดีหนึ่ง
11:38
This womanหญิง was lateสาย
pickingการเลือก up her godsistergodsister
219
686103
3852
ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม
กลับจากโรงเรียน
11:41
from a schoolโรงเรียน in Browardวอร์ด Countyเขต, Floridaฟลอริด้า,
220
689979
2075
ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า
สายกว่าเวลา
11:44
runningวิ่ง down the streetถนน
with a friendเพื่อน of hersของเธอ.
221
692757
2356
เธอกับเพื่อน ๆ
วิ่งกันไปตามถนน
11:47
They spottedด่าง an unlockedปลดล็อค kid'sเด็ก bikeจักรยาน
and a scooterสกูตเตอร์ on a porchระเบียง
222
695137
4099
แล้วเจอจักรยานเด็ก
และสกูตเตอร์วางทิ้งไว้
11:51
and foolishlyโง่ jumpedเพิ่มขึ้น on it.
223
699260
1632
แล้วก็เอามาใช้อย่างไม่คิด
11:52
As they were speedingการเร่ง off,
a womanหญิง cameมา out and said,
224
700916
2599
ขณะที่กำลังจะปั่นจักรยานไป
ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า
11:55
"Hey! That's my kid'sเด็ก bikeจักรยาน!"
225
703539
2205
"เฮ้ นั่นของลูกฉันนะ"
11:57
They droppedปรับตัวลดลง it, they walkedเดิน away,
but they were arrestedจับกุม.
226
705768
3294
พวกเธอเลยทิ้งจักรยาน
รีบเดินหนี แล้วก็ถูกจับกุม
12:01
She was wrongไม่ถูกต้อง, she was foolishโง่,
but she was alsoด้วย just 18.
227
709086
3637
เธอผิดจริง เธอโง่เขลา
แต่เธอก็อายุแค่ 18 ด้วย
12:04
She had a coupleคู่ of juvenileเยาวชน misdemeanorsอาชญากรรม.
228
712747
2544
เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน
12:07
Meanwhileในขณะเดียวกัน, that man had been arrestedจับกุม
for shopliftingการโมยของตามร้าน in Home Depotสถานีรถไฟ --
229
715808
5185
ส่วนผู้ชายคนนั้น ถูกจับกุม
ข้อหาขโมยของในโฮมดีโป้
12:13
85 dollars'ดอลลาร์ worthคุ้มค่า of stuffสิ่ง,
a similarคล้ายคลึงกัน pettyจิ๊บจ๊อย crimeอาชญากรรม.
230
721017
2924
มูลค่า 85 ดอลลาร์
เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน
12:16
But he had two priorก่อน
armedติดอาวุธ robberyโจรกรรม convictionsความเชื่อมั่น.
231
724766
4559
แต่เขามีประวัติกรรโชคทรัพย์
มาแล้วถึงสองครั้ง
12:21
But the algorithmขั้นตอนวิธี scoredคะแนน her
as highสูง riskอันตราย, and not him.
232
729955
3482
แต่อัลกอริธึ่มกลับให้คะแนน
ความเสี่ยงเธอสูง ไม่ใช่เขา
12:26
Two yearsปี laterต่อมา, ProPublicaProPublica foundพบ
that she had not reoffendedreoffended.
233
734746
3874
สองปีต่อมา โปรพับลิก้า พบว่า
เธอไม่ได้กระทำผิดซ้ำอีก
12:30
It was just hardยาก to get a jobงาน
for her with her recordบันทึก.
234
738644
2550
แต่ด้วยประวัติของเธอ
ทำให้เธอหางานทำได้ยาก
12:33
He, on the other handมือ, did reoffendreoffend
235
741218
2076
แต่ผู้ชายนั้น กลับทำความผิดซ้ำ
12:35
and is now servingการให้บริการ an eight-yearแปดปี
prisonคุก termวาระ for a laterต่อมา crimeอาชญากรรม.
236
743318
3836
และตอนนี้ ต้องโทษจำคุกแปดปี
จากการทำผิดหนหลัง
12:40
Clearlyเห็นได้ชัดว่า, we need to auditการตรวจสอบบัญชี our blackสีดำ boxesกล่อง
237
748088
3369
ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา
12:43
and not have them have
this kindชนิด of uncheckedไม่ถูกตรวจสอบ powerอำนาจ.
238
751481
2615
และไม่ปล่อยให้มันมีอำนาจโดย
ไม่มีการถ่วงดุลเช่นนี้
12:46
(Applauseการปรบมือ)
239
754120
2879
(เสียงปรบมือ)
12:50
Auditsการตรวจสอบ are great and importantสำคัญ,
but they don't solveแก้ all our problemsปัญหาที่เกิดขึ้น.
240
758087
4242
การตรวจสอบเป็นเรื่องที่ดีและสำคัญ
แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง
12:54
Take Facebook'sของ Facebook powerfulมีอำนาจ
newsข่าว feedอาหาร algorithmขั้นตอนวิธี --
241
762353
2748
ลองดูฟีดข่าวทรงอิทธิพล
ของเฟซบุ้กเป็นตัวอย่าง
12:57
you know, the one that ranksการจัดอันดับ everything
and decidesตัดสินใจ what to showแสดง you
242
765125
4843
อันที่จัดลำดับข่าวสารทุกอย่าง
แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู
13:01
from all the friendsเพื่อน and pagesหน้า you followปฏิบัติตาม.
243
769992
2284
โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ
13:04
Should you be shownแสดงให้เห็นว่า anotherอื่น babyทารก pictureภาพ?
244
772898
2275
จะโชว์อะไรดีล่ะ รูปเด็กเล็ก
13:07
(Laughterเสียงหัวเราะ)
245
775197
1196
(เสียงหัวเราะ)
13:08
A sullenบูดบึ้ง noteบันทึก from an acquaintanceคนรู้จัก?
246
776417
2596
หรือโน้ตขึงขังที่คนรู้จักเขียน
13:11
An importantสำคัญ but difficultยาก newsข่าว itemชิ้น?
247
779449
1856
หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก
13:13
There's no right answerตอบ.
248
781329
1482
ไม่มีคำตอบผิดถูก
13:14
FacebookFacebook optimizesเพิ่มประสิทธิภาพ
for engagementการสู้รบ on the siteเว็บไซต์:
249
782835
2659
เฟซบุ้กให้ความสำคัญกับ
การมีปฏิสัมพันธ์ต่อคอนเทนต์
13:17
likesชอบ, sharesหุ้น, commentsแสดงความคิดเห็น.
250
785518
1415
ไลค์ แชร์ คอมเมนต์
13:20
In Augustสิงหาคม of 2014,
251
788168
2696
ในเดือนสิงหาคม ค.ศ. 2014
13:22
protestsการประท้วง brokeยากจน out in Fergusonเฟอร์กูสัน, Missouriมิสซูรี่,
252
790888
2662
เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่
13:25
after the killingที่ฆ่า of an African-Americanแอฟริกันอเมริกัน
teenagerวัยโจ๋ by a whiteขาว policeตำรวจ officerเจ้าหน้าที่,
253
793574
4417
หลังจากเหตุการณ์ที่ตำรวจผิวขาว
ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย
13:30
underภายใต้ murkyมืด circumstancesพฤติการณ์.
254
798015
1570
ในสภาพการณ์ที่ีน่าสงสัย
13:31
The newsข่าว of the protestsการประท้วง was all over
255
799974
2007
ข่าวการประท้วงผุดเต็มฟีด
13:34
my algorithmicallyอัลกอริทึม
unfilteredที่ไม่ได้กรอง Twitterพูดเบาและรวดเร็ว feedอาหาร,
256
802005
2685
บนหน้าทวิตเตอร์
ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน
13:36
but nowhereไม่มีที่ไหนเลย on my FacebookFacebook.
257
804714
1950
แต่หาไม่เจอบนเฟซบุ้กเลย
13:39
Was it my FacebookFacebook friendsเพื่อน?
258
807182
1734
เพราะเพื่อนบนเฟซบุ้กของฉันหรือ?
13:40
I disabledพิการ Facebook'sของ Facebook algorithmขั้นตอนวิธี,
259
808940
2032
ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย
13:43
whichที่ is hardยาก because FacebookFacebook
keepsช่วยให้ wantingบกพร่อง to make you
260
811472
2848
ซึ่งทำได้ยาก เพราะเฟซบุ้ก
จะยืนกรานแต่ให้คุณ
13:46
come underภายใต้ the algorithm'sอัลกอริทึมของ controlควบคุม,
261
814344
2036
อยู่ใต้บงการของอัลกอริธึ่ม
13:48
and saw that my friendsเพื่อน
were talkingการพูด about it.
262
816404
2238
แล้วก็พบว่า เพื่อน ๆ ของฉัน
ต่างก็พูดถึงเรื่องนี้
13:50
It's just that the algorithmขั้นตอนวิธี
wasn'tก็ไม่ได้ showingการแสดง it to me.
263
818666
2509
แต่อัลกอริธึ่มมันไม่ยอม
โชว์ให้ดิฉันดู
13:53
I researchedวิจัย this and foundพบ
this was a widespreadแพร่หลาย problemปัญหา.
264
821199
3042
ฉันค้นคว้าเรื่องนี้ต่อ
และพบว่านี่เป็นปัญหาในวงกว้าง
13:56
The storyเรื่องราว of Fergusonเฟอร์กูสัน
wasn'tก็ไม่ได้ algorithm-friendlyขั้นตอนวิธีการง่าย.
265
824265
3813
ข่าวเฟอร์กูสัน
ไม่เป็นมิตรกับอัลกอริธึ่ม
14:00
It's not "likableน่ารัก."
266
828102
1171
เพราะมัน "ไม่มีคนไลค์"
14:01
Who'sใคร going to clickคลิก on "like?"
267
829297
1552
ใครจะไปกดไลค์ล่ะ
14:03
It's not even easyง่าย to commentคิดเห็น on.
268
831500
2206
ขนาดคอมเมนต์ยังยากเลย
14:05
Withoutไม่มี likesชอบ and commentsแสดงความคิดเห็น,
269
833730
1371
เมื่อไม่มีไลค์ หรือคอมเมนต์
14:07
the algorithmขั้นตอนวิธี was likelyน่าจะ showingการแสดง it
to even fewerน้อยลง people,
270
835125
3292
อัลกอริธึ่มจึงมีแนวโน้ม
จะโชว์ให้คนดูน้อยลงไปอีก
14:10
so we didn't get to see this.
271
838441
1542
เราเลยไม่เห็นข่าวนี้เลย
14:12
Insteadแทน, that weekสัปดาห์,
272
840946
1228
แต่ในสัปดาห์นั้น
14:14
Facebook'sของ Facebook algorithmขั้นตอนวิธี highlightedไฮไลต์ this,
273
842198
2298
สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ
14:16
whichที่ is the ALSALS Iceน้ำแข็ง Bucketถัง Challengeท้าทาย.
274
844520
2226
คือ การท้าราดน้ำแข็งสู้โรค ALS
14:18
Worthyคุ้มค่า causeสาเหตุ; dumpเท iceน้ำแข็ง waterน้ำ,
donateบริจาค to charityการกุศล, fine.
275
846770
3742
จุดประสงค์ดี มีการราดน้ำแข็ง
ได้บริจาคช่วยคน ดีค่ะ
14:22
But it was superซุปเปอร์ algorithm-friendlyขั้นตอนวิธีการง่าย.
276
850536
1904
แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย
14:25
The machineเครื่อง madeทำ this decisionการตัดสิน for us.
277
853219
2613
เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา
14:27
A very importantสำคัญ
but difficultยาก conversationการสนทนา
278
855856
3497
การสนทนาประเด็นยาก ๆ
แต่สำคัญมาก ๆ แบบนี้
14:31
mightอาจ have been smotheredsmothered,
279
859377
1555
อาจถูกกำจัดออก
14:32
had FacebookFacebook been the only channelช่อง.
280
860956
2696
หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว
14:36
Now, finallyในที่สุด, these systemsระบบ
can alsoด้วย be wrongไม่ถูกต้อง
281
864117
3797
และท้ายที่สุด ระบบพวกนี้
ก็อาจผิดพลาด
14:39
in waysวิธี that don't resembleคล้ายคลึงกับ humanเป็นมนุษย์ systemsระบบ.
282
867938
2736
ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้
14:42
Do you guys rememberจำ Watsonวัตสัน,
IBM'sไอบีเอ็ม machine-intelligenceเครื่องหน่วยสืบราชการลับ systemระบบ
283
870698
2922
พวกคุณคงรู้จักวัตสัน
ระบบสมองประดิษฐ์ของ IBM
14:45
that wipedเช็ด the floorชั้น
with humanเป็นมนุษย์ contestantsผู้เข้าแข่งขัน on Jeopardyอันตราย?
284
873644
3128
ที่เอาชนะคู่แข่งมนุษย์
แบบขาดลอยในรายการเจพเปอร์ดี้
14:49
It was a great playerผู้เล่น.
285
877131
1428
มันเล่นเกมเก่งมาก
14:50
But then, for Finalสุดท้าย Jeopardyอันตราย,
Watsonวัตสัน was askedถาม this questionคำถาม:
286
878583
3569
แต่ในเจพเปอร์ดี้รอบสุดท้าย
วัตสันต้องตอบคำถามนี้ค่ะ
14:54
"Its largestใหญ่ที่สุด airportสนามบิน is namedชื่อ
for a Worldโลก Warสงคราม IIครั้งที่สอง heroพระเอก,
287
882659
2932
"สนามบินที่ใหญ่ที่สุดของมัน
ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2
14:57
its second-largestใหญ่เป็นอันดับสอง
for a Worldโลก Warสงคราม IIครั้งที่สอง battleการต่อสู้."
288
885615
2252
และเป็นสมรภูมิใหญ่เป็นที่สอง
ในสงครามโลกครั้งที่ 2"
14:59
(HumsHums Finalสุดท้าย Jeopardyอันตราย musicเพลง)
289
887891
1378
(ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย)
15:01
Chicagoเมืองชิคาโก.
290
889582
1182
ชิคาโก้ค่ะ
15:02
The two humansมนุษย์ got it right.
291
890788
1370
มนุษย์สองคนตอบถูกต้อง
15:04
Watsonวัตสัน, on the other handมือ,
answeredตอบ "Torontoโตรอนโต" --
292
892697
4348
แต่วัตสัน ตอบว่า "โตรอนโต้"
15:09
for a US cityเมือง categoryประเภท!
293
897069
1818
ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ!
15:11
The impressiveประทับใจ systemระบบ alsoด้วย madeทำ an errorความผิดพลาด
294
899596
2901
ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง
15:14
that a humanเป็นมนุษย์ would never make,
a second-graderสองเกรด wouldn'tจะไม่ make.
295
902521
3651
ในเรื่องที่มนุษย์ทั่วไป
หรือกระทั้งเด็กประถมไม่มีทางพลาด
15:18
Our machineเครื่อง intelligenceสติปัญญา can failล้มเหลว
296
906823
3109
สมองประดิษฐ์อาจทำผิดพลาดได้
15:21
in waysวิธี that don't fitพอดี
errorความผิดพลาด patternsรูปแบบ of humansมนุษย์,
297
909956
3100
ด้วยพฤติการณ์คนละแบบกับของมนุษย์
15:25
in waysวิธี we won'tเคยชิน expectคาดหวัง
and be preparedเตรียมพร้อม for.
298
913080
2950
ในรูปแบบที่เราจะคาดไม่ถึง
และไม่ได้เตรียมรับมือ
15:28
It'dมันต้องการ be lousyมีหมัด not to get a jobงาน
one is qualifiedมีคุณสมบัติ for,
299
916054
3638
การไม่ได้งานทั้งที่คุณ
มีคุณสมบัติพร้อมก็แย่อยู่แล้ว
15:31
but it would tripleสามเท่า suckดูด
if it was because of stackกอง overflowล้น
300
919716
3727
แต่คงแย่สุด ๆ ถ้าไม่ได้งาน
เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์
15:35
in some subroutineย่อย.
301
923467
1432
ในซับรูทีนบางตัว
15:36
(Laughterเสียงหัวเราะ)
302
924923
1579
(เสียงหัวเราะ)
15:38
In Mayอาจ of 2010,
303
926526
2786
เมื่อเดือนพฤษภาคม 2010
15:41
a flashแฟลช crashชน on Wallผนัง Streetถนน
fueledเชื้อเพลิง by a feedbackข้อเสนอแนะ loopห่วง
304
929336
4044
ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน
เนื่องจากลูปป้อนกลับ
15:45
in Wallผนัง Street'sถนน "sellขาย" algorithmขั้นตอนวิธี
305
933404
3028
ในอัลกอริธึ่มของวอลล์สตรีท
15:48
wipedเช็ด a trillionล้านล้าน dollarsดอลลาร์
of valueความคุ้มค่า in 36 minutesนาที.
306
936456
4184
ทำให้เงินในตลาดหายไป
กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที
15:53
I don't even want to think
what "errorความผิดพลาด" meansวิธี
307
941722
2187
ดิฉันไม่อยากคิดเลยว่า
"ข้อบกพร่อง" จะเป็นแบบไหน
15:55
in the contextบริบท of lethalร้ายแรง
autonomousอิสระ weaponsอาวุธ.
308
943933
3589
ถ้าเกิดเปลี่ยนเป็น
อาวุธอันตรายแบบอัตโนมัติแทน
16:01
So yes, humansมนุษย์ have always madeทำ biasesอคติ.
309
949894
3790
มนุษย์ล้วนมีอคติกันทั้งนั้น
16:05
Decisionการตัดสิน makersเครื่องชง and gatekeepersคนเฝ้าประตู,
310
953708
2176
ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ
16:07
in courtsศาล, in newsข่าว, in warสงคราม ...
311
955908
3493
ทั้งในศาล ในข่าว และในสงคราม
16:11
they make mistakesข้อผิดพลาด;
but that's exactlyอย่างแน่นอน my pointจุด.
312
959425
3038
พวกเขาผิดพลาดได้ทั้งนั้น
แต่นั่นแหละ คือประเด็นของดิฉัน
16:14
We cannotไม่ได้ escapeหนี
these difficultยาก questionsคำถาม.
313
962487
3521
เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้
16:18
We cannotไม่ได้ outsourceภายนอก
our responsibilitiesความรับผิดชอบ to machinesเครื่อง.
314
966596
3516
เราจะถ่ายโอนความรับผิดชอบ
ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้
16:22
(Applauseการปรบมือ)
315
970676
4208
(เสียงปรบมือ)
16:29
Artificialเทียม intelligenceสติปัญญา does not give us
a "Get out of ethicsจริยธรรม freeฟรี" cardบัตร.
316
977089
4447
ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา
เป็นอิสระจากปัญหาเชิงจริยธรรม
16:34
Dataข้อมูล scientistนักวิทยาศาสตร์ Fredเฟร็ด BenensonBenenson
callsโทร this math-washingคณิตศาสตร์ซักผ้า.
317
982742
3381
นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน
เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing)
16:38
We need the oppositeตรงข้าม.
318
986147
1389
เราต้องทำตรงกันข้าม
16:39
We need to cultivateปลูกฝัง algorithmขั้นตอนวิธี suspicionความสงสัย,
scrutinyการพิจารณา and investigationตรวจสอบ.
319
987560
5388
เราต้องส่งเสริมการสีบสวน
ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม
16:45
We need to make sure we have
algorithmicอัลกอริทึม accountabilityการรับผิดชอบ,
320
993380
3198
เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้
สามารถตรวจสอบย้อนกลับได้
16:48
auditingการตรวจสอบบัญชี and meaningfulมีความหมาย transparencyความโปร่งใส.
321
996602
2445
ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม
16:51
We need to acceptยอมรับ
that bringingการนำ mathคณิตศาสตร์ and computationการคำนวณ
322
999380
3234
เราต้องยอมรับว่า
การเอาคณิตศาสตร์และคอมพิวเตอร์
16:54
to messyยุ่ง, value-ladenค่าภาระ humanเป็นมนุษย์ affairsธุรกิจ
323
1002638
2970
มาใช้แก้ปัญหาของมนุษย์ที่กำกวม
และแฝงความเชื่อทางสังคม
16:57
does not bringนำมาซึ่ง objectivityวัตถุประสงค์;
324
1005632
2384
ไม่ได้ทำให้เกิดความเที่ยงตรง
อย่างภววิสัย
17:00
ratherค่อนข้าง, the complexityความซับซ้อน of humanเป็นมนุษย์ affairsธุรกิจ
invadesก้าวก่าย the algorithmsอัลกอริทึม.
325
1008040
3633
แต่ความซับซ้อนของปัญหามนุษย์
จะเล่นงานอัลกอริธึ่มแทน
17:04
Yes, we can and we should use computationการคำนวณ
326
1012148
3487
จริงค่ะ คอมพิวเตอร์นั้น
เราใช้ได้ และควรใช้ด้วย
17:07
to help us make better decisionsการตัดสินใจ.
327
1015659
2014
เพื่อให้เราตัดสินใจได้ดีขึ้น
17:09
But we have to ownด้วยตัวเอง up
to our moralคุณธรรม responsibilityความรับผิดชอบ to judgmentการตัดสิน,
328
1017697
5332
แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม
ในการตัดสินใจนั้น
17:15
and use algorithmsอัลกอริทึม withinภายใน that frameworkกรอบ,
329
1023053
2818
แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น
17:17
not as a meansวิธี to abdicateสละราชสมบัติ
and outsourceภายนอก our responsibilitiesความรับผิดชอบ
330
1025895
4935
ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน
ความรับผิดชอบของเรา
17:22
to one anotherอื่น as humanเป็นมนุษย์ to humanเป็นมนุษย์.
331
1030854
2454
ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน
17:25
Machineเครื่อง intelligenceสติปัญญา is here.
332
1033807
2609
เรามีสมองประดิษฐ์ไว้ใช้แล้ว
17:28
That meansวิธี we mustต้อง holdถือ on ever tighterที่เข้มงวดมากขึ้น
333
1036440
3421
นั่นหมายความว่า เรายิ่งต้องยึดมั่น
17:31
to humanเป็นมนุษย์ valuesค่า and humanเป็นมนุษย์ ethicsจริยธรรม.
334
1039885
2147
ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์
17:34
Thank you.
335
1042056
1154
ขอบคุณค่ะ
17:35
(Applauseการปรบมือ)
336
1043234
5020
(เสียงปรบมือ)

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com