ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

เอลี ปารีเซอร์: โปรดระวัง "ฟองสบู่จากการกรองข้อมูล" ออนไลน์

Filmed:
5,309,238 views

ในขณะที่บริษัทผู้สร้างเว็บไซต์พยายามปรับแต่งบริการ (รวมถึงข่าวสารและผลการค้นหา) ให้เข้ากับรสนิยมของเรา ก็เกิดผลข้างเคียงที่อันตรายโดยที่เราไม่ได้ตั้งใจ เราจะติดอยู่ใน "ฟองสบู่จากการกรองข้อมูล" และจะไม่ได้รับข้อมูลที่ท้าทาย หรือเปิดโลกทัศน์ของเรา เอลี ปารีเซอร์ อ้างอย่างทรงพลังว่า การกรองข้อมูลนั้นไม่ดีต่อตัวเรา และไม่ดีต่อประชาธิปไตย
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Markเครื่องหมาย ZuckerbergZuckerberg,
0
0
2000
มาร์ค ซัคเกอร์เบิร์ก
00:17
a journalistนักข่าว was askingถาม him a questionคำถาม about the newsข่าว feedอาหาร.
1
2000
3000
มีผู้สื่อข่าวคนหนึ่งถามเขาเกี่ยวกับระบบ news feed
00:20
And the journalistนักข่าว was askingถาม him,
2
5000
2000
เขาถูกถามว่า
00:22
"Why is this so importantสำคัญ?"
3
7000
2000
"ทำไมมันสำคัญนักล่ะ?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
ซัคเกอร์เบิร์กตอบว่า
00:26
"A squirrelกระรอก dyingเฮือกสุดท้าย in your frontด้านหน้า yardลาน
5
11000
2000
"กระรอกที่ตายอยู่หน้าบ้านของคุณ
00:28
mayอาจ be more relevantที่เกี่ยวข้อง to your interestsความสนใจ right now
6
13000
3000
อาจจะน่าสนใจสำหรับคุณในตอนนี้
00:31
than people dyingเฮือกสุดท้าย in Africaแอฟริกา."
7
16000
3000
มากกว่าคนที่กำลังตายในแอฟริกา"
00:34
And I want to talk about
8
19000
2000
ผมเลยอยากจะพูดเกี่ยวกับ
00:36
what a Webเว็บ basedซึ่งเป็นรากฐาน on that ideaความคิด of relevanceความสัมพันธ์กัน mightอาจ look like.
9
21000
3000
ว่าอินเทอร์เน็ตที่มีพื้นฐานบนความคิดแบบนั้นจะเป็นอย่างไร
00:40
So when I was growingการเจริญเติบโต up
10
25000
2000
เมื่อตอนที่ผมเติบโตขึ้น
00:42
in a really ruralชนบท areaพื้นที่ in Maineเมน,
11
27000
2000
ในชนบทของรัฐเมน
00:44
the Internetอินเทอร์เน็ต meantความหมาย something very differentต่าง to me.
12
29000
3000
ความหมายของอินเทอร์เน็ตแตกต่างจากตอนนี้มาก
00:47
It meantความหมาย a connectionสัมพันธ์ to the worldโลก.
13
32000
2000
มันหมายถึง การเชื่อมโยงโลกเข้าด้วยกัน
00:49
It meantความหมาย something that would connectต่อ us all togetherด้วยกัน.
14
34000
3000
มันคือสิ่งที่เชื่อมเราทุกคนบนโลกเข้าด้วยกัน
00:52
And I was sure that it was going to be great for democracyประชาธิปไตย
15
37000
3000
และผมเชื่อว่ามันจะดีต่อประชาธิปไตย
00:55
and for our societyสังคม.
16
40000
3000
และดีต่อสังคมของเรา
00:58
But there's this shiftเปลี่ยน
17
43000
2000
แต่แล้วก็มีการเปลี่ยนแปลง
01:00
in how informationข้อมูล is flowingที่ไหล onlineออนไลน์,
18
45000
2000
กับวิธีที่ข้อมูลถูกแพร่กระจาย
01:02
and it's invisibleมองไม่เห็น.
19
47000
3000
ซึ่งเรามองไม่เห็น
01:05
And if we don't payจ่ายเงิน attentionความสนใจ to it,
20
50000
2000
และถ้าเราไม่สนใจมันเลย
01:07
it could be a realจริง problemปัญหา.
21
52000
3000
มันอาจเป็นปัญหาใหญ่ได้
01:10
So I first noticedสังเกตเห็น this in a placeสถานที่ I spendใช้จ่าย a lot of time --
22
55000
3000
ผมรู้สึกได้ครั้งแรก จากที่ผมใช้เวลาส่วนใหญ่
01:13
my FacebookFacebook pageหน้า.
23
58000
2000
บนหน้าเฟสบุ๊คของผม
01:15
I'm progressiveความก้าวหน้า, politicallyในทางการเมือง -- bigใหญ่ surpriseแปลกใจ --
24
60000
3000
ผมเป็นเสรีนิยมนะ ในทางการเมือง
01:18
but I've always goneที่ไปแล้ว out of my way to meetพบกัน conservativesพรรคอนุรักษ์นิยม.
25
63000
2000
แต่ผมก็ชอบพูดคุยกับพวกอนุรักษ์นิยม
01:20
I like hearingการได้ยิน what they're thinkingคิด about;
26
65000
2000
ผมชอบฟังว่าเขาคิดเห็นอย่างไร
01:22
I like seeingเห็น what they linkลิงค์ to;
27
67000
2000
ผมชอบดูว่าเขาแชร์อะไรกันบ้าง
01:24
I like learningการเรียนรู้ a thing or two.
28
69000
2000
ผมชอบเรียนรู้อะไรใหม่ๆ
01:26
And so I was surprisedประหลาดใจ when I noticedสังเกตเห็น one day
29
71000
3000
แล้วผมก็ตกใจ เพราะวันหนึ่ง
01:29
that the conservativesพรรคอนุรักษ์นิยม had disappearedหายไป from my FacebookFacebook feedอาหาร.
30
74000
3000
นักอนุรักษ์นิยมหายไปจากเฟสบุ๊คของผมหมดเลย
01:33
And what it turnedหัน out was going on
31
78000
2000
ผมพบว่า
01:35
was that FacebookFacebook was looking at whichที่ linksการเชื่อมโยง I clickedคลิก on,
32
80000
4000
เฟสบุ๊คกำลังศึกษาว่าผมคลิกลิงค์อะไรบ้าง
01:39
and it was noticingสังเกตเห็น that, actuallyแท้จริง,
33
84000
2000
และมันเห็นว่า
01:41
I was clickingคลิกที่ more on my liberalใจกว้าง friends'เพื่อน linksการเชื่อมโยง
34
86000
2000
ผมคลิกลิงค์ของเพื่อนเสรีนิยม
01:43
than on my conservativeอนุรักษนิยม friends'เพื่อน linksการเชื่อมโยง.
35
88000
3000
มากกว่าเพื่อนอนุรักษ์นิยมของผม
01:46
And withoutไม่มี consultingการให้คำปรึกษา me about it,
36
91000
2000
และโดยที่ไม่ปรึกษาผมก่อน
01:48
it had editedแก้ไข them out.
37
93000
2000
เฟสบุ๊คก็กรองทุกอย่างออก
01:50
They disappearedหายไป.
38
95000
3000
มันหายไปหมดเลย
01:54
So FacebookFacebook isn't the only placeสถานที่
39
99000
2000
และเฟสบุ๊คก็ไม่ใช่ที่เดียว
01:56
that's doing this kindชนิด of invisibleมองไม่เห็น, algorithmicอัลกอริทึม
40
101000
2000
ที่ทำหน้าที่บรรณาธิการเว็บ
01:58
editingการตัดต่อ of the Webเว็บ.
41
103000
3000
ด้วยกลไกที่เรามองไม่เห็น
02:01
Google'sของ Google doing it too.
42
106000
2000
กูเกิลก็เช่นกัน
02:03
If I searchค้นหา for something, and you searchค้นหา for something,
43
108000
3000
ถ้าผมและคุณค้นสิ่งเดียวกัน
02:06
even right now at the very sameเหมือนกัน time,
44
111000
2000
แม้กระทั่งตอนนี้ในเวลาเดียวกัน
02:08
we mayอาจ get very differentต่าง searchค้นหา resultsผล.
45
113000
3000
เราอาจจะได้ผลลัพธ์ที่แตกต่างกันมาก
02:11
Even if you're loggedเข้าสู่ระบบ out, one engineerวิศวกร told me,
46
116000
3000
วิศวกรคนหนึ่งบอกผมว่า แม้กระทั่งตอนที่คุณออกจากระบบ
02:14
there are 57 signalsสัญญาณ
47
119000
2000
มีปัจจัย 57 อย่าง
02:16
that GoogleGoogle looksรูปลักษณ์ at --
48
121000
3000
ที่กูเกิลใช้ตัดสินใจ --
02:19
everything from what kindชนิด of computerคอมพิวเตอร์ you're on
49
124000
3000
ตั้งแต่ชนิดของคอมพิวเตอร์ที่คุณใช้
02:22
to what kindชนิด of browserเบราว์เซอร์ you're usingการใช้
50
127000
2000
เบราว์เซอร์ที่คุณใช้
02:24
to where you're locatedที่ตั้งอยู่ --
51
129000
2000
ถึงสถานที่ที่คุณเล่นอยู่ --
02:26
that it usesการใช้งาน to personallyส่วนตัว tailorช่างตัดเสื้อ your queryสอบถาม resultsผล.
52
131000
3000
เพื่อคัดกรองผลลัพธ์ให้เรา
02:29
Think about it for a secondที่สอง:
53
134000
2000
ลองคิดดูดีๆ
02:31
there is no standardมาตรฐาน GoogleGoogle anymoreอีกต่อไป.
54
136000
4000
เราไม่มีกูเกิลที่เป็นมาตรฐานอีกแล้ว
02:35
And you know, the funnyตลก thing about this is that it's hardยาก to see.
55
140000
3000
แล้วคุณรู้ไหม ที่น่าตกใจคือ เราไม่รู้ตัว
02:38
You can't see how differentต่าง your searchค้นหา resultsผล are
56
143000
2000
คุณไม่รู้ว่าผลลัพธ์ของคุณ
02:40
from anyoneใคร ๆ else'sอื่น.
57
145000
2000
แตกต่างจากคนอื่นอย่างไร
02:42
But a coupleคู่ of weeksสัปดาห์ที่ผ่านมา agoมาแล้ว,
58
147000
2000
แต่ไม่กี่สัปดาห์ที่แล้ว
02:44
I askedถาม a bunchพวง of friendsเพื่อน to GoogleGoogle "Egyptอียิปต์"
59
149000
3000
ผมวานเพื่อนผมให้ค้นคำว่า "อียิปต์"
02:47
and to sendส่ง me screenจอภาพ shotsภาพ of what they got.
60
152000
3000
แล้วถ่ายรูปหน้าจอมาให้ผมดู
02:50
So here'sนี่คือ my friendเพื่อน Scott'sสกอตต์ screenจอภาพ shotการถ่ายภาพ.
61
155000
3000
นี่คือหน้าจอของเพื่อนผม สก๊อตต์
02:54
And here'sนี่คือ my friendเพื่อน Daniel'sแดเนียล screenจอภาพ shotการถ่ายภาพ.
62
159000
3000
และนี่ของเพื่อนผมอีกคน แดเนียล
02:57
When you put them side-by-sideเคียงบ่าเคียงไหล่,
63
162000
2000
ลองเปรียบเทียบกันดู
02:59
you don't even have to readอ่าน the linksการเชื่อมโยง
64
164000
2000
โดยไม่ต้องอ่านเลยด้วยซ้ำ
03:01
to see how differentต่าง these two pagesหน้า are.
65
166000
2000
คุณก็เห็นว่ามันแตกต่างกันแค่ไหน
03:03
But when you do readอ่าน the linksการเชื่อมโยง,
66
168000
2000
แล้วลองอ่านดูสิ
03:05
it's really quiteทีเดียว remarkableโดดเด่น.
67
170000
3000
มันน่าตกใจมากเลยนะ
03:09
Danielแดเนียล didn't get anything about the protestsการประท้วง in Egyptอียิปต์ at all
68
174000
3000
ที่แดเนียลไม่ได้ผลลัพธ์เกี่ยวกับการประท้วงในอียิปต์
03:12
in his first pageหน้า of GoogleGoogle resultsผล.
69
177000
2000
บนผลการค้นหาหน้าแรกเลย
03:14
Scott'sสกอตต์ resultsผล were fullเต็ม of them.
70
179000
2000
แต่ของสก๊อตต์กลับมีเต็มไปหมด
03:16
And this was the bigใหญ่ storyเรื่องราว of the day at that time.
71
181000
2000
ทั้งๆที่เรื่องที่อียิปต์เป็นข่าวดังของช่วงนั้น
03:18
That's how differentต่าง these resultsผล are becomingการกลาย.
72
183000
3000
นั่นคือความแตกต่างที่เราเห็นได้ชัด
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherทั้ง.
73
186000
3000
และมันไม่ใช่แค่กูเกิล และเฟสบุ๊ค
03:24
This is something that's sweepingการกวาด the Webเว็บ.
74
189000
2000
มันกำลังลามไปทั่วอินเทอร์เน็ต
03:26
There are a wholeทั้งหมด hostเจ้าภาพ of companiesบริษัท that are doing this kindชนิด of personalizationส่วนบุคคล.
75
191000
3000
มีบริษัทมากมายที่ทำแบบเดียวกัน
03:29
Yahooyahoo Newsข่าว, the biggestที่ใหญ่ที่สุด newsข่าว siteเว็บไซต์ on the Internetอินเทอร์เน็ต,
76
194000
3000
ยาฮูนิวส์ เว็บไซต์ข่าวที่ใหญ่ที่สุดบนอินเทอร์เน็ต
03:32
is now personalizedส่วนบุคคล -- differentต่าง people get differentต่าง things.
77
197000
3000
ก็ได้ปรับแต่งบริการให้เข้ากับแต่ละบุคคลแล้วเหมือนกัน
03:36
HuffingtonHuffington Postเสา, the Washingtonวอชิงตัน Postเสา, the Newใหม่ Yorkนิวยอร์ก Timesไทม์ส --
78
201000
3000
ฮัฟฟิงตันโพสต์ วอชิงตันโพสต์ นิวยอร์คไทมส์
03:39
all flirtingความเจ้าชู้ with personalizationส่วนบุคคล in variousต่างๆ waysวิธี.
79
204000
3000
ก็ปรับแต่งด้วยวิธีต่างๆ
03:42
And this movesการเคลื่อนไหว us very quicklyอย่างรวดเร็ว
80
207000
3000
และมันกำลังผลักดันเรา
03:45
towardไปทาง a worldโลก in whichที่
81
210000
2000
ไปสู่โลกที่อินเทอร์เน็ต
03:47
the Internetอินเทอร์เน็ต is showingการแสดง us what it thinksคิดว่า we want to see,
82
212000
4000
แสดงให้เราเห็นสิ่งที่มันคิดว่าเราอยากเห็น
03:51
but not necessarilyจำเป็นต้อง what we need to see.
83
216000
3000
แต่ไม่จำเป็นว่าเป็นสิ่งที่เราควรจะเห็น
03:54
As Ericเอริค Schmidtชมิดท์ said,
84
219000
3000
ดังที่ เอริค ชมิดต์ ได้กล่าวไว้ว่า
03:57
"It will be very hardยาก for people to watch or consumeบริโภค something
85
222000
3000
"มันจะเป็นไปได้ยาก ที่จะให้ผู้คนดูหรือบริโภค
04:00
that has not in some senseความรู้สึก
86
225000
2000
สิ่งที่ไม่ได้ถูกปรับแต่ง
04:02
been tailoredปรับปรุง for them."
87
227000
3000
มาเพื่อพวกเขาเลย"
04:05
So I do think this is a problemปัญหา.
88
230000
2000
ผมคิดว่านี่เป็นปัญหา
04:07
And I think, if you take all of these filtersฟิลเตอร์ togetherด้วยกัน,
89
232000
3000
และผมคิดว่าถ้าคุณเอาตัวกรองทั้งหมดนี้
04:10
you take all these algorithmsอัลกอริทึม,
90
235000
2000
เอาอัลกอริทึมทั้งหมดมารวมกัน
04:12
you get what I call a filterกรอง bubbleฟอง.
91
237000
3000
คุณจะได้ ฟองสบู่จากการกรองข้อมูล
04:16
And your filterกรอง bubbleฟอง is your ownด้วยตัวเอง personalส่วนบุคคล,
92
241000
3000
และฟองสบู่นี้ของคุณ
04:19
uniqueเป็นเอกลักษณ์ universeจักรวาล of informationข้อมูล
93
244000
2000
ก็เป็นโลกแห่งข้อมูลของคุณคนเดียว
04:21
that you liveมีชีวิต in onlineออนไลน์.
94
246000
2000
ที่คุณมีบนอินเทอร์เน็ต
04:23
And what's in your filterกรอง bubbleฟอง
95
248000
3000
และสิ่งที่อยู่ในฟองสบู่ของคุณ
04:26
dependsขึ้นอยู่กับ on who you are, and it dependsขึ้นอยู่กับ on what you do.
96
251000
3000
ขึ้นอยู่กับว่าคุณคือใครและคุณทำอะไร
04:29
But the thing is that you don't decideตัดสิน what getsได้รับ in.
97
254000
4000
แต่คุณไม่ได้เป็นผู้ตัดสินใจว่าจะใส่อะไรลงไปบ้าง
04:33
And more importantlyที่สำคัญ,
98
258000
2000
และที่สำคัญกว่านั้น
04:35
you don't actuallyแท้จริง see what getsได้รับ editedแก้ไข out.
99
260000
3000
คุณไม่รู้ว่าอะไรถูกกรองออกไปบ้าง
04:38
So one of the problemsปัญหาที่เกิดขึ้น with the filterกรอง bubbleฟอง
100
263000
2000
ปัญหาหนึ่งของการกรองข้อมูลนี้
04:40
was discoveredค้นพบ by some researchersนักวิจัย at NetflixNetflix.
101
265000
3000
ถูกค้นพบโดยนักวิจัยที่ เน็ตฟลิกซ์
04:43
And they were looking at the NetflixNetflix queuesคิว, and they noticedสังเกตเห็น something kindชนิด of funnyตลก
102
268000
3000
พวกเขามองการใช้งานเว็บเน็ตฟลิกซ์ แล้วค้นพบอะไรบางอย่าง
04:46
that a lot of us probablyอาจ have noticedสังเกตเห็น,
103
271000
2000
ซึ่งพวกเราหลายคนก็คงพบเช่นกัน
04:48
whichที่ is there are some moviesภาพยนตร์
104
273000
2000
มีหนังบางเรื่อง
04:50
that just sortประเภท of zipซิป right up and out to our housesบ้าน.
105
275000
3000
ที่ส่งตรงถึงบ้านเราได้ในทันที
04:53
They enterเข้าสู่ the queueคิว, they just zipซิป right out.
106
278000
3000
เรากดเข้าคิว แล้วมันก็มาถึงเลย
04:56
So "Ironเหล็ก Man" zipsรหัสไปรษณีย์ right out,
107
281000
2000
เช่น "Iron Man" ถูกส่งมาในทันที
04:58
and "Waitingที่รอ for Supermanยอดมนุษย์"
108
283000
2000
แต่ "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
ก็ทำให้เรารอนานเหลือเกิน
05:02
What they discoveredค้นพบ
110
287000
2000
สิ่งที่เขาค้นพบ
05:04
was that in our NetflixNetflix queuesคิว
111
289000
2000
ก็คือในคิวของเรา
05:06
there's this epicมหากาพย์ struggleการต่อสู้ going on
112
291000
3000
มีการฉุดรั้งกันอยู่
05:09
betweenระหว่าง our futureอนาคต aspirationalแรงบันดาลใจ selvesตัว
113
294000
3000
ระหว่างตัวตนที่เราอยากเป็นในอนาคต
05:12
and our more impulsiveห่าม presentนำเสนอ selvesตัว.
114
297000
3000
กับตัวตนซึ่งใจร้อนของเราในปัจจุบัน
05:15
You know we all want to be someoneบางคน
115
300000
2000
พวกเราทุกคนอยากเป็น
05:17
who has watchedดู "RashomonRashomon,"
116
302000
2000
คนที่เคยดู "ราโชมอน"
05:19
but right now
117
304000
2000
แต่ตอนนี้
05:21
we want to watch "Aceคนเก่ง Venturaเวนทูรา" for the fourthที่สี่ time.
118
306000
3000
เราอยากดู "วงศ์คำเหลา" เป็นรอบที่สี่
05:24
(Laughterเสียงหัวเราะ)
119
309000
3000
(เสียงหัวเราะ)
05:27
So the bestดีที่สุด editingการตัดต่อ givesจะช่วยให้ us a bitบิต of bothทั้งสอง.
120
312000
2000
เพราะฉะนั้นการคัดกรองที่ดีควรให้เราทั้งสองอย่าง
05:29
It givesจะช่วยให้ us a little bitบิต of Justinจัสติน BieberBieber
121
314000
2000
ทั้งจัสติน บีเบอร์บ้าง
05:31
and a little bitบิต of Afghanistanอัฟกานิสถาน.
122
316000
2000
และเรื่องอัฟกานิสถานบ้าง
05:33
It givesจะช่วยให้ us some informationข้อมูล vegetablesผัก;
123
318000
2000
มันให้ข้อมูลประเทืองปัญญาเราบ้าง
05:35
it givesจะช่วยให้ us some informationข้อมูล dessertขนม.
124
320000
3000
แต่ก็ให้ของหวานให้เราผ่อนคลายด้วย
05:38
And the challengeท้าทาย with these kindsชนิด of algorithmicอัลกอริทึม filtersฟิลเตอร์,
125
323000
2000
และความท้าทายของอัลกอริทึมที่ใช้กรองเหล่านี้
05:40
these personalizedส่วนบุคคล filtersฟิลเตอร์,
126
325000
2000
การกรองเฉพาะบุคคลเหล่านี้
05:42
is that, because they're mainlyส่วนใหญ่ looking
127
327000
2000
ก็คือ การที่มันมองแค่ว่า
05:44
at what you clickคลิก on first,
128
329000
4000
เราคลิกอะไรก่อน
05:48
it can throwโยน off that balanceสมดุล.
129
333000
4000
ทำให้เสียสมดุลนั้นไป
05:52
And insteadแทน of a balancedสมดุลย์ informationข้อมูล dietอาหาร,
130
337000
3000
และแทนที่จะได้ข้อมูลที่ครบถ้วนทุกหมู่
05:55
you can endปลาย up surroundedล้อมรอบ
131
340000
2000
เราอาจจะได้แค่
05:57
by informationข้อมูล junkขยะ foodอาหาร.
132
342000
2000
ข้อมูลขยะ
05:59
What this suggestsแสดงให้เห็น
133
344000
2000
สิ่งที่เราเห็นคือ
06:01
is actuallyแท้จริง that we mayอาจ have the storyเรื่องราว about the Internetอินเทอร์เน็ต wrongไม่ถูกต้อง.
134
346000
3000
เราอาจจะมองภาพของอินเทอร์เน็ตผิดไป
06:04
In a broadcastออกอากาศ societyสังคม --
135
349000
2000
ในสังคมแห่งการกระจายข่าวสาร --
06:06
this is how the foundingคำวินิจฉัย mythologyตำนาน goesไป --
136
351000
2000
นี่คือตำนานเริ่มแรกนะ --
06:08
in a broadcastออกอากาศ societyสังคม,
137
353000
2000
ในสังคมแห่งการกระจายข่าวสาร
06:10
there were these gatekeepersคนเฝ้าประตู, the editorsบรรณาธิการ,
138
355000
2000
เรามีผู้คุมประตู หรือบรรณาธิการ
06:12
and they controlledถูกควบคุม the flowsไหล of informationข้อมูล.
139
357000
3000
เป็นผู้คุมการกระจายของข้อมูล
06:15
And alongตาม cameมา the Internetอินเทอร์เน็ต and it sweptกวาด them out of the way,
140
360000
3000
แล้วอินเทอร์เน็ตก็เข้ามากวาดเอาหน้าที่เหล่านั้นออกไป
06:18
and it allowedได้รับอนุญาต all of us to connectต่อ togetherด้วยกัน,
141
363000
2000
และทำให้พวกเราได้เชื่อมต่อเข้าด้วยกัน
06:20
and it was awesomeน่ากลัว.
142
365000
2000
มันเจ๋งเลยล่ะ
06:22
But that's not actuallyแท้จริง what's happeningสิ่งที่เกิดขึ้น right now.
143
367000
3000
แต่นั่นไม่ใช่สิ่งที่กำลังเกิดขึ้น
06:26
What we're seeingเห็น is more of a passingที่ผ่านไป of the torchไฟฉาย
144
371000
3000
สิ่งที่เราเห็นตอนนี้ เหมือนการเปลี่ยนไม้ผลัด
06:29
from humanเป็นมนุษย์ gatekeepersคนเฝ้าประตู
145
374000
2000
จากบรรณาธิการที่เป็นมนุษย์
06:31
to algorithmicอัลกอริทึม onesคน.
146
376000
3000
ไปเป็นอัลกอริทึมแทน
06:34
And the thing is that the algorithmsอัลกอริทึม
147
379000
3000
และปัญหาก็คือ อัลกอริทึมพวกนี้
06:37
don't yetยัง have the kindชนิด of embeddedที่ฝัง ethicsจริยธรรม
148
382000
3000
ยังไม่เข้าใจหลักจรรยาบรรณ
06:40
that the editorsบรรณาธิการ did.
149
385000
3000
ที่บรรณาธิการมี
06:43
So if algorithmsอัลกอริทึม are going to curateพระสอนศาสนา the worldโลก for us,
150
388000
3000
ดังนั้น หากเราจะให้อัลกอริทึมพวกนี้ คอยดูแลข้อมูลให้เรา
06:46
if they're going to decideตัดสิน what we get to see and what we don't get to see,
151
391000
3000
หากมันจะตัดสินใจให้ ว่าเราควรเห็นอะไร และไม่ควรเห็นอะไร
06:49
then we need to make sure
152
394000
2000
เราก็ควรจะต้องมั่นใจได้ว่า
06:51
that they're not just keyedคีย์ to relevanceความสัมพันธ์กัน.
153
396000
3000
มันไม่ได้แสดงเพียงสิ่งที่สัมพันธ์กับเราอย่างเดียว
06:54
We need to make sure that they alsoด้วย showแสดง us things
154
399000
2000
เราต้องมั่นใจได้ว่ามันจะแสดง
06:56
that are uncomfortableอึดอัด or challengingการท้าทาย or importantสำคัญ --
155
401000
3000
สิ่งที่เราไม่สบายใจที่จะดู สิ่งที่ท้าทาย หรือสิ่งที่สำคัญต่อเราเช่นกัน --
06:59
this is what TEDTED does --
156
404000
2000
และนี่คือสิ่งที่ TED ทำ --
07:01
other pointsจุด of viewดู.
157
406000
2000
แสดงมุมมองของคนอื่น
07:03
And the thing is, we'veเราได้ actuallyแท้จริง been here before
158
408000
2000
และเราก็เคยผ่านจุดนี้มาก่อนแล้ว
07:05
as a societyสังคม.
159
410000
2000
ในฐานะสังคมเดียวกัน
07:08
In 1915, it's not like newspapersหนังสือพิมพ์ were sweatingการขับเหงื่อ a lot
160
413000
3000
ในปี 1915 เหล่าหนังสือพิมพ์ยังไม่ค่อยเข้าใจ
07:11
about theirของพวกเขา civicของเทศบาล responsibilitiesความรับผิดชอบ.
161
416000
3000
เรื่องความรับผิดชอบต่อสังคมเท่าไหร่นัก
07:14
Then people noticedสังเกตเห็น
162
419000
2000
แล้วผู้คนก็เริ่มสังเกตเห็น
07:16
that they were doing something really importantสำคัญ.
163
421000
3000
ว่าพวกเขากำลังทำหน้าที่สำคัญ
07:19
That, in factความจริง, you couldn'tไม่สามารถ have
164
424000
2000
ที่ว่าคุณไม่สามารถ
07:21
a functioningการทำงาน democracyประชาธิปไตย
165
426000
2000
มีประชาธิปไตยที่แท้จริงได้
07:23
if citizensประชา didn't get a good flowไหล of informationข้อมูล,
166
428000
4000
หากประชาชนไม่ได้ข้อมูลที่ครบถ้วน
07:28
that the newspapersหนังสือพิมพ์ were criticalวิกฤติ because they were actingการแสดง as the filterกรอง,
167
433000
3000
และหนังสือพิมพ์ก็เป็นส่วนสำคัญ เพราะมันทำหน้าที่เหมือนตัวกรอง
07:31
and then journalisticหนังสือพิมพ์ ethicsจริยธรรม developedพัฒนา.
168
436000
2000
แล้วจรรยาบรรณนักข่าว ก็ถือกำเนิดขึ้น
07:33
It wasn'tก็ไม่ได้ perfectสมบูรณ์,
169
438000
2000
มันไม่ได้สมบูรณ์แบบ
07:35
but it got us throughตลอด the last centuryศตวรรษ.
170
440000
3000
แต่มันก็ทำให้เราก้าวผ่านศตวรรษนั้นมาได้
07:38
And so now,
171
443000
2000
ดังนั้น ในตอนนี้
07:40
we're kindชนิด of back in 1915 on the Webเว็บ.
172
445000
3000
เราเหมือนย้อนกลับไปที่ปี 1915 บนอินเทอร์เน็ต
07:44
And we need the newใหม่ gatekeepersคนเฝ้าประตู
173
449000
3000
และเราต้องการผู้คุมประตูคนใหม่
07:47
to encodeเปลี่ยนเป็นรหัส that kindชนิด of responsibilityความรับผิดชอบ
174
452000
2000
ที่สามารถเข้าใจความรับผิดชอบแบบเดิม
07:49
into the codeรหัส that they're writingการเขียน.
175
454000
2000
และนำมันเข้าไปอยู่ในโค้ดของระบบ
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
ผมรู้ว่าในที่นี้มีหลายคนที่มาจากเฟสบุ๊คและกูเกิล
07:54
Larryแลร์รี่ and SergeySergey --
177
459000
2000
แลร์รี่ และ เซอร์เกย์ --
07:56
people who have helpedช่วย buildสร้าง the Webเว็บ as it is,
178
461000
2000
ผู้คนที่ช่วยสร้างอินเทอร์เน็ตให้เป็นอย่างที่มันเป็นอยู่
07:58
and I'm gratefulกตัญญู for that.
179
463000
2000
ผมรู้สึกซาบซึ้งมาก
08:00
But we really need you to make sure
180
465000
3000
แต่เราต้องมั่นใจให้ได้ว่า
08:03
that these algorithmsอัลกอริทึม have encodedเข้ารหัส in them
181
468000
3000
อัลกอริทึมเหล่านี้รู้จัก
08:06
a senseความรู้สึก of the publicสาธารณะ life, a senseความรู้สึก of civicของเทศบาล responsibilityความรับผิดชอบ.
182
471000
3000
ความหมายของบ้านเมือง และความรับผิดชอบต่อสังคม
08:09
We need you to make sure that they're transparentโปร่งใส enoughพอ
183
474000
3000
เราต้องการให้คุณแน่ใจว่า สิ่งเหล่านี้โปร่งใสเพียงพอ
08:12
that we can see what the rulesกฎระเบียบ are
184
477000
2000
ที่ทำให้เรารู้ว่ามีกฎอะไรบ้าง
08:14
that determineกำหนด what getsได้รับ throughตลอด our filtersฟิลเตอร์.
185
479000
3000
ที่กำหนดว่าอะไรจะถูกกรองเข้าออก
08:17
And we need you to give us some controlควบคุม
186
482000
2000
และเราต้องการควบคุมมันบ้าง
08:19
so that we can decideตัดสิน
187
484000
2000
เพื่อที่เราจะตัดสินใจ
08:21
what getsได้รับ throughตลอด and what doesn't.
188
486000
3000
ว่าเราต้องการ หรือไม่ต้องการเห็นอะไร
08:24
Because I think
189
489000
2000
เพราะผมคิดว่า
08:26
we really need the Internetอินเทอร์เน็ต to be that thing
190
491000
2000
เราต้องการให้อินเทอร์เน็ตเป็นสิ่งนั้น
08:28
that we all dreamedฝัน of it beingกำลัง.
191
493000
2000
ที่เราฝันอยากให้มันเป็น
08:30
We need it to connectต่อ us all togetherด้วยกัน.
192
495000
3000
เราต้องการมัน เพื่อเชื่อมเราทุกคนเข้าด้วยกัน
08:33
We need it to introduceแนะนำ us to newใหม่ ideasความคิด
193
498000
3000
เราต้องการมัน เพื่อค้นพบสิ่งใหม่ๆ
08:36
and newใหม่ people and differentต่าง perspectivesมุมมอง.
194
501000
3000
ผู้คนใหม่ๆ และมุมมองใหม่ๆ
08:40
And it's not going to do that
195
505000
2000
และมันจะทำสิ่งเหล่านั้นไม่ได้เลย
08:42
if it leavesใบไม้ us all isolatedเปลี่ยว in a Webเว็บ of one.
196
507000
3000
ถ้ามันปล่อยเราให้โดดเดี่ยวอยู่เพียงแค่ในเว็บของเรา
08:45
Thank you.
197
510000
2000
ขอบคุณครับ
08:47
(Applauseการปรบมือ)
198
512000
11000
(เสียงปรบมือ)

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com