ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Waspadai "gelembung filter" online

Filmed:
5,309,238 views

Seiring perusahaan internet mencoba untuk menyesuaikan layanan mereka (termasuk berita dan hasil pencarian) dengan selera pribadi kita, ada konsekuensi berbahaya yang tidak disengaja. Kita menjadi terjebak di dalam "gelembung filter" dan tidak terhubung ke informasi yang dapat menantang atau memperluas pandangan dunia kita. Eli Pariser berpendapat dengan kuat bahwa ini akhirnya menjadi buruk bagi kita dan buruk bagi demokrasi.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistwartawan was askingmeminta him a questionpertanyaan about the newsberita feedmakan.
1
2000
3000
seorang wartawan menanyakan padanya pertanyaan tentang feed berita.
00:20
And the journalistwartawan was askingmeminta him,
2
5000
2000
Dan wartawan itu menanyakan kepadanya,
00:22
"Why is this so importantpenting?"
3
7000
2000
"Mengapa ini sangat penting?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Dan Zuckerberg menjawab,
00:26
"A squirrelTupai dyingsekarat in your frontdepan yardHalaman
5
11000
2000
"Seekor tupai yang sekarat di halaman depan Anda
00:28
maymungkin be more relevantrelevan to your interestsminat right now
6
13000
3000
mungkin lebih relevan dengan minat Anda sekarang
00:31
than people dyingsekarat in AfricaAfrika."
7
16000
3000
dibandingkan orang-orang sekarat di Afrika."
00:34
And I want to talk about
8
19000
2000
Dan saya ingin berbicara tentang
00:36
what a WebWeb basedberbasis on that ideaide of relevancerelevansi mightmungkin look like.
9
21000
3000
bagaimana sebuah Web yang didasari pemikiran relevansi itu akan terlihat.
00:40
So when I was growingpertumbuhan up
10
25000
2000
Ketika saya tumbuh dewasa
00:42
in a really ruralpedesaan areadaerah in MaineMaine,
11
27000
2000
di daerah yang sangat pedesaan di Maine,
00:44
the InternetInternet meantberarti something very differentberbeda to me.
12
29000
3000
Internet berarti sangat berbeda bagi saya.
00:47
It meantberarti a connectionkoneksi to the worlddunia.
13
32000
2000
Ia berarti koneksi ke dunia.
00:49
It meantberarti something that would connectmenghubungkan us all togetherbersama.
14
34000
3000
Ia berarti sesuatu yang dapat menghubungkan kita semua.
00:52
And I was sure that it was going to be great for democracydemokrasi
15
37000
3000
Dan saya yakin Internet akan sangat bagus untuk demokrasi
00:55
and for our societymasyarakat.
16
40000
3000
dan untuk masyarakat kita.
00:58
But there's this shiftbergeser
17
43000
2000
Tetapi ada perubahan
01:00
in how informationinformasi is flowingmengalir onlineon line,
18
45000
2000
dalam bagaimana informasi mengalir online,
01:02
and it's invisibletak terlihat.
19
47000
3000
dan ini tidak terlihat.
01:05
And if we don't paymembayar attentionperhatian to it,
20
50000
2000
Dan jika kita tidak memperhatikannya,
01:07
it could be a realnyata problemmasalah.
21
52000
3000
ini dapat menjadi masalah nyata.
01:10
So I first noticedmelihat this in a placetempat I spendmenghabiskan a lot of time --
22
55000
3000
Jadi pertama kali saya memperhatikan ini di tempat saya menghabiskan banyak waktu --
01:13
my FacebookFacebook pagehalaman.
23
58000
2000
halaman Facebook saya.
01:15
I'm progressiveprogresif, politicallysecara politis -- bigbesar surprisemengherankan --
24
60000
3000
Saya progresif secara politik -- kejutan besar --
01:18
but I've always gonepergi out of my way to meetmemenuhi conservativeskonservatif.
25
63000
2000
tetapi saya selalu berusaha untuk bertemu dengan para konservatif
01:20
I like hearingpendengaran what they're thinkingberpikir about;
26
65000
2000
Saya suka mendengar apa yang mereka pikirkan;
01:22
I like seeingmelihat what they linklink to;
27
67000
2000
Saya suka melihat yang mereka tautkan;
01:24
I like learningbelajar a thing or two.
28
69000
2000
Saya suka belajar satu dua hal.
01:26
And so I was surprisedterkejut when I noticedmelihat one day
29
71000
3000
Dan saya terkejut waktu satu hari saya perhatikan
01:29
that the conservativeskonservatif had disappearedlenyap from my FacebookFacebook feedmakan.
30
74000
3000
bahwa para konservatif telah menghilang dari Facebook feed saya.
01:33
And what it turnedberbalik out was going on
31
78000
2000
Dan ternyata yang terjadi
01:35
was that FacebookFacebook was looking at whichyang linkslink I clickeddiklik on,
32
80000
4000
adalah bahwa Facebook melihat tautan mana yang saya klik,
01:39
and it was noticingmemperhatikan that, actuallysebenarnya,
33
84000
2000
dan FB mengetahui bahwa, sebenarnya,
01:41
I was clickingklik more on my liberalLiberal friends'teman-teman' linkslink
34
86000
2000
Saya mengklik lebih banyak tautan dari teman-teman liberal saya
01:43
than on my conservativekonservatif friends'teman-teman' linkslink.
35
88000
3000
dibanding tautan dari teman-teman konservatif saya.
01:46
And withouttanpa consultingkonsultasi me about it,
36
91000
2000
Dan tanpa menanyakan saya tentang itu,
01:48
it had editeddiedit them out.
37
93000
2000
mereka telah diedit.
01:50
They disappearedlenyap.
38
95000
3000
Tautan ini menghilang.
01:54
So FacebookFacebook isn't the only placetempat
39
99000
2000
Jadi Facebook bukanlah tempat satu-satunya
01:56
that's doing this kindjenis of invisibletak terlihat, algorithmicalgoritma
40
101000
2000
yang melakukan pengeditan secara tidak terlihat, secara algoritmik
01:58
editingmengedit of the WebWeb.
41
103000
3000
terhadap Web.
02:01
Google'sGoogle doing it too.
42
106000
2000
Google juga melakukannya.
02:03
If I searchpencarian for something, and you searchpencarian for something,
43
108000
3000
Jika saya mencari sesuatu, dan Anda mencari sesuatu,
02:06
even right now at the very samesama time,
44
111000
2000
bahkan sekarang pada saat yang bersamaan,
02:08
we maymungkin get very differentberbeda searchpencarian resultshasil.
45
113000
3000
kita akan mendapatkan hasil pencarian yang sangat berbeda.
02:11
Even if you're loggedlogin out, one engineerinsinyur told me,
46
116000
3000
Bahkan jika Anda telah keluar, seorang insinyur mengatakan kepada saya,
02:14
there are 57 signalssinyal
47
119000
2000
ada 57 sinyal
02:16
that GoogleGoogle looksterlihat at --
48
121000
3000
yang Google lihat --
02:19
everything from what kindjenis of computerkomputer you're on
49
124000
3000
semua dari komputer apa yang Anda dipakai,
02:22
to what kindjenis of browserbrowser you're usingmenggunakan
50
127000
2000
dari browser apa yang dipakai Anda,
02:24
to where you're locatedterletak --
51
129000
2000
dimana Anda berada --
02:26
that it usesmenggunakan to personallysendiri tailorpenjahit your queryquery resultshasil.
52
131000
3000
yang dipakai untuk menyesuaikan hasil pertanyaan Anda.
02:29
Think about it for a secondkedua:
53
134000
2000
Pikirkanlah sebentar:
02:31
there is no standardstandar GoogleGoogle anymorelagi.
54
136000
4000
sudah tidak ada Google standar lagi.
02:35
And you know, the funnylucu thing about this is that it's hardkeras to see.
55
140000
3000
Dan tahukah Anda, yang lucu dari hal ini adalah ini sulit untuk dilihat.
02:38
You can't see how differentberbeda your searchpencarian resultshasil are
56
143000
2000
Anda tidak dapat melihat bagaimana hasil pencarian Anda berbeda
02:40
from anyonesiapa saja else'slainnya.
57
145000
2000
dari orang lain.
02:42
But a couplepasangan of weeksminggu agolalu,
58
147000
2000
Tetapi dua minggu lalu,
02:44
I askedtanya a bunchbanyak of friendsteman to GoogleGoogle "EgyptMesir"
59
149000
3000
Saya tanya beberapa orang untuk mencari "Mesir" di Google
02:47
and to sendKirim me screenlayar shotstembakan of what they got.
60
152000
3000
dan mengirimkan saya gambar layar yang mereka dapatkan.
02:50
So here'sini my friendteman Scott'sScott screenlayar shottembakan.
61
155000
3000
Jadi ini gambar layar milik Scott teman saya.
02:54
And here'sini my friendteman Daniel'sDaniel screenlayar shottembakan.
62
159000
3000
Dan ini gambar layar milik teman saya Daniel.
02:57
When you put them side-by-sidebersebelahan,
63
162000
2000
Jika Anda letakan mereka berdekatan,
02:59
you don't even have to readBaca baca the linkslink
64
164000
2000
Anda tidak harus melihat tautannya
03:01
to see how differentberbeda these two pageshalaman are.
65
166000
2000
untuk melihat bagaimana dua halaman ini berbeda.
03:03
But when you do readBaca baca the linkslink,
66
168000
2000
Tapi jika Anda membaca tautannya,
03:05
it's really quitecukup remarkableluar biasa.
67
170000
3000
ini sangat luar biasa.
03:09
DanielDaniel didn't get anything about the protestsprotes in EgyptMesir at all
68
174000
3000
Daniel tidak mendapatkan apapun tentang protes di Mesir
03:12
in his first pagehalaman of GoogleGoogle resultshasil.
69
177000
2000
di halaman pertama hasil pencarian Googlenya.
03:14
Scott'sScott resultshasil were fullpenuh of them.
70
179000
2000
Di hasil Scott ada banyak sekali.
03:16
And this was the bigbesar storycerita of the day at that time.
71
181000
2000
Dan inilah cerita besar di hari itu.
03:18
That's how differentberbeda these resultshasil are becomingmenjadi.
72
183000
3000
Itulah bagaimana hasil pencarian ini menjadi berbeda.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherantara.
73
186000
3000
Jadi ini bukan hanya Google dan Facebook saja.
03:24
This is something that's sweepingluas the WebWeb.
74
189000
2000
Ini adalah sesuatu yang melanda seluruh Web.
03:26
There are a wholeseluruh hosttuan rumah of companiesperusahaan that are doing this kindjenis of personalizationpersonalisasi.
75
191000
3000
Ada banyak perusahaan yang melakukan personalisasi semacam ini.
03:29
YahooYahoo NewsBerita, the biggestterbesar newsberita sitesitus on the InternetInternet,
76
194000
3000
Yahoo News, portal berita terbesar di Internet,
03:32
is now personalizedpersonalisasi -- differentberbeda people get differentberbeda things.
77
197000
3000
sekarang sudah dipersonalisasi -- orang berbeda mendapat hasil berbeda.
03:36
HuffingtonHuffington PostPosting, the WashingtonWashington PostPosting, the NewBaru YorkYork TimesKali --
78
201000
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirtingmenggoda with personalizationpersonalisasi in variousberbagai wayscara.
79
204000
3000
semuanya melakukan personalisasi dengan bermacam cara.
03:42
And this movesbergerak us very quicklysegera
80
207000
3000
Dan ini mengantarkan kita dengan sangat cepat
03:45
towardterhadap a worlddunia in whichyang
81
210000
2000
ke dunia dimana
03:47
the InternetInternet is showingmenunjukkan us what it thinksberpikir we want to see,
82
212000
4000
Internet memperlihatkan ke kita apa yang ia pikir kita mau lihat,
03:51
but not necessarilyperlu what we need to see.
83
216000
3000
tetapi bukan berarti yang kita perlu lihat.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Seperti yang Eric Schmidt katakan,
03:57
"It will be very hardkeras for people to watch or consumemengkonsumsi something
85
222000
3000
"Akan sangat sulit bagi orang-orang untuk melihat atau mengkonsumsi sesuatu
04:00
that has not in some sensemerasakan
86
225000
2000
yang dalam arti tertentu belum
04:02
been tailoreddisesuaikan for them."
87
227000
3000
disesuaikan untuk mereka."
04:05
So I do think this is a problemmasalah.
88
230000
2000
Jadi saya pikir ini adalah suatu masalah.
04:07
And I think, if you take all of these filtersfilter togetherbersama,
89
232000
3000
Dan saya pikir, jika Anda ambil semua filter ini,
04:10
you take all these algorithmsalgoritma,
90
235000
2000
Anda ambil semua algoritma ini,
04:12
you get what I call a filtermenyaring bubblegelembung.
91
237000
3000
Anda mendapatkan yang saya sebut gelembung filter.
04:16
And your filtermenyaring bubblegelembung is your ownsendiri personalpribadi,
92
241000
3000
Dan gelembung filter Anda adalah dunia informasi milik Anda sendiri
04:19
uniqueunik universealam semesta of informationinformasi
93
244000
2000
yang unik
04:21
that you livehidup in onlineon line.
94
246000
2000
yang anda tinggali waktu online.
04:23
And what's in your filtermenyaring bubblegelembung
95
248000
3000
Dan apa yang ada di gelembung filter Anda
04:26
dependstergantung on who you are, and it dependstergantung on what you do.
96
251000
3000
tergantung dari siapa Anda, dan tergantung pada apa yang Anda lakukan.
04:29
But the thing is that you don't decidememutuskan what getsmendapat in.
97
254000
4000
Tetapi masalahnya Anda tidak memutuskan apa yang masuk.
04:33
And more importantlypenting,
98
258000
2000
Dan lebih penting lagi,
04:35
you don't actuallysebenarnya see what getsmendapat editeddiedit out.
99
260000
3000
Anda tidak melihat apa yang disunting keluar.
04:38
So one of the problemsmasalah with the filtermenyaring bubblegelembung
100
263000
2000
Jadi salah satu masalah dari gelembung filter
04:40
was discoveredditemukan by some researcherspeneliti at NetflixNetflix.
101
265000
3000
ditemukan oleh beberapa peneliti di Netflix.
04:43
And they were looking at the NetflixNetflix queuesantrian, and they noticedmelihat something kindjenis of funnylucu
102
268000
3000
Mereka melihat antrian Netflix, dan mereka menemukan sesuatu yang lucu
04:46
that a lot of us probablymungkin have noticedmelihat,
103
271000
2000
yang banyak dari kita mungkin perhatikan,
04:48
whichyang is there are some moviesfilm
104
273000
2000
yaitu ada beberapa film
04:50
that just sortmenyortir of zipzip right up and out to our housesrumah.
105
275000
3000
yang sepertinya langsung terkirim ke rumah kita.
04:53
They entermemasukkan the queueantre, they just zipzip right out.
106
278000
3000
Mereka masuk ke antrian, dan mereka langsung terkirim.
04:56
So "IronBesi Man" zipskode Zip right out,
107
281000
2000
Jadi "Iron Man" langsung terkirim,
04:58
and "WaitingMenunggu for SupermanSuperman"
108
283000
2000
dan "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
dapat menunggu untuk waktu yang sangat lama.
05:02
What they discoveredditemukan
110
287000
2000
Yang mereka temukan
05:04
was that in our NetflixNetflix queuesantrian
111
289000
2000
adalah di antrian Netflix kami
05:06
there's this epicepik struggleperjuangan going on
112
291000
3000
ada perjuangan hebat yang terjadi
05:09
betweenantara our futuremasa depan aspirationalaspirasi selvesdiri
113
294000
3000
antara diri kita yang aspiratif di masa mendatang
05:12
and our more impulsiveimpulsif presentmenyajikan selvesdiri.
114
297000
3000
dan diri kita yang impulsif di masa sekarang.
05:15
You know we all want to be someonesome one
115
300000
2000
Anda tahu kita semua mau untuk menjadi seseorang
05:17
who has watcheddiawasi "RashomonRashomon,"
116
302000
2000
yang telah menonton "Rashomon,"
05:19
but right now
117
304000
2000
tetapi sekarang
05:21
we want to watch "AceAce VenturaVentura" for the fourthkeempat time.
118
306000
3000
kita ingin menonton "Ace Ventura" untuk keempat kalinya.
05:24
(LaughterTawa)
119
309000
3000
(Tawa)
05:27
So the bestterbaik editingmengedit givesmemberi us a bitsedikit of bothkedua.
120
312000
2000
Jadi pengeditan yang terbaik memberi kita keduanya.
05:29
It givesmemberi us a little bitsedikit of JustinJustin BieberBieber
121
314000
2000
Ia memberi kita sedikit Justin Beiber
05:31
and a little bitsedikit of AfghanistanAfghanistan.
122
316000
2000
dan sedikit Afghanistan.
05:33
It givesmemberi us some informationinformasi vegetablesSayuran;
123
318000
2000
Ia memberi kita beberapa sayuran informasi,
05:35
it givesmemberi us some informationinformasi dessertmakanan penutup.
124
320000
3000
Ia memberi kita beberapa makanan penutup informasi.
05:38
And the challengetantangan with these kindsmacam of algorithmicalgoritma filtersfilter,
125
323000
2000
Dan tantangannya dengan sejenis filter algoritmik ini,
05:40
these personalizedpersonalisasi filtersfilter,
126
325000
2000
filter yang telah disesuaikan seperti ini,
05:42
is that, because they're mainlyterutama looking
127
327000
2000
adalah, karena mereka pada dasarnya mencari
05:44
at what you clickklik on first,
128
329000
4000
apa yang Anda klik pertama kali,
05:48
it can throwmelemparkan off that balancekeseimbangan.
129
333000
4000
itu akan menjadikannya tidak seimbang.
05:52
And insteadsebagai gantinya of a balancedseimbang informationinformasi dietdiet,
130
337000
3000
Dan bukannya informasi diet seimbang,
05:55
you can endakhir up surroundedterkepung
131
340000
2000
Anda akhirnya dapat terkepung
05:57
by informationinformasi junksampah foodmakanan.
132
342000
2000
oleh informasi junk food.
05:59
What this suggestsmenyarankan
133
344000
2000
Apa yang ini tunjukkan
06:01
is actuallysebenarnya that we maymungkin have the storycerita about the InternetInternet wrongsalah.
134
346000
3000
adalah nyatanya kita mungkin telah mendapatkan cerita tentang Internet dengan salah.
06:04
In a broadcastSiaran societymasyarakat --
135
349000
2000
Di masyarakat penyiaran --
06:06
this is how the foundingpendiri mythologymitologi goespergi --
136
351000
2000
ini adalah bagaimana mitologi pendiri mengatakan --
06:08
in a broadcastSiaran societymasyarakat,
137
353000
2000
di masyarakat siaran,
06:10
there were these gatekeeperspenjaga pintu, the editorsEditor,
138
355000
2000
ada penjaga gerbang, sang editor,
06:12
and they controlleddikendalikan the flowsmengalir of informationinformasi.
139
357000
3000
dan mereka mengkontrol aliran informasi.
06:15
And alongsepanjang camedatang the InternetInternet and it sweptmenyapu them out of the way,
140
360000
3000
Dan akhirnya datang Internet dan ia menyapu mereka keluar,
06:18
and it alloweddiizinkan all of us to connectmenghubungkan togetherbersama,
141
363000
2000
dan ia memungkinkan kita untuk terhubung satu sama lain,
06:20
and it was awesomemengagumkan.
142
365000
2000
dan ini sangat luar biasa.
06:22
But that's not actuallysebenarnya what's happeningkejadian right now.
143
367000
3000
Tetapi ini bukanlah apa yang nyatanya terjadi sekarang.
06:26
What we're seeingmelihat is more of a passinglewat of the torchobor
144
371000
3000
Apa yang kita lihat adalah pemindahan obor
06:29
from humanmanusia gatekeeperspenjaga pintu
145
374000
2000
dari penjaga gerbang manusia
06:31
to algorithmicalgoritma onesyang.
146
376000
3000
ke penjaga gawang algoritmik.
06:34
And the thing is that the algorithmsalgoritma
147
379000
3000
Dan masalahnya adalah algoritma
06:37
don't yetnamun have the kindjenis of embeddedtertanam ethicsEtika
148
382000
3000
belum memiliki etika yang tersirat
06:40
that the editorsEditor did.
149
385000
3000
yang para editor punya.
06:43
So if algorithmsalgoritma are going to curatependeta pembantu the worlddunia for us,
150
388000
3000
Jadi jika algoritma akan menyediakan dunia untuk kita,
06:46
if they're going to decidememutuskan what we get to see and what we don't get to see,
151
391000
3000
jika mereka akan memutuskan apa yang dapat kita lihat dan apa yang tidak bisa kita lihat,
06:49
then we need to make sure
152
394000
2000
jadi kita perlu untuk memastikan
06:51
that they're not just keyedmengetik to relevancerelevansi.
153
396000
3000
bahwa mereka bukan saja diprogram untuk relevansi.
06:54
We need to make sure that they alsojuga showmenunjukkan us things
154
399000
2000
Kita perlu pastikan bahwa mereka juga menunjukan kita hal-hal
06:56
that are uncomfortabletidak nyaman or challengingmenantang or importantpenting --
155
401000
3000
yang tidak nyaman atau menantang atau penting --
06:59
this is what TEDTED does --
156
404000
2000
inilah yang TED lakukan --
07:01
other pointspoin of viewmelihat.
157
406000
2000
sudut pandang orang lain.
07:03
And the thing is, we'vekita sudah actuallysebenarnya been here before
158
408000
2000
Dan sebenarnya kita pernah berada disini sebelumnya
07:05
as a societymasyarakat.
159
410000
2000
sebagai sebuah masyarakat.
07:08
In 1915, it's not like newspaperskoran were sweatingberkeringat a lot
160
413000
3000
Di 1915, tidaklah seperti koran memikirkan banyak
07:11
about theirmereka civickewarganegaraan responsibilitiestanggung jawab.
161
416000
3000
tentang tanggung jawab mereka sebagai warna negara.
07:14
Then people noticedmelihat
162
419000
2000
Lalu orang-orang memperhatikan
07:16
that they were doing something really importantpenting.
163
421000
3000
Bahwa mereka melakukan sesuatu yang sangat penting.
07:19
That, in factfakta, you couldn'ttidak bisa have
164
424000
2000
Bahwa, sesungguhnya, Anda tidak bisa mendapatkan
07:21
a functioningberfungsi democracydemokrasi
165
426000
2000
demokrasi yang berfungsi
07:23
if citizenswarga didn't get a good flowmengalir of informationinformasi,
166
428000
4000
jika warga negaranya tidak mendapatkan aliran informasi yang baik.
07:28
that the newspaperskoran were criticalkritis because they were actingbertindak as the filtermenyaring,
167
433000
3000
Koran sangat penting, karena mereka bertindak sebagai filter,
07:31
and then journalisticjurnalistik ethicsEtika developeddikembangkan.
168
436000
2000
dan akhirnya etika wartawan terbentuk.
07:33
It wasn'ttidak perfectsempurna,
169
438000
2000
Itu tidak sempurna,
07:35
but it got us throughmelalui the last centuryabad.
170
440000
3000
tetap berhasil membawa kita melewati seabad terakhir.
07:38
And so now,
171
443000
2000
Dan sekarang,
07:40
we're kindjenis of back in 1915 on the WebWeb.
172
445000
3000
kita seperti kembali di tahun 1915 di Web.
07:44
And we need the newbaru gatekeeperspenjaga pintu
173
449000
3000
Dan kita perlu penjaga gerbang baru
07:47
to encodemengkodekan that kindjenis of responsibilitytanggung jawab
174
452000
2000
untuk mengkode tanggung jawab seperti ini
07:49
into the codekode that they're writingpenulisan.
175
454000
2000
menjadi kode yang mereka tulis.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Saya tahu banyak orang di sini dari Facebook atau Google --
07:54
LarryLarry and SergeySergey --
177
459000
2000
Larry dan Sergey --
07:56
people who have helpedmembantu buildmembangun the WebWeb as it is,
178
461000
2000
orang-orang yang telah membantu kita membangun Web seperti sekarang,
07:58
and I'm gratefulberterimakasih for that.
179
463000
2000
dan saya berterima kasih untuk itu.
08:00
But we really need you to make sure
180
465000
3000
Tetapi kami sangat memerlukan Anda untuk memastikan
08:03
that these algorithmsalgoritma have encodeddikodekan in them
181
468000
3000
bahwa algoritma-algoritma ini memiliki kode
08:06
a sensemerasakan of the publicpublik life, a sensemerasakan of civickewarganegaraan responsibilitytanggung jawab.
182
471000
3000
rasa dari kehidupan publik, rasa tanggung jawab kewarganegaraan.
08:09
We need you to make sure that they're transparenttransparan enoughcukup
183
474000
3000
Kita perlu Anda untuk memastikan bahwa mereka cukup transparan
08:12
that we can see what the rulesaturan are
184
477000
2000
sehingga kita dapat melihat aturan-aturan
08:14
that determinemenentukan what getsmendapat throughmelalui our filtersfilter.
185
479000
3000
yang menentukan apa yang bisa melewati filter kita.
08:17
And we need you to give us some controlkontrol
186
482000
2000
Dan kita butuh Anda untuk memberi kita kontrol,
08:19
so that we can decidememutuskan
187
484000
2000
sehingga kita bisa memutuskan
08:21
what getsmendapat throughmelalui and what doesn't.
188
486000
3000
apa yang bisa lewat dan apa yang tidak.
08:24
Because I think
189
489000
2000
Karena saya pikir
08:26
we really need the InternetInternet to be that thing
190
491000
2000
kita sangat membutuhkan Internet untuk menjadi sesuatu
08:28
that we all dreamedbermimpi of it beingmakhluk.
191
493000
2000
yang kita impikan.
08:30
We need it to connectmenghubungkan us all togetherbersama.
192
495000
3000
Kita membutuhkannya untuk menghubungkan kita semua.
08:33
We need it to introducememperkenalkan us to newbaru ideaside ide
193
498000
3000
Kita membutuhkannya untuk memperkenalkan kita kepada pemikiran baru
08:36
and newbaru people and differentberbeda perspectivesperspektif.
194
501000
3000
dan orang-orang baru dan perspektif berbeda.
08:40
And it's not going to do that
195
505000
2000
Dan itu tidak akan terjadi
08:42
if it leavesDaun-daun us all isolatedterpencil in a WebWeb of one.
196
507000
3000
jika kita menjadi terisolasi di satu Web.
08:45
Thank you.
197
510000
2000
Terima kasih.
08:47
(ApplauseTepuk tangan)
198
512000
11000
(Tepuk tangan)
Translated by Amir Sudjono
Reviewed by Irma Amelia Muhammad

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com