ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Kujdes nga "flluska filtrash" online

Filmed:
5,309,238 views

Teksa kompanitë web rreken të personalizojnë shërbimet e tyre (përfshi këtu lajmet dhe përfundimet e kërkimeve) sipas shijes së secilit prej nesh, kjo ka një pasojë të pamenduar e të rrezikshme: Ngecim brenda një "flluske filtrash" dhe nuk kemi kontakt me informacione që do të vinin në pikëpyetje ose do të zgjeronin pikëpamjet tona. Eli Pariser shprehet fuqishëm që kjo në fund do të dalë e dëmshme për ne dhe e dëmshme për demokracinë.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Mark Zuckerberg,
0
0
2000
Një gazetar po pyeste
00:17
a journalist was asking him a question about the news feed.
1
2000
3000
Mark Zuckerberg-un rreth prurjes së lajmeve.
00:20
And the journalist was asking him,
2
5000
2000
Dhe gazetari e pyeti,
00:22
"Why is this so important?"
3
7000
2000
"Pse qenka kaq e rëndësishme?"
00:24
And Zuckerberg said,
4
9000
2000
Zuckerberg-u u përgjigj,
00:26
"A squirrel dying in your front yard
5
11000
2000
"Një ketër që po ngordh në bahçen tuaj
00:28
may be more relevant to your interests right now
6
13000
3000
mund të jetë më me rëndësi për ju këtë çast
00:31
than people dying in Africa."
7
16000
3000
sesa njerëzit që vdesin në Afrikë."
00:34
And I want to talk about
8
19000
2000
Dhe unë dua të flas mbi atë se
00:36
what a Web based on that idea of relevance might look like.
9
21000
3000
si do dukej Web-i i bazuar në këtë kuptim të rëndësisë.
00:40
So when I was growing up
10
25000
2000
Gjatë adoleshencës time
00:42
in a really rural area in Maine,
11
27000
2000
në një zonë vërtet rurale në Maine,
00:44
the Internet meant something very different to me.
12
29000
3000
Interneti përfaqësonte diçka krejt të ndryshme për mua.
00:47
It meant a connection to the world.
13
32000
2000
Përfaqësonte një lidhje me botën.
00:49
It meant something that would connect us all together.
14
34000
3000
Përfaqësonte diçka që mund të na lidhte krejt ne me njëri-tjetrin.
00:52
And I was sure that it was going to be great for democracy
15
37000
3000
Dhe isha i sigurt se do të ishte i shkëlqyer për demokracinë
00:55
and for our society.
16
40000
3000
dhe shoqërinë tonë.
00:58
But there's this shift
17
43000
2000
Por ja ku ndodhi kthesa
01:00
in how information is flowing online,
18
45000
2000
në mënyrën se si përhapet informacioni online,
01:02
and it's invisible.
19
47000
3000
dhe që është e padukshme.
01:05
And if we don't pay attention to it,
20
50000
2000
Dhe nëse nuk i vëmë rëndësi,
01:07
it could be a real problem.
21
52000
3000
do të mund të bëhej problem real.
01:10
So I first noticed this in a place I spend a lot of time --
22
55000
3000
Së pari e vura re në një vend ku kaloj mjaft kohë --
01:13
my Facebook page.
23
58000
2000
në faqen time në Facebook.
01:15
I'm progressive, politically -- big surprise --
24
60000
3000
Politikisht jam progresist -- surprizë e madhe --
01:18
but I've always gone out of my way to meet conservatives.
25
63000
2000
por kam qenë përherë i hapur ndaj ideve konservatore.
01:20
I like hearing what they're thinking about;
26
65000
2000
Më pëlqen të dëgjoj se ç'mendojnë;
01:22
I like seeing what they link to;
27
67000
2000
Më pëlqen të shoh se çfarë ndjekin;
01:24
I like learning a thing or two.
28
69000
2000
Më pëlqen të mësoj ndopak gjëra.
01:26
And so I was surprised when I noticed one day
29
71000
3000
Ndaj u befasova kur një ditë vura re
01:29
that the conservatives had disappeared from my Facebook feed.
30
74000
3000
që konservatorët ishin zhdukur nga prurjet e mia në Facebook.
01:33
And what it turned out was going on
31
78000
2000
Dhe, siç u mor vesh, çka po ndodhte qe që
01:35
was that Facebook was looking at which links I clicked on,
32
80000
4000
Facebook-u po shihte se ç'lidhje klikoja unë,
01:39
and it was noticing that, actually,
33
84000
2000
dhe kish vënë re se, në të vërtetë,
01:41
I was clicking more on my liberal friends' links
34
86000
2000
klikoja më tepër lidhje nga miq të mijtë liberalë
01:43
than on my conservative friends' links.
35
88000
3000
se sa lidhje nga miqtë e mi konservatorë.
01:46
And without consulting me about it,
36
91000
2000
Dhe pa më pyetur për këtë,
01:48
it had edited them out.
37
93000
2000
u pat rënë vizë atyre.
01:50
They disappeared.
38
95000
3000
U zhdukën.
01:54
So Facebook isn't the only place
39
99000
2000
Por Facebook-u nuk është vendi i vetëm
01:56
that's doing this kind of invisible, algorithmic
40
101000
2000
që bën këtë përpunim të padukshëm,
01:58
editing of the Web.
41
103000
3000
algoritmik, në Web.
02:01
Google's doing it too.
42
106000
2000
Edhe Google-i e bën.
02:03
If I search for something, and you search for something,
43
108000
3000
Nëse kërkoj unë për diçka, dhe kërkoni edhe ju për diçka,
02:06
even right now at the very same time,
44
111000
2000
madje tani, në të njëjtin çast,
02:08
we may get very different search results.
45
113000
3000
secili mund të marrë përfundime kërkimi shumë të ndryshme.
02:11
Even if you're logged out, one engineer told me,
46
116000
3000
Edhe pse pa u futur te llogaria juaj, më tha një inxhinier,
02:14
there are 57 signals
47
119000
2000
ka 57 sinjale
02:16
that Google looks at --
48
121000
3000
që Google-i i vëzhgon --
02:19
everything from what kind of computer you're on
49
124000
3000
gjithçka, nga lloji i kompjuterit që përdorni
02:22
to what kind of browser you're using
50
127000
2000
deri te lloji i shfletuesit me të cilin punoni
02:24
to where you're located --
51
129000
2000
dhe vendi ku gjendeni --
02:26
that it uses to personally tailor your query results.
52
131000
3000
krejt kjo përdoret për t'ju personalizuar përfundimet tuaja të kërkimit.
02:29
Think about it for a second:
53
134000
2000
Ja mendojeni për një sekondë:
02:31
there is no standard Google anymore.
54
136000
4000
nuk ka më Google standard.
02:35
And you know, the funny thing about this is that it's hard to see.
55
140000
3000
Dhe më e bukura e kësaj është që është vështirë të shihet.
02:38
You can't see how different your search results are
56
143000
2000
Nuk e shihni dot se sa të ndryshme janë përfundimet tuaja të kërkimit
02:40
from anyone else's.
57
145000
2000
nga ato të dikujt tjetër.
02:42
But a couple of weeks ago,
58
147000
2000
Por para pak javësh,
02:44
I asked a bunch of friends to Google "Egypt"
59
149000
3000
u kërkova një dorë shokëve të kërkonin në Google për "Egjipt"
02:47
and to send me screen shots of what they got.
60
152000
3000
dhe të më dërgonin foto ekrani me përfundimet e kërkimit.
02:50
So here's my friend Scott's screen shot.
61
155000
3000
Ja fotoja e shokut tim, Skotit.
02:54
And here's my friend Daniel's screen shot.
62
159000
3000
Dhe ja edhe fotoja e mikut tim Daniel.
02:57
When you put them side-by-side,
63
162000
2000
Po t'i vini krah më krah,
02:59
you don't even have to read the links
64
164000
2000
as që keni nevojë të lexoni lidhjet
03:01
to see how different these two pages are.
65
166000
2000
për të parë se sa të ndryshme janë këto dy faqe.
03:03
But when you do read the links,
66
168000
2000
Por po të lexoni lidhjet,
03:05
it's really quite remarkable.
67
170000
3000
është vërtetë për t'u shënuar.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
174000
3000
Danieli nuk mori gjë fare rreth protestave në Egjipt
03:12
in his first page of Google results.
69
177000
2000
në faqen e parë të përfundimeve nga Google-i për të.
03:14
Scott's results were full of them.
70
179000
2000
Përfundimet për Skotin qenë plot me të tilla.
03:16
And this was the big story of the day at that time.
71
181000
2000
Dhe këtu bëhej fjalë për lajmin e ditës të atëhershëm.
03:18
That's how different these results are becoming.
72
183000
3000
Ja pra se sa të ndryshme po bëhen këto përfundimet.
03:21
So it's not just Google and Facebook either.
73
186000
3000
Por nuk është vetëm Google-i apo Facebook-u.
03:24
This is something that's sweeping the Web.
74
189000
2000
Kjo është diçka që po bën kërdinë në Web.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
191000
3000
Ka plot kompani që e bëjnë këtë lloj personalizimi.
03:29
Yahoo News, the biggest news site on the Internet,
76
194000
3000
Yahoo News, site-i më i madh për lajme në Internet,
03:32
is now personalized -- different people get different things.
77
197000
3000
tani është i personalizuar -- njerëz të ndryshëm marrim gjëra të ndryshme.
03:36
Huffington Post, the Washington Post, the New York Times --
78
201000
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirting with personalization in various ways.
79
204000
3000
të gjithë flirtojnë në mënyra të ndryshme me personalizimin.
03:42
And this moves us very quickly
80
207000
3000
Dhe kjo na shpie shumë shpejt
03:45
toward a world in which
81
210000
2000
drejt një bote në të cilën
03:47
the Internet is showing us what it thinks we want to see,
82
212000
4000
Interneti na tregon atë që ai mendon se duam të shohim,
03:51
but not necessarily what we need to see.
83
216000
3000
por jo domosdoshmërisht atë çka ne duam të shohim.
03:54
As Eric Schmidt said,
84
219000
3000
Siç tha Eric Schmidt-i,
03:57
"It will be very hard for people to watch or consume something
85
222000
3000
"Për njerëzit do të bëhet shumë e vështirë të shohin
04:00
that has not in some sense
86
225000
2000
apo konsumojnë diçka që,
04:02
been tailored for them."
87
227000
3000
në një farë mënyre, nuk është përshtatur për ta."
04:05
So I do think this is a problem.
88
230000
2000
Mendoj se ky është problem.
04:07
And I think, if you take all of these filters together,
89
232000
3000
Dhe mendoj se, po t'i bëni bashkë gjithë këta filtra,
04:10
you take all these algorithms,
90
235000
2000
po të merrni gjithë këto algoritme,
04:12
you get what I call a filter bubble.
91
237000
3000
ju del ajo që unë e quaj flluska filtrash.
04:16
And your filter bubble is your own personal,
92
241000
3000
Dhe flluska juaj e filtrave është universi juaj unik,
04:19
unique universe of information
93
244000
2000
personal, i informacionit
04:21
that you live in online.
94
246000
2000
në të cilin banoni online.
04:23
And what's in your filter bubble
95
248000
3000
Dhe se ç'përmban flluska juaj e filtrave
04:26
depends on who you are, and it depends on what you do.
96
251000
3000
varet se kush jeni, dhe se çfarë bëni.
04:29
But the thing is that you don't decide what gets in.
97
254000
4000
Por rëndësi ka fakti që nuk e vendosni ju se ç'hyn në të.
04:33
And more importantly,
98
258000
2000
Dhe akoma më e rëndësishme,
04:35
you don't actually see what gets edited out.
99
260000
3000
ju nuk shihni në fakt se ç'u la jashtë.
04:38
So one of the problems with the filter bubble
100
263000
2000
Një nga problemet me flluskën e filtrave
04:40
was discovered by some researchers at Netflix.
101
265000
3000
u zbulua nga disa kërkues në Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
268000
3000
Duke vëzhguar radhët e porosive për marrje filmash me qira te Netflix, vunë re diçka të çuditshme
04:46
that a lot of us probably have noticed,
103
271000
2000
që ndoshta e kanë vënë re shumë prej nesh,
04:48
which is there are some movies
104
273000
2000
se ka disa filma që sikur
04:50
that just sort of zip right up and out to our houses.
105
275000
3000
i bëjnë bisht radhës e mbërrijnë në shtëpinë tuaj.
04:53
They enter the queue, they just zip right out.
106
278000
3000
Dalin nga radha pa hyrë mirë në të.
04:56
So "Iron Man" zips right out,
107
281000
2000
P.sh. "Iron Man" fluturon prej radhe,
04:58
and "Waiting for Superman"
108
283000
2000
ndërsa "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
mund të presë për një kohë të gjatë.
05:02
What they discovered
110
287000
2000
Ajo çfarë zbuluan
05:04
was that in our Netflix queues
111
289000
2000
qe që në radhët tona të porosive te Netflix-i
05:06
there's this epic struggle going on
112
291000
3000
zhvillohet kjo betejë epike mes
05:09
between our future aspirational selves
113
294000
3000
asaj si e duam veten në të ardhmen
05:12
and our more impulsive present selves.
114
297000
3000
dhe asaj vetes më impulsive siç jemi faktikisht.
05:15
You know we all want to be someone
115
300000
2000
Dihet se të tërë duam të jemi nga ata
05:17
who has watched "Rashomon,"
116
302000
2000
që e kanë parë "Rashomon,"-in
05:19
but right now
117
304000
2000
por mu tani duam
05:21
we want to watch "Ace Ventura" for the fourth time.
118
306000
3000
të shohim për të katërtën herë "Ace Ventura"-n.
05:24
(Laughter)
119
309000
3000
(Të qeshura)
05:27
So the best editing gives us a bit of both.
120
312000
2000
Në rastin më të mirë të përpunimit, na jepet pak nga të gjitha.
05:29
It gives us a little bit of Justin Bieber
121
314000
2000
Na jepet pak Justin Bieber
05:31
and a little bit of Afghanistan.
122
316000
2000
dhe pak Afganistan.
05:33
It gives us some information vegetables;
123
318000
2000
Na jepet ca informacion për perimet;
05:35
it gives us some information dessert.
124
320000
3000
na jepet dhe ca informacion për ëmbëlsirat.
05:38
And the challenge with these kinds of algorithmic filters,
125
323000
2000
Çështja me këta lloj filtrash algoritmikë,
05:40
these personalized filters,
126
325000
2000
këta filtra të personalizuar,
05:42
is that, because they're mainly looking
127
327000
2000
është se mund të ndikojnë në këtë ekuilibër,
05:44
at what you click on first,
128
329000
4000
ngaqë ata kryesisht vërejnë
05:48
it can throw off that balance.
129
333000
4000
së pari se çfarë klikoni ju.
05:52
And instead of a balanced information diet,
130
337000
3000
Dhe në vend të një diete të baraspeshuar për informacionin,
05:55
you can end up surrounded
131
340000
2000
përfundoni i rrethuar nga
05:57
by information junk food.
132
342000
2000
informacion që është për t'u hedhur në kosh.
05:59
What this suggests
133
344000
2000
Kjo të bën të mendosh që ne,
06:01
is actually that we may have the story about the Internet wrong.
134
346000
3000
në fakt, mund ta kemi zënë së prapthi punën me Internetin.
06:04
In a broadcast society --
135
349000
2000
Në një shoqëri transmetimesh --
06:06
this is how the founding mythology goes --
136
351000
2000
kështu thotë miti i themeleve të paktën --
06:08
in a broadcast society,
137
353000
2000
në një shoqëri transmetimesh,
06:10
there were these gatekeepers, the editors,
138
355000
2000
kishte roje, redaktorët,
06:12
and they controlled the flows of information.
139
357000
3000
dhe këta kontrollonin fluksin e informacionit.
06:15
And along came the Internet and it swept them out of the way,
140
360000
3000
Dhe më vonë erdh Interneti dhe i hoqi qafe ata,
06:18
and it allowed all of us to connect together,
141
363000
2000
u lejoi të tërëve të lidhen me njëri-tjetrin,
06:20
and it was awesome.
142
365000
2000
dhe deri këtu bukuri.
06:22
But that's not actually what's happening right now.
143
367000
3000
Por kjo nuk po ndodh tani.
06:26
What we're seeing is more of a passing of the torch
144
371000
3000
Ajo që po shohim është më shumë kalim i stafetës
06:29
from human gatekeepers
145
374000
2000
nga rojet njerëzore
06:31
to algorithmic ones.
146
376000
3000
te ato algoritmike.
06:34
And the thing is that the algorithms
147
379000
3000
Dhe puna është se algoritmet
06:37
don't yet have the kind of embedded ethics
148
382000
3000
ende nuk kanë të trupëzuar atë lloj etike
06:40
that the editors did.
149
385000
3000
që kishin redaktorët.
06:43
So if algorithms are going to curate the world for us,
150
388000
3000
Nëse për botën tonë do të kujdesen algoritmet,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
391000
3000
nëse do të vendosin ata se çfarë të shohim dhe çfarë jo,
06:49
then we need to make sure
152
394000
2000
atëherë na duhet të sigurohemi
06:51
that they're not just keyed to relevance.
153
396000
3000
që nuk merren vetëm me gjërat e rëndësishme për dikë.
06:54
We need to make sure that they also show us things
154
399000
2000
Na duhet të bëjmë të mundur që të na tregojnë edhe gjëra
06:56
that are uncomfortable or challenging or important --
155
401000
3000
që janë të sikletshme, dyshuese, me rëndësi --
06:59
this is what TED does --
156
404000
2000
kjo është ajo që bën TED-i --
07:01
other points of view.
157
406000
2000
këndvështrime të tjera.
07:03
And the thing is, we've actually been here before
158
408000
2000
Dhe çështja është që ne, si shoqëri,
07:05
as a society.
159
410000
2000
e kemi kaluar një herë këtë.
07:08
In 1915, it's not like newspapers were sweating a lot
160
413000
3000
Më 1915, gazetat nuk djersinin dhe aq shumë
07:11
about their civic responsibilities.
161
416000
3000
lidhur me përgjegjësitë e tyre civile.
07:14
Then people noticed
162
419000
2000
Dhe ja ku njerëzit vunë re
07:16
that they were doing something really important.
163
421000
3000
që ato po bënin diçka vërtet me rëndësi.
07:19
That, in fact, you couldn't have
164
424000
2000
Që, në fakt, nuk mund të kishte
07:21
a functioning democracy
165
426000
2000
demokraci funksionale po qe se
07:23
if citizens didn't get a good flow of information,
166
428000
4000
qytetarëve nuk u shkonte një rrymë e shëndoshë informacioni,
07:28
that the newspapers were critical because they were acting as the filter,
167
433000
3000
që roli i gazetave ish kritik ngaqë funksiononin si filtër,
07:31
and then journalistic ethics developed.
168
436000
2000
e kështu zuri fill etika e gazetarëve.
07:33
It wasn't perfect,
169
438000
2000
Nuk qe e përsosur,
07:35
but it got us through the last century.
170
440000
3000
por na bëri punë gjatë shekullit të kaluar.
07:38
And so now,
171
443000
2000
Dhe sot në Web,
07:40
we're kind of back in 1915 on the Web.
172
445000
3000
jemi paksa si më 1915-n.
07:44
And we need the new gatekeepers
173
449000
3000
Dhe na duhet që rojet e reja
07:47
to encode that kind of responsibility
174
452000
2000
ta fusin këtë lloj përgjegjësie
07:49
into the code that they're writing.
175
454000
2000
në kodin që po shkruajnë.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
456000
3000
E di që ka plot nga Facebook-u dhe Google-i këtu --
07:54
Larry and Sergey --
177
459000
2000
Larry dhe Sergey --
07:56
people who have helped build the Web as it is,
178
461000
2000
persona që kanë dhënë ndihmesë në ndërtimin e Web siç është sot,
07:58
and I'm grateful for that.
179
463000
2000
dhe u qofsha falë për këtë.
08:00
But we really need you to make sure
180
465000
3000
Por na duhet vërtet të sigurojmë
08:03
that these algorithms have encoded in them
181
468000
3000
që në këto algoritme të kodohet
08:06
a sense of the public life, a sense of civic responsibility.
182
471000
3000
një ndjesi e jetës publike, një ndjesi e përgjegjësisë civile.
08:09
We need you to make sure that they're transparent enough
183
474000
3000
Kemi nevojë për ju që të bëjmë të mundur transparencën e mjaftueshme për to
08:12
that we can see what the rules are
184
477000
2000
që të mund të shohim se cilat janë rregullat
08:14
that determine what gets through our filters.
185
479000
3000
që përcaktojnë se çfarë kalon nëpër filtrin tonë.
08:17
And we need you to give us some control
186
482000
2000
Dhe është e nevojshme të na lejoni një farë kontrolli
08:19
so that we can decide
187
484000
2000
që të mund të vendosim
08:21
what gets through and what doesn't.
188
486000
3000
çfarë kalon e çfarë jo.
08:24
Because I think
189
489000
2000
Sepse mendoj
08:26
we really need the Internet to be that thing
190
491000
2000
se kemi vërtet nevojë që Interneti të jetë ajo çka
08:28
that we all dreamed of it being.
191
493000
2000
krejt ne kemi ëndërruar të jetë.
08:30
We need it to connect us all together.
192
495000
3000
Na duhet që të lidhemi me njëri-tjetrin.
08:33
We need it to introduce us to new ideas
193
498000
3000
Na duhet që të njihemi me ide të reja
08:36
and new people and different perspectives.
194
501000
3000
dhe njerëz të rinj, këndvështrime të reja.
08:40
And it's not going to do that
195
505000
2000
Dhe kjo nuk ka për t'u bërë, po qe se
08:42
if it leaves us all isolated in a Web of one.
196
507000
3000
lihemi të gjithë të izoluar në një Web individual.
08:45
Thank you.
197
510000
2000
Faleminderit.
08:47
(Applause)
198
512000
11000
(Duartrokitje)
Translated by Besnik Bleta
Reviewed by Helena Bedalli

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com