ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: compte amb "les bombolles de filtres" a la xarxa

Filmed:
5,309,238 views

A mesura que les companyies s'esforcen en personalitzar els seus serveis (incloent notícies i resultats de les cerques) als vostres gustos personalitzats, una conseqüència desintencionada però perillosa: ens quedem atrapats en una "bombolla de filtres" i no estem exposats a informació que podria qüestionar o ampilar el nostre punt de vista. Eli Pariser argumenta que aquest fet és, en última instància, roin tant per a nosaltres com per a la democràcia.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg,
00:17
a journalistperiodista was askingpreguntant him a questionpregunta about the newsnotícies feedalimentar.
1
2000
3000
un periodista li feia una pregunta referent al "mur de notícies".
00:20
And the journalistperiodista was askingpreguntant him,
2
5000
2000
El periodista li estava preguntant:
00:22
"Why is this so importantimportant?"
3
7000
2000
"Per què és el "mur" tan important?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
I Zuckerberg va dir,
00:26
"A squirrelesquirol dyingmorint in your frontfront yardpati
5
11000
2000
"Un esquirol morint davant de ta casa
00:28
maypot be more relevantrellevant to your interestsinteressos right now
6
13000
3000
pot ser més rellevant per al teu interès en aquest moment
00:31
than people dyingmorint in AfricaÀfrica."
7
16000
3000
que gent morint a l'Àfrica."
00:34
And I want to talk about
8
19000
2000
I vull parlar sobre
00:36
what a WebWeb basedbasat on that ideaidea of relevancepertinença mightpotser look like.
9
21000
3000
com seria una Web basada en eixa idea de rellevància.
00:40
So when I was growingcreixent up
10
25000
2000
Quan estava creixent
00:42
in a really ruralrural areaàrea in MaineMaine,
11
27000
2000
en una àrea rural a Maine,
00:44
the InternetInternet meantsignificava something very differentdiferent to me.
12
29000
3000
'Internet' significava una cosa molt diferent per mi.
00:47
It meantsignificava a connectionconnexió to the worldmón.
13
32000
2000
Significava una connexió amb el món.
00:49
It meantsignificava something that would connectconnectar us all togetherjunts.
14
34000
3000
Significava quelcom per connectar-nos a tots.
00:52
And I was sure that it was going to be great for democracydemocràcia
15
37000
3000
I estava segur que anava a ser quelcom molt bo per a la democràcia
00:55
and for our societysocietat.
16
40000
3000
i per a la nostra societat.
00:58
But there's this shiftcanvi
17
43000
2000
Però ha aparegut aquest desplaçament
01:00
in how informationinformació is flowingque flueix onlineen línia,
18
45000
2000
respecte a com circula la informació a la xarxa,
01:02
and it's invisibleinvisible.
19
47000
3000
i que és invisible.
01:05
And if we don't paypagar attentionatenció to it,
20
50000
2000
I que si no hi estem atents
01:07
it could be a realreal problemproblema.
21
52000
3000
podria ser un problema real.
01:10
So I first noticednotat this in a placelloc I spendGastar a lot of time --
22
55000
3000
El primer lloc on em vaig adonar d'això va ser en un lloc on passe molt de temps --
01:13
my FacebookFacebook pagepàgina.
23
58000
2000
la meva pàgina a Facebook.
01:15
I'm progressiveprogressiu, politicallypolíticament -- biggran surprisesorpresa --
24
60000
3000
Sóc progressista, ideològicament -- gran sorpresa --
01:18
but I've always gones'ha anat out of my way to meettrobar-se conservativesconservadors.
25
63000
2000
però sempre m'he preocupat per trobar-me amb conservadors.
01:20
I like hearingaudició what they're thinkingpensant about;
26
65000
2000
M'agrada escoltar de què parlem;
01:22
I like seeingveient what they linkenllaç to;
27
67000
2000
m'agrada veure què enllancen;
01:24
I like learningaprenentatge a thing or two.
28
69000
2000
m'agrada aprendre coses d'ells.
01:26
And so I was surprisedsorprès when I noticednotat one day
29
71000
3000
I per això em vaig sorprendre el dia que em vaig adonar
01:29
that the conservativesconservadors had disappeareddesaparegut from my FacebookFacebook feedalimentar.
30
74000
3000
que els conservadors havien desaparegut del meu mur de Facebook.
01:33
And what it turnedconvertit out was going on
31
78000
2000
I el què havia ocorregut era
01:35
was that FacebookFacebook was looking at whichquin linksenllaços I clickedclic on,
32
80000
4000
que Facebook estava controlant sobre quins enllaços feia clic,
01:39
and it was noticingobservant-se that, actuallyen realitat,
33
84000
2000
i estava descobrint que, de fet,
01:41
I was clickingfent clic more on my liberalliberal friends'dels amics linksenllaços
34
86000
2000
feia més clics als enllaços dels meus amics progressistes
01:43
than on my conservativeconservador friends'dels amics linksenllaços.
35
88000
3000
que als enllaços dels meus amics conservadors.
01:46
And withoutsense consultingconsultoria me about it,
36
91000
2000
I sense preguntar-m'ho,
01:48
it had editededitat them out.
37
93000
2000
els havia eliminat.
01:50
They disappeareddesaparegut.
38
95000
3000
Havien desaparegut.
01:54
So FacebookFacebook isn't the only placelloc
39
99000
2000
Però Facebook no és l'únic lloc
01:56
that's doing this kindamable of invisibleinvisible, algorithmicalgorísmica
40
101000
2000
que està fent aquesta mena d'edició algorítmica invisible
01:58
editingedició of the WebWeb.
41
103000
3000
de la Web.
02:01
Google'sGoogle doing it too.
42
106000
2000
Google també ho està fent.
02:03
If I searchcerca for something, and you searchcerca for something,
43
108000
3000
Si jo cerque alguna cosa, i vosaltres cerqueu el mateix,
02:06
even right now at the very samemateix time,
44
111000
2000
fins i tot ara mateix, simultàniament,
02:08
we maypot get very differentdiferent searchcerca resultsresultats.
45
113000
3000
podríem obtenir resultats molt diferents.
02:11
Even if you're loggedconnectat out, one engineerenginyer told me,
46
116000
3000
Fins i tot amb la sessió tancada, segons em va dir un enginyer,
02:14
there are 57 signalssenyals
47
119000
2000
hi ha 57 senyals
02:16
that GoogleGoogle looksaspecte at --
48
121000
3000
que Google té en compte --
02:19
everything from what kindamable of computerordinador you're on
49
124000
3000
des d'allò relacionat amb el tipus d'ordinador en el què esteu
02:22
to what kindamable of browsernavegador you're usingutilitzant
50
127000
2000
fins al tipus de navegador que utilitzeu
02:24
to where you're locatedsituat --
51
129000
2000
o on esteu físicament --
02:26
that it usesusos to personallypersonalment tailorsastre your queryConsulta resultsresultats.
52
131000
3000
i utilitza aquesta informació per confeccionar els resultats de la vostra cerca.
02:29
Think about it for a secondsegon:
53
134000
2000
Penseu-ho un moment:
02:31
there is no standardestàndard GoogleGoogle anymoremés.
54
136000
4000
ja no hi ha un Google estàndar.
02:35
And you know, the funnydivertida thing about this is that it's harddur to see.
55
140000
3000
I el pitjor d'això és que és complicat de veure.
02:38
You can't see how differentdiferent your searchcerca resultsresultats are
56
143000
2000
No podeu veure la diferència entre els vostres resultats
02:40
from anyoneningú else'saltra cosa.
57
145000
2000
i els de qualsevol altra persona.
02:42
But a coupleparella of weekssetmanes agofa,
58
147000
2000
Però fa un parell de setmanes,
02:44
I askedpreguntat a bunchgrup of friendsamics to GoogleGoogle "EgyptEgipte"
59
149000
3000
els vaig demanar a un grapat d'amics que cercaren "Egipte" al Google
02:47
and to sendenviar me screenpantalla shotstirs of what they got.
60
152000
3000
i que m'enviaren en una captura de pantalla del què havien obtingut.
02:50
So here'sheus aquí my friendamic Scott'sScott screenpantalla shottir.
61
155000
3000
Ací podeu veure la captura del meu amic Scott.
02:54
And here'sheus aquí my friendamic Daniel'sDaniel screenpantalla shottir.
62
159000
3000
I aci la del meu amic Daniel.
02:57
When you put them side-by-sidede costat a costat,
63
162000
2000
Si les poseu una al costat de l'altra
02:59
you don't even have to readllegir the linksenllaços
64
164000
2000
no cal ni que llegiu els enllaços
03:01
to see how differentdiferent these two pagespàgines are.
65
166000
2000
per a observar com de diferents són ambdues pàgines.
03:03
But when you do readllegir the linksenllaços,
66
168000
2000
Però si llegiu els enllaços
03:05
it's really quitebastant remarkablenotable.
67
170000
3000
és realment molt gran la diferència.
03:09
DanielDaniel didn't get anything about the protestsprotestes in EgyptEgipte at all
68
174000
3000
Daniel no va rebre res relatiu a les protestes d'Egipte
03:12
in his first pagepàgina of GoogleGoogle resultsresultats.
69
177000
2000
en la primera pàgina de resultats de Google.
03:14
Scott'sScott resultsresultats were fullple of them.
70
179000
2000
Els resultats de Scott n'estaven plens.
03:16
And this was the biggran storyhistòria of the day at that time.
71
181000
2000
I aquesta era la història del dia en aquell moment.
03:18
That's how differentdiferent these resultsresultats are becomingconvertint-se.
72
183000
3000
Així és com de diferents s'estan convertint aquestos resultats.
03:21
So it's not just GoogleGoogle and FacebookFacebook eithertampoc.
73
186000
3000
I tampoc passa només amb Google i Facebook.
03:24
This is something that's sweepingescombrant the WebWeb.
74
189000
2000
Açò és una cosa que està arrasant la web.
03:26
There are a wholetot hosthost of companiesempreses that are doing this kindamable of personalizationpersonalització.
75
191000
3000
Hi ha tot un munt d'empreses que estan fent aquest tipus de personalització.
03:29
YahooYahoo NewsNotícies, the biggestel més gran newsnotícies sitelloc on the InternetInternet,
76
194000
3000
Yahoo News, la major web de notícies a Internet,
03:32
is now personalizedpersonalitzada -- differentdiferent people get differentdiferent things.
77
197000
3000
és ara personalitzada -- diferents persones reben diferents notícies.
03:36
HuffingtonHuffington PostCorreu, the WashingtonWashington PostCorreu, the NewNou YorkYork TimesVegades --
78
201000
3000
Huffington Post, el Washington Post, el New York Times --
03:39
all flirtingcoquetejar with personalizationpersonalització in variousdiversos waysmaneres.
79
204000
3000
tots juguen amb la personalització d'alguna manera.
03:42
And this moveses mou us very quicklyràpidament
80
207000
3000
I açó ens duu molt ràpidament
03:45
towardcap a a worldmón in whichquin
81
210000
2000
cap a un mon en què
03:47
the InternetInternet is showingmostrant us what it thinkspensa we want to see,
82
212000
4000
Internet ens mostra el que creu que volem veure,
03:51
but not necessarilynecessàriament what we need to see.
83
216000
3000
però no necessàriament el que necessitem veure.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Tal i com va dir Eric Schmidt,
03:57
"It will be very harddur for people to watch or consumeconsumir something
85
222000
3000
"Serà molt complicat per a la gent veure o consumir alguna cosa
04:00
that has not in some sensesentit
86
225000
2000
que no ha estat, d'alguna manera,
04:02
been tailoreda mida for them."
87
227000
3000
preparat per a ells."
04:05
So I do think this is a problemproblema.
88
230000
2000
I jo crec que açò és un problema.
04:07
And I think, if you take all of these filtersfiltres togetherjunts,
89
232000
3000
I pense que, si unim tots aquestos filtres,
04:10
you take all these algorithmsalgorismes,
90
235000
2000
si agafem tots aquestos algoritmes,
04:12
you get what I call a filterfiltre bubblebombolla.
91
237000
3000
aconseguim el que jo anomene "bombolla de filtres".
04:16
And your filterfiltre bubblebombolla is your ownpropi personalpersonal,
92
241000
3000
I la vostra "bombolla de filtres" és el vostre personal
04:19
uniqueúnic universeunivers of informationinformació
93
244000
2000
i únic univers d'informació
04:21
that you liveen directe in onlineen línia.
94
246000
2000
en el què viviu en la xarxa.
04:23
And what's in your filterfiltre bubblebombolla
95
248000
3000
I el que hi ha en la vostra bombolla de filtres
04:26
dependsdepèn on who you are, and it dependsdepèn on what you do.
96
251000
3000
depén de qui sou, i depén de què feu.
04:29
But the thing is that you don't decidedecideixi what getses posa in.
97
254000
4000
Però la cosa més important és que no decidiu que entra.
04:33
And more importantlyimportant,
98
258000
2000
I més important,
04:35
you don't actuallyen realitat see what getses posa editededitat out.
99
260000
3000
no veieu què es queda fora.
04:38
So one of the problemsproblemes with the filterfiltre bubblebombolla
100
263000
2000
Un dels problemes de la bombolla de filtres
04:40
was discovereddescobert by some researchersinvestigadors at NetflixNetflix.
101
265000
3000
va ser descobert per uns investigadors a Netflix.
04:43
And they were looking at the NetflixNetflix queuescues, and they noticednotat something kindamable of funnydivertida
102
268000
3000
I quan estaven mirant les cues a Netflix, es van adonar d'una cosa graciosa
04:46
that a lot of us probablyProbablement have noticednotat,
103
271000
2000
que probablement molts ja havíem notat,
04:48
whichquin is there are some moviespel·lícules
104
273000
2000
i és que hi ha algunes pel·lícules
04:50
that just sortordenar of zipcremallera right up and out to our housescases.
105
275000
3000
que entren i de seguida ixen de les nostres cases.
04:53
They enterentrar the queuecua, they just zipcremallera right out.
106
278000
3000
Entren a la cua, i ixen de seguida.
04:56
So "IronFerro Man" zipscremalleres right out,
107
281000
2000
Per exemple, "Iron Man" ix de seguida
04:58
and "WaitingL'espera for SupermanSuperhome"
108
283000
2000
i "Esperant a Superman"
05:00
can wait for a really long time.
109
285000
2000
pot estar esperant molt de temps.
05:02
What they discovereddescobert
110
287000
2000
El que han descobert
05:04
was that in our NetflixNetflix queuescues
111
289000
2000
és que a les cues de Netflix
05:06
there's this epicèpica strugglelluita going on
112
291000
3000
hi ha aquesta batalla èpica
05:09
betweenentre our futurefutur aspirationalaspiració selvesmateixos
113
294000
3000
entre les nostres aspiracions futures
05:12
and our more impulsiveimpulsiu presentpresent selvesmateixos.
114
297000
3000
i els nostres impulsos presents.
05:15
You know we all want to be someonealgú
115
300000
2000
Tots volem ser algú
05:17
who has watchedobservat "RashomonRashomon,"
116
302000
2000
que ha vist "Rashomon",
05:19
but right now
117
304000
2000
però ara mateix
05:21
we want to watch "AceL'Ace VenturaVentura" for the fourthquart time.
118
306000
3000
volem veure per quarta vegada "Ace Ventura".
05:24
(LaughterRiure)
119
309000
3000
(Rises)
05:27
So the bestmillor editingedició givesdóna us a bitpoc of bothtots dos.
120
312000
2000
La millor edició ens dóna una mica de cada.
05:29
It givesdóna us a little bitpoc of JustinJustin BieberBieber
121
314000
2000
Ens dona un poc de Justin Bieber
05:31
and a little bitpoc of AfghanistanL'Afganistan.
122
316000
2000
i una miqueta d'Afganistan.
05:33
It givesdóna us some informationinformació vegetablesverdures;
123
318000
2000
Ens dóna certa informació sobre verdures;
05:35
it givesdóna us some informationinformació dessertpostres.
124
320000
3000
ens dona també informació sobre les postres.
05:38
And the challengedesafiament with these kindstipus of algorithmicalgorísmica filtersfiltres,
125
323000
2000
I la part complicada d'aquest tipus de filtres algorítmics,
05:40
these personalizedpersonalitzada filtersfiltres,
126
325000
2000
d'aquestos filtres personalitzats,
05:42
is that, because they're mainlyprincipalment looking
127
327000
2000
és que, degut a que principalment es fixen
05:44
at what you clickfeu clic a on first,
128
329000
4000
en què cliqueu primer,
05:48
it can throwllançar off that balanceequilibri.
129
333000
4000
poden trencar aquest equilibri.
05:52
And insteaden canvi of a balancedequilibrat informationinformació dietdieta,
130
337000
3000
I en lloc d'informació per a una dieta equilibrada,
05:55
you can endfinal up surroundedenvoltat
131
340000
2000
podeu acabar rodejats
05:57
by informationinformació junkescombraries foodmenjar.
132
342000
2000
d'informació de menjar escombraria.
05:59
What this suggestssuggereix
133
344000
2000
El que açò suggereix
06:01
is actuallyen realitat that we maypot have the storyhistòria about the InternetInternet wrongmal.
134
346000
3000
és que potser ens hem equivocat en la història sobre Internet.
06:04
In a broadcastdifusió societysocietat --
135
349000
2000
En una societat de la transmissió --
06:06
this is how the foundingfundació mythologymitologia goesva --
136
351000
2000
així és com es funda una mitologia --
06:08
in a broadcastdifusió societysocietat,
137
353000
2000
en una societat de la transmissió,
06:10
there were these gatekeepersguardians, the editorsredactors,
138
355000
2000
hi havia aquestos guardians, els editors,
06:12
and they controlledcontrolat the flowsfluxos of informationinformació.
139
357000
3000
i ells controlaven els fluxes d'informació.
06:15
And alongjunts cameva venir the InternetInternet and it sweptescombrat them out of the way,
140
360000
3000
I quan va arribar Internet i els va apartar,
06:18
and it allowedpermès all of us to connectconnectar togetherjunts,
141
363000
2000
i ens va permetre connectar-nos junts,
06:20
and it was awesomeincreïble.
142
365000
2000
va ser increïble.
06:22
But that's not actuallyen realitat what's happeningpassant right now.
143
367000
3000
Però no és el que està passant ara mateixa.
06:26
What we're seeingveient is more of a passingpassant of the torchtorxa
144
371000
3000
El que estem veient és més una substitució
06:29
from humanhumà gatekeepersguardians
145
374000
2000
dels guardians humans
06:31
to algorithmicalgorísmica onesuns.
146
376000
3000
a guardians algorítmics.
06:34
And the thing is that the algorithmsalgorismes
147
379000
3000
I el que passa és que els algorítmics
06:37
don't yetencara have the kindamable of embeddedincrustat ethicsètica
148
382000
3000
encara no tenen integrats els conceptes ètics
06:40
that the editorsredactors did.
149
385000
3000
que si que tenien els editors.
06:43
So if algorithmsalgorismes are going to curatecoadjutor the worldmón for us,
150
388000
3000
De manera que si els algoritmes van a administrar-nos el món,
06:46
if they're going to decidedecideixi what we get to see and what we don't get to see,
151
391000
3000
si van a decidir que anem a veure i què no,
06:49
then we need to make sure
152
394000
2000
hem d'estar segurs
06:51
that they're not just keyedteclejat to relevancepertinença.
153
396000
3000
que no són programats només per a la rellevància.
06:54
We need to make sure that they alsotambé showespectacle us things
154
399000
2000
Hem d'estar segurs que també ens mostren coses
06:56
that are uncomfortableincòmode or challengingdesafiant or importantimportant --
155
401000
3000
que són incòmodes o qüestionables o importants --
06:59
this is what TEDTED does --
156
404000
2000
açò és el que fa TED --
07:01
other pointspunts of viewveure.
157
406000
2000
altres punts de vista.
07:03
And the thing is, we'vetenim actuallyen realitat been here before
158
408000
2000
I, a més, resulta que ja hem estat ací
07:05
as a societysocietat.
159
410000
2000
com a societat.
07:08
In 1915, it's not like newspapersdiaris were sweatingsudoració a lot
160
413000
3000
El 1915 els periòdics no estaven massa implicats
07:11
about theirels seus civiccívic responsibilitiesresponsabilitats.
161
416000
3000
amb les seues responsabilitats cíviques.
07:14
Then people noticednotat
162
419000
2000
Aleshores la gent es va adonar
07:16
that they were doing something really importantimportant.
163
421000
3000
que feien una cosa realment important.
07:19
That, in factfet, you couldn'tno podia have
164
424000
2000
Que, de fet, no podia existir
07:21
a functioningfuncionant democracydemocràcia
165
426000
2000
una democràcia que funcionara
07:23
if citizensciutadans didn't get a good flowflux of informationinformació,
166
428000
4000
si els ciutadans no rebien un bon fluxe d'informació,
07:28
that the newspapersdiaris were criticalcrític because they were actingactuació as the filterfiltre,
167
433000
3000
i que els periòdics eren crucials degut a que actuaven com a filtre,
07:31
and then journalisticperiodístic ethicsètica developeddesenvolupat.
168
436000
2000
i l'ètica periodística es va desenvolupar.
07:33
It wasn'tno ho era perfectperfecte,
169
438000
2000
No era perfecte,
07:35
but it got us througha través the last centurysegle.
170
440000
3000
però ens va acompanyar tot el segle passat.
07:38
And so now,
171
443000
2000
I ara,
07:40
we're kindamable of back in 1915 on the WebWeb.
172
445000
3000
tornem a estar al 1915 a la xarxa.
07:44
And we need the newnou gatekeepersguardians
173
449000
3000
I necessitem els guardians
07:47
to encodecodificar that kindamable of responsibilityresponsabilitat
174
452000
2000
amb aquesta responsabilitat
07:49
into the codecodi that they're writingescrivint.
175
454000
2000
dins del codi que estan escrivint.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Sé que hi ha molta gent ací de Facebook i de Google --
07:54
LarryLarry and SergeySerguei --
177
459000
2000
Larry i Sergey --
07:56
people who have helpedajudat buildconstruir the WebWeb as it is,
178
461000
2000
gent que ha ajudat a construir la Web com és ara,
07:58
and I'm gratefulagraït for that.
179
463000
2000
i els estic agraït.
08:00
But we really need you to make sure
180
465000
3000
Però realment necessitem assegurar-nos
08:03
that these algorithmsalgorismes have encodedcodificat in them
181
468000
3000
que aquests algoritmes contenen
08:06
a sensesentit of the publicpúblic life, a sensesentit of civiccívic responsibilityresponsabilitat.
182
471000
3000
un sentit de la vida pública, un sentit de la reponsabilitat cívica.
08:09
We need you to make sure that they're transparenttransparent enoughsuficient
183
474000
3000
Necessitem que ens assegurem que són suficientment transparents
08:12
that we can see what the rulesregles are
184
477000
2000
que podem veure quines regles són
08:14
that determinedeterminar what getses posa througha través our filtersfiltres.
185
479000
3000
les que determinen què passa a través dels filtres.
08:17
And we need you to give us some controlcontrol
186
482000
2000
I necessitem que ens doneu una mica de control
08:19
so that we can decidedecideixi
187
484000
2000
per a que puguem decidir
08:21
what getses posa througha través and what doesn't.
188
486000
3000
què passa i què no.
08:24
Because I think
189
489000
2000
Perquè crec que
08:26
we really need the InternetInternet to be that thing
190
491000
2000
necessitem que Internet siga
08:28
that we all dreamedsomiava of it beingser.
191
493000
2000
allò que tots hem somniat que siga.
08:30
We need it to connectconnectar us all togetherjunts.
192
495000
3000
Necessitem connectar-nos tots junts.
08:33
We need it to introduceintroduir us to newnou ideasidees
193
498000
3000
Necessitem que ens presente noves idees
08:36
and newnou people and differentdiferent perspectivesperspectives.
194
501000
3000
i nova gent i perspectives diferents.
08:40
And it's not going to do that
195
505000
2000
I açò no passarà
08:42
if it leavesfulles us all isolatedaïllat in a WebWeb of one.
196
507000
3000
si ens deixa sols en una web d'un.
08:45
Thank you.
197
510000
2000
Gràcies
08:47
(ApplauseAplaudiments)
198
512000
11000
(Aplaudiments)
Translated by Xavi Ivars
Reviewed by Pol Monsó Purtí

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com