ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Dajte si pozor na internetové „informačné bubliny"

Filmed:
5,309,238 views

To, že sa firmy snažia prispôsobiť svoje online služby (vrátane spravodajstva a vyhľadávania) naším osobným preferenciám, má aj pôvodne nezamýšľané a nebezpečné dôsledky: Zostávame uväznený vo vnútri „informačných bublín" a nedostaneme sa k informáciám, ktoré by mohli spochybniť a rozšíriť náš pohľad na svet. Eli Pariser tvrdo obahjuje názor, že tento prístup sa nakoniec ukáže ako zlý pre nás, aj pre demokraciu.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Marka Zuckerberga
00:17
a journalistnovinár was askingpýta him a questionotázka about the newsnoviny feedkrmivo.
1
2000
3000
sa raz novinár spýtal na panel noviniek.
00:20
And the journalistnovinár was askingpýta him,
2
5000
2000
Tento novinár sa spýtal:
00:22
"Why is this so importantdôležitý?"
3
7000
2000
„Prečo je to také dôležité?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
A Zuckrerberg mu odvetil:
00:26
"A squirrelveverička dyingumierajúci in your frontpredné yardyard
5
11000
2000
„Veverička, ktorá práve zdochla pred vaším domom
00:28
maysmieť be more relevantpríslušný to your interestszáujmy right now
6
13000
3000
môže byť pre vás práve teraz dôležitejšia,
00:31
than people dyingumierajúci in AfricaAfrika."
7
16000
3000
ako ľudia umierajúci v Afrike."
00:34
And I want to talk about
8
19000
2000
A ja by som chcel hovoriť o tom,
00:36
what a WebWeb basedzaložené on that ideanápad of relevancerelevantnosti mightsila look like.
9
21000
3000
ako by vyzeral web založený na takýchto princípoch relevantnosti.
00:40
So when I was growingrastúce up
10
25000
2000
Keď som vyrastal
00:42
in a really ruralsedliacky arearozloha in MaineMaine,
11
27000
2000
na ozajstnom vidieku v štáte Maine,
00:44
the InternetInternet meantznamenalo something very differentrozdielny to me.
12
29000
3000
internet bol pre mňa niečím špeciálnym.
00:47
It meantznamenalo a connectionprípojka to the worldsvet.
13
32000
2000
Predstavoval spojenie so svetom.
00:49
It meantznamenalo something that would connectpripojiť us all togetherspolu.
14
34000
3000
Predstavoval niečo, čo nás všetkých spojí dohromady.
00:52
And I was sure that it was going to be great for democracydemokracia
15
37000
3000
A bol som si istý, že to bude skvelá vec pre demokraciu
00:55
and for our societyspoločnosť.
16
40000
3000
a celkovo pre našu spoločnosť.
00:58
But there's this shiftsmena
17
43000
2000
Ale existuje istý posun v tom,
01:00
in how informationinformácie is flowingtečúcou onlineon-line,
18
45000
2000
ako informácie plynú po internete --
01:02
and it's invisibleneviditeľný.
19
47000
3000
je však neviditeľný.
01:05
And if we don't payplatiť attentionpozornosť to it,
20
50000
2000
A, ak tomu nebudeme venovať pozornosť,
01:07
it could be a realskutočný problemproblém.
21
52000
3000
mohol by sa z toho stať vážny problém.
01:10
So I first noticedvšimol this in a placemiesto I spendtráviť a lot of time --
22
55000
3000
Prvýkrát som si to všimol na mieste, kde trávim mnoho času --
01:13
my FacebookFacebook pagestrana.
23
58000
2000
na Facebooku.
01:15
I'm progressiveprogresívne, politicallypoliticky -- bigveľký surpriseprekvapenie --
24
60000
3000
Snažím sa byť pokrokový, aj politicky -- veľké prekvapenie --
01:18
but I've always gonepreč out of my way to meetzísť conservativeskonzervatívci.
25
63000
2000
ale vždy som sa stýkal aj s konzervatívcami.
01:20
I like hearingsluch what they're thinkingpremýšľanie about;
26
65000
2000
Rád počúvam, o čom rozmýšľajú;
01:22
I like seeingvidenie what they linkodkaz to;
27
67000
2000
rád sa dívam, aké odkazy rozširujú;
01:24
I like learningštúdium a thing or two.
28
69000
2000
rád sa priučím vec či dve.
01:26
And so I was surprisedprekvapený when I noticedvšimol one day
29
71000
3000
A tak som zostal veľmi prekvapený, keď som si raz uvedomil,
01:29
that the conservativeskonzervatívci had disappearedzmizol from my FacebookFacebook feedkrmivo.
30
74000
3000
že všetci konzervatívci z mojich Facebookových noviniek zmizli.
01:33
And what it turnedobrátil out was going on
31
78000
2000
Nakoniec sa ukázalo,
01:35
was that FacebookFacebook was looking at whichktorý linksodkazy I clickedklikol on,
32
80000
4000
že Facebook sledoval, na ktoré odkazy klikám,
01:39
and it was noticingvšímať that, actuallyvlastne,
33
84000
2000
a všímal si, že vlastne
01:41
I was clickingklikanie more on my liberalliberálne friends'priateľov' linksodkazy
34
86000
2000
viac klikám na odkazy svojich liberálnych priateľov
01:43
than on my conservativekonzervatívny friends'priateľov' linksodkazy.
35
88000
3000
ako na tie, ktoré boli od konzervatívcov.
01:46
And withoutbez consultingconsulting me about it,
36
91000
2000
A bez toho, aby sa ma spýtal,
01:48
it had editededitoval them out.
37
93000
2000
ich jednoducho vynechal.
01:50
They disappearedzmizol.
38
95000
3000
Jednoducho zmizli.
01:54
So FacebookFacebook isn't the only placemiesto
39
99000
2000
A Facebook nie je jediné miesto,
01:56
that's doing this kinddruh of invisibleneviditeľný, algorithmicalgoritmické
40
101000
2000
kde sa odohráva takáto neviditeľná, algoritmická
01:58
editingeditácia of the WebWeb.
41
103000
3000
korektúra webového obsahu.
02:01
Google'sSpoločnosti Google doing it too.
42
106000
2000
Google to robí tiež.
02:03
If I searchVyhľadávanie for something, and you searchVyhľadávanie for something,
43
108000
3000
Ak by som ja niečo hľadal a hľadali by ste to aj vy,
02:06
even right now at the very samerovnaký time,
44
111000
2000
hoci aj tu a teraz v rovnakom momente,
02:08
we maysmieť get very differentrozdielny searchVyhľadávanie resultsvýsledok.
45
113000
3000
je možné, že dostaneme výrazne rôzne výsledky.
02:11
Even if you're loggedprihlásený out, one engineerinžinier told me,
46
116000
3000
Jeden technik mi povedal, že aj keď ste odhlásení,
02:14
there are 57 signalssignály
47
119000
2000
je ďalších 57 faktorov,
02:16
that GoogleGoogle looksvzhľad at --
48
121000
3000
ktoré Google berie do úvahy --
02:19
everything from what kinddruh of computerpočítačový you're on
49
124000
3000
úplne všetko, od toho za akým počítačom sedíte,
02:22
to what kinddruh of browserprehliadač you're usingpoužitím
50
127000
2000
cez typ browsera, ktorý používate,
02:24
to where you're locatedNachádza --
51
129000
2000
až po miesto, kde sa nachádzate --
02:26
that it usespoužitie to personallyosobne tailorkrajčír your querydotaz resultsvýsledok.
52
131000
3000
tak to všetko sa používa, aby boli výsledky ušité na mieru pre vás.
02:29
Think about it for a seconddruhý:
53
134000
2000
Zamyslite sa nad tým na chvíľu:
02:31
there is no standardstandard GoogleGoogle anymore.
54
136000
4000
už neexistuje žiadny „štandardný Google."
02:35
And you know, the funnysmiešny thing about this is that it's hardusilovne to see.
55
140000
3000
A najnezvyčajnejšie na tom je, že to skoro nie je vidieť.
02:38
You can't see how differentrozdielny your searchVyhľadávanie resultsvýsledok are
56
143000
2000
Nevidíte, ako veľmi sa to, čo dostanete vy,
02:40
from anyoneniekto else'sinak je.
57
145000
2000
líši od toho, čo dostanú ostatní.
02:42
But a couplepár of weekstýždne agopred,
58
147000
2000
Pred pár týždňami som poprosil
02:44
I askedspýtal a bunchchumáč of friendspriatelia to GoogleGoogle "EgyptEgypt"
59
149000
3000
zopár svojich známych, aby zadali do Googlu výraz „Egypt"
02:47
and to sendodoslať me screenplátno shotsvýstrely of what they got.
60
152000
3000
a poslali mi screenshot toho, čo dostanú.
02:50
So here'stady my friendpriateľ Scott'sScott screenplátno shotshot.
61
155000
3000
Takto to vyzeralo u môjho priateľa Scotta.
02:54
And here'stady my friendpriateľ Daniel'sDaniel's screenplátno shotshot.
62
159000
3000
A takto zase u Daniela.
02:57
When you put them side-by-sideside-by-side,
63
162000
2000
Keď si ich dáte vedľa seba pre porovnanie,
02:59
you don't even have to readprečítať the linksodkazy
64
164000
2000
nemusíte ani len čítať tie odkazy,
03:01
to see how differentrozdielny these two pagesstránky are.
65
166000
2000
aby ste si uvedomili, ako veľmi rôzne tie stránky sú.
03:03
But when you do readprečítať the linksodkazy,
66
168000
2000
Ale keď si prečítate, aké odkazy to sú,
03:05
it's really quitecelkom remarkablepozoruhodný.
67
170000
3000
všimnete si niečo pozoruhodné.
03:09
DanielDaniel didn't get anything about the protestsprotesty in EgyptEgypt at all
68
174000
3000
U Daniela sa vôbec nič ohľadom terajších protestov v Egypte
03:12
in his first pagestrana of GoogleGoogle resultsvýsledok.
69
177000
2000
nedostalo na prvú stranu.
03:14
Scott'sScott resultsvýsledok were fullplne of them.
70
179000
2000
U Scotta toho bolo veľa.
03:16
And this was the bigveľký storypríbeh of the day at that time.
71
181000
2000
A to boli v tom čase najdôležitejšie novinky.
03:18
That's how differentrozdielny these resultsvýsledok are becomingslušivý.
72
183000
3000
A presne toto sa s výsledkami vyhľadávania deje.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherbuď.
73
186000
3000
Ale nie je to iba Google a Facebook.
03:24
This is something that's sweepingzametanie the WebWeb.
74
189000
2000
Podobné veci sa tiahnu celým webom.
03:26
There are a wholecelý hosthostiteľ of companiesspoločnosti that are doing this kinddruh of personalizationPersonalizácia.
75
191000
3000
Je obrovské množstvo firiem, ktoré robia tento druh personalizácie.
03:29
YahooYahoo NewsNovinky, the biggestnajväčším newsnoviny sitesite on the InternetInternet,
76
194000
3000
Yahoo News, najväčší spravodajský web na internete
03:32
is now personalizedPersonalizované -- differentrozdielny people get differentrozdielny things.
77
197000
3000
je už tiež personalizovaný -- rozdielni ľudia vidia rozdielne správy.
03:36
HuffingtonHuffington PostPríspevok, the WashingtonWashington PostPríspevok, the NewNové YorkYork TimesKrát --
78
201000
3000
Huffington Post, the Washington Post, the New York Times --
03:39
all flirtingflirtovanie with personalizationPersonalizácia in variousrôzny waysspôsoby.
79
204000
3000
všetci sa nejakým spôsobom pohrávajú s personalizáciou.
03:42
And this movespohyby us very quicklyrýchlo
80
207000
3000
A tým sa veľmi rýchlo
03:45
towardk a worldsvet in whichktorý
81
210000
2000
dostávame do doby,
03:47
the InternetInternet is showingukazujúci us what it thinksmyslí we want to see,
82
212000
4000
kedy nám internet bude ukazovať to, čo si myslí, že chceme vidieť,
03:51
but not necessarilynutne what we need to see.
83
216000
3000
ale nie nutne to, čo potrebujeme vidieť.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Ako povedal Eric Schmidt:
03:57
"It will be very hardusilovne for people to watch or consumekonzumovať something
85
222000
3000
„Bude pre ľudí veľmi ťažké sledovať alebo konzumovať čokoľvek,
04:00
that has not in some sensezmysel
86
225000
2000
čo nebolo v nejakom zmysle
04:02
been tailoredna mieru for them."
87
227000
3000
prispôsobené práve im."
04:05
So I do think this is a problemproblém.
88
230000
2000
Ja si naozaj myslím, že je to problém.
04:07
And I think, if you take all of these filtersfiltre togetherspolu,
89
232000
3000
A myslím si, že keď zoberiete všetky tieto filtre,
04:10
you take all these algorithmsalgoritmy,
90
235000
2000
všetky tieto filtrovacie algoritmy,
04:12
you get what I call a filterfilter bubblebublina.
91
237000
3000
získate niečo, čo nazývam „informačná bublina."
04:16
And your filterfilter bubblebublina is your ownvlastný personalosobné,
92
241000
3000
Táto informačná bublina predstavuje váš osobný,
04:19
uniquejedinečný universevesmír of informationinformácie
93
244000
2000
unikátny vesmír informácií,
04:21
that you livežiť in onlineon-line.
94
246000
2000
v ktorom žijete, keď ste online.
04:23
And what's in your filterfilter bubblebublina
95
248000
3000
Obsah vašej informačnej bubliny
04:26
dependszávisí on who you are, and it dependszávisí on what you do.
96
251000
3000
závisí od toho, kto ste a ako sa správate.
04:29
But the thing is that you don't deciderozhodnúť what getsdostane in.
97
254000
4000
Nemôžete si však vybrať, čo sa dostane dnu.
04:33
And more importantlydôležitejšie,
98
258000
2000
Ale hlavne,
04:35
you don't actuallyvlastne see what getsdostane editededitoval out.
99
260000
3000
nevidíte to, čo bolo vynechané.
04:38
So one of the problemsproblémy with the filterfilter bubblebublina
100
263000
2000
Jeden z problémov informačných bublín
04:40
was discoveredobjavené by some researchersvedci at NetflixNetflix.
101
265000
3000
objavili výskumníci z firmy Netflix.
04:43
And they were looking at the NetflixNetflix queuesfronty, and they noticedvšimol something kinddruh of funnysmiešny
102
268000
3000
Pozorovali sled výpožičiek filmov zákazníkov Netflixu a všimli si niečo zvláštne,
04:46
that a lot of us probablypravdepodobne have noticedvšimol,
103
271000
2000
niečo, čo si pravdepodobne všimlo mnoho z nás --
04:48
whichktorý is there are some moviesfilmy
104
273000
2000
sú filmy, ktoré sa akosi
04:50
that just sortdruh of zipzips right up and out to our housesdomy.
105
275000
3000
hneď dostanú medzi ľudí, do ich domovov.
04:53
They entervstúpiť the queuefronta, they just zipzips right out.
106
278000
3000
Hneď ako sa dostanú do zoznamu filmov na pozretie si ich aj pozrieme.
04:56
So "IronŽelezo Man" zipszipsy right out,
107
281000
2000
Tak rýchlo prejde napríklad „Iron Man,"
04:58
and "WaitingČakanie for SupermanSuperman"
108
283000
2000
ale na dokumentárny film „Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
si asi počkáme celkom dlho.
05:02
What they discoveredobjavené
110
287000
2000
A oni zistili, že v tých filmových zoznamoch
05:04
was that in our NetflixNetflix queuesfronty
111
289000
2000
zákazníkov firmy Netflix
05:06
there's this epicEpic struggleboj going on
112
291000
3000
prebieha epický súboj
05:09
betweenmedzi our futurebudúcnosť aspirationalzámer selvesseba
113
294000
3000
medzi našimi „ja", ktoré sa usilujú o budúcnosť,
05:12
and our more impulsiveimpulzívne presentprítomný selvesseba.
114
297000
3000
a našimi prítomnými a oveľa impulzívnejšími „ja".
05:15
You know we all want to be someoneniekto
115
300000
2000
Určite to poznáte -- všetci chceme byť tí,
05:17
who has watchedsledoval "RashomonAko napríklad Rashomon,"
116
302000
2000
ktorí už videli film „Rašomón,"
05:19
but right now
117
304000
2000
ale práve teraz by sme si
05:21
we want to watch "AceACE VenturaVentura" for the fourthštvrtý time.
118
306000
3000
radšej pozreli „Ace Ventura: zvierací detektív" po štvrtýkrát.
05:24
(LaughterSmiech)
119
309000
3000
(Smiech)
05:27
So the bestnajlepší editingeditácia givesposkytuje us a bittrocha of bothoboje.
120
312000
2000
A najlepšia zostava je taká, ktorá nám dá niečo od každého.
05:29
It givesposkytuje us a little bittrocha of JustinJustin BieberBieber
121
314000
2000
Dá nám trochu Justina Biebera
05:31
and a little bittrocha of AfghanistanAfganistan.
122
316000
2000
a súčasne niečo z Afganistanu.
05:33
It givesposkytuje us some informationinformácie vegetableszelenina;
123
318000
2000
Dá nám trochu informačnej zeleniny,
05:35
it givesposkytuje us some informationinformácie dessertdezert.
124
320000
3000
ale aj informačný zákusok.
05:38
And the challengevýzva with these kindsdruhy of algorithmicalgoritmické filtersfiltre,
125
323000
2000
A problém s týmto druhom algoritmických filtrov,
05:40
these personalizedPersonalizované filtersfiltre,
126
325000
2000
týchto personalizačných filtrov,
05:42
is that, because they're mainlyhlavne looking
127
327000
2000
je ten, že keďže zohľadňujú predovšetkým to,
05:44
at what you clickcvaknutie on first,
128
329000
4000
na čo sme klikli prvé,
05:48
it can throwhodiť off that balancezostatok.
129
333000
4000
môžu veľmi rýchlo stratiť rovnováhu.
05:52
And insteadnamiesto of a balancedvyvážený informationinformácie dietdiéta,
130
337000
3000
A namiesto vyváženej informačnej stravy
05:55
you can endkoniec up surroundedobklopený
131
340000
2000
sa k vám dostane
05:57
by informationinformácie junkharaburdu foodjedlo.
132
342000
2000
len informačný fast food.
05:59
What this suggestsnavrhne
133
344000
2000
Snaží sa to naznačiť,
06:01
is actuallyvlastne that we maysmieť have the storypríbeh about the InternetInternet wrongzle.
134
346000
3000
že možno sme to rozprávanie o internete pochopili zle.
06:04
In a broadcastvysielanie societyspoločnosť --
135
349000
2000
V spoločnosti s rozhlasom a televíziou --
06:06
this is how the foundingzaloženie mythologymytológia goeside --
136
351000
2000
presne tak začína báj o vzniku --
06:08
in a broadcastvysielanie societyspoločnosť,
137
353000
2000
tak v tej spoločnosti
06:10
there were these gatekeepersstrážcovia, the editorsRedakcia,
138
355000
2000
existovali vrátnici, editori, korektori,
06:12
and they controlledriadené the flowstokov of informationinformácie.
139
357000
3000
ktorí kontrolovali tok informácií.
06:15
And alongpozdĺž cameprišiel the InternetInternet and it sweptpozametal them out of the way,
140
360000
3000
Potom však prišiel internet, ktorý ich zlikvidoval
06:18
and it allowedpovolený all of us to connectpripojiť togetherspolu,
141
363000
2000
a dovolil nám všetkým nadviazať kontakt so svetom
06:20
and it was awesomeúžasné.
142
365000
2000
a bolo to úžasné.
06:22
But that's not actuallyvlastne what's happeninghappening right now.
143
367000
3000
Ale to nie je úplne presne to, čo sa deje teraz.
06:26
What we're seeingvidenie is more of a passingpominuteľný of the torchfakľa
144
371000
3000
Sme skôr svedkami momentu, keď sa štafeta predáva
06:29
from humančlovek gatekeepersstrážcovia
145
374000
2000
od ľudských strážcov
06:31
to algorithmicalgoritmické onesones.
146
376000
3000
tým algoritmickým.
06:34
And the thing is that the algorithmsalgoritmy
147
379000
3000
A problémom je, že tie algoritmy
06:37
don't yetešte have the kinddruh of embeddedvstavané ethicsetika
148
382000
3000
ešte nemajú zabudovanú akýsi etický rozmer,
06:40
that the editorsRedakcia did.
149
385000
3000
ktorý tí ľudia mali.
06:43
So if algorithmsalgoritmy are going to curaterímskokatolíckeho kňaza the worldsvet for us,
150
388000
3000
A ak budú za nás spravovať svet algoritmy,
06:46
if they're going to deciderozhodnúť what we get to see and what we don't get to see,
151
391000
3000
ak budú oni rozhodovať, čo budeme vidieť a čo nie,
06:49
then we need to make sure
152
394000
2000
potom sa musíme ubezpečiť,
06:51
that they're not just keyedlankový to relevancerelevantnosti.
153
396000
3000
že nebudú hľadieť len na významnosť daných udalostí.
06:54
We need to make sure that they alsotaktiež showšou us things
154
399000
2000
Musíme sa uistiť, že nám ukážu aj veci,
06:56
that are uncomfortablenepríjemný or challengingnáročný or importantdôležitý --
155
401000
3000
ktoré sú nepríjemné, provokatívne alebo inak závažné --
06:59
this is what TEDTED does --
156
404000
2000
a to je to, o čo sa snaží TED --
07:01
other pointsbody of viewvyhliadka.
157
406000
2000
iný pohľad na vec.
07:03
And the thing is, we'vemy máme actuallyvlastne been here before
158
408000
2000
V skutočnosti sme my, ako spoločnosť,
07:05
as a societyspoločnosť.
159
410000
2000
v takejto situácií už boli.
07:08
In 1915, it's not like newspapersnoviny were sweatingpotenie a lot
160
413000
3000
Rok 1915 -- nedá sa povedať, že by sa noviny
07:11
about theirich civicobčiansky responsibilitieszodpovednosť.
161
416000
3000
išli pretrhnúť kvôli svojim občianskym povinnostiam.
07:14
Then people noticedvšimol
162
419000
2000
Potom si ľudia uvedomili,
07:16
that they were doing something really importantdôležitý.
163
421000
3000
že noviny zastávali naozaj dôležitú funkciu.
07:19
That, in factskutočnosť, you couldn'tnemohol have
164
424000
2000
Uvedomili si, že nie je možné
07:21
a functioningfungovanie democracydemokracia
165
426000
2000
mať fungujúcu demokraciu
07:23
if citizensobčania didn't get a good flowprietok of informationinformácie,
166
428000
4000
bez toho, aby mali obyvatelia dobrý prísun informácií.
07:28
that the newspapersnoviny were criticalkritický because they were actingherectvo as the filterfilter,
167
433000
3000
Uvedomili si, že noviny boli kritické, pretože fungovali ako filter,
07:31
and then journalisticnovinárske ethicsetika developedrozvinutý.
168
436000
2000
a preto sa rozvinula novinárska etika.
07:33
It wasn'tnebol perfectperfektný,
169
438000
2000
Nebolo to dokonalé,
07:35
but it got us throughskrz the last centurystoročia.
170
440000
3000
ale pomohlo nám to dostať sa cez posledné storočie.
07:38
And so now,
171
443000
2000
A tak aj teraz
07:40
we're kinddruh of back in 1915 on the WebWeb.
172
445000
3000
sme na webe ako keby znova v roku 1915.
07:44
And we need the newNový gatekeepersstrážcovia
173
449000
3000
A potrebujeme nových vrátnikov a strážcov,
07:47
to encodekódovať that kinddruh of responsibilityzodpovednosť
174
452000
2000
aby zabudovali tento typ zodpovednosti
07:49
into the codekód that they're writingpísanie.
175
454000
2000
do algoritmov, ktoré píšu.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Viem, že je tu veľa ľudí z Facebooku a Googlu --
07:54
LarryLarry and SergeySergej --
177
459000
2000
Larry a Sergey --
07:56
people who have helpedpomohol buildvybudovať the WebWeb as it is,
178
461000
2000
sú to ľudia, ktorí pomohli vystavať web tak, ako ho poznáme
07:58
and I'm gratefulvďačný for that.
179
463000
2000
a som im za to vďačný.
08:00
But we really need you to make sure
180
465000
3000
Ale naozaj sa musíme ubezpečiť,
08:03
that these algorithmsalgoritmy have encodedkódované in them
181
468000
3000
že tieto algoritmy budú mať v sebe zabudovaný
08:06
a sensezmysel of the publicverejnosť life, a sensezmysel of civicobčiansky responsibilityzodpovednosť.
182
471000
3000
zmysel pre verejný život, akúsi občiansku zodpovednosť.
08:09
We need you to make sure that they're transparentpriehľadný enoughdosť
183
474000
3000
Musíme sa uistiť, že budú dostatočne transparentné,
08:12
that we can see what the rulespravidlá are
184
477000
2000
aby bolo možné vidieť, aké pravidlá
08:14
that determineurčiť what getsdostane throughskrz our filtersfiltre.
185
479000
3000
rozhodujú, čo sa cez tie filtre dostane.
08:17
And we need you to give us some controlovládanie
186
482000
2000
A musíte dostať možnosť
08:19
so that we can deciderozhodnúť
187
484000
2000
rozhodnúť sa,
08:21
what getsdostane throughskrz and what doesn't.
188
486000
3000
čo sa dnu dostane a čo nie.
08:24
Because I think
189
489000
2000
Pretože si naozaj myslím,
08:26
we really need the InternetInternet to be that thing
190
491000
2000
že potrebujeme, aby bol internet tým,
08:28
that we all dreamedzdalo of it beingbytia.
191
493000
2000
čím sme si vysnívali, že bude.
08:30
We need it to connectpripojiť us all togetherspolu.
192
495000
3000
Potrebujeme ho, aby sme boli prepojený so všetkými ostatnými.
08:33
We need it to introducepredstaviť us to newNový ideasnápady
193
498000
3000
Potrebujeme ho na to, aby nám ukázal nové myšlienky,
08:36
and newNový people and differentrozdielny perspectivesperspektívy.
194
501000
3000
nových ľudí a iné pohľady na vec.
08:40
And it's not going to do that
195
505000
2000
A to nebude možné,
08:42
if it leaveslisty us all isolatedizolovaný in a WebWeb of one.
196
507000
3000
ak zostaneme izolovaní v našich individuálnych svetoch.
08:45
Thank you.
197
510000
2000
Ďakujem.
08:47
(ApplausePotlesk)
198
512000
11000
(Potlesk)

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com