ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Pozor na internetové "informační bubliny"

Filmed:
5,309,238 views

Webové společnosti se snaží ze všech sil přizpůsobit své služby (včetně zpráv a vyhledávačů) co nejlépe našim potřebám, což přináší jeden nechtěný a nebezpečný důsledek: Jsme uzavřeni v "informační bublině" a zůstáváme nedotčeni informacemi, které nás mohou stimulovat a rozšířit naše obzory. Eli Pariser uvádí mnoho důvodů, proč mohou tyto personalizace být špatné pro nás samotné i pro demokracii.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckeberg, vynálezce Facebooku,
00:17
a journalistnovinář was askingptát se him a questionotázka about the newszprávy feedkrmivo.
1
2000
3000
mluvil s jedním novinářem o "výpisu novinek".
00:20
And the journalistnovinář was askingptát se him,
2
5000
2000
Ten novinář se ho ptal,
00:22
"Why is this so importantdůležité?"
3
7000
2000
"Proč je tak důležitý?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
A Zuckerberg řekl,
00:26
"A squirrelveverka dyingumírající in your frontpřední yardloděnice
5
11000
2000
"Veverka umírající před vaším domem
00:28
maysmět be more relevantrelevantní to your interestszájmů right now
6
13000
3000
pro vás může být právě teď mnohem důležitější,
00:31
than people dyingumírající in AfricaAfrika."
7
16000
3000
než lidé umírající v Africe."
00:34
And I want to talk about
8
19000
2000
A já teď chci mluvit o tom,
00:36
what a WebWeb basedna základě on that ideaidea of relevancerelevantnost mightmohl look like.
9
21000
3000
jak může vypadat Web založený na tom, co je důležité pro jeho uživatele.
00:40
So when I was growingrostoucí up
10
25000
2000
Když jsem vyrůstal,
00:42
in a really ruralvenkovský areaplocha in MaineMaine,
11
27000
2000
na venkově v Maine,
00:44
the InternetInternetu meantznamená something very differentodlišný to me.
12
29000
3000
internet pro mě znamenal něco úplně jiného než dnes.
00:47
It meantznamená a connectionspojení to the worldsvět.
13
32000
2000
Znamenal spojení se světem.
00:49
It meantznamená something that would connectpřipojit us all togetherspolu.
14
34000
3000
Bylo to něco, co propojí nás všechny.
00:52
And I was sure that it was going to be great for democracydemokracie
15
37000
3000
A já si byl jistý, že bude výborný pro demokracii
00:55
and for our societyspolečnost.
16
40000
3000
a pro naši společnost.
00:58
But there's this shiftposun
17
43000
2000
Ale objevil se značný posun v tom
01:00
in how informationinformace is flowingtekoucí onlineonline,
18
45000
2000
jak informace po internetu proudí.
01:02
and it's invisibleneviditelný.
19
47000
3000
A ten posun je neviditelný.
01:05
And if we don't payplatit attentionPozor to it,
20
50000
2000
A pokud mu nebudeme věnovat pozornost,
01:07
it could be a realnemovitý problemproblém.
21
52000
3000
může to být opravdu problém.
01:10
So I first noticedvšiml si this in a placemísto I spendstrávit a lot of time --
22
55000
3000
Poprvé jsem si toho všiml tam, kde trávím spoustu času --
01:13
my FacebookFacebook pagestrana.
23
58000
2000
na Facebooku.
01:15
I'm progressiveprogresivní, politicallypoliticky -- bigvelký surprisepřekvapení --
24
60000
3000
Jsem progresivista, politicky -- velké překvapení --
01:18
but I've always gonepryč out of my way to meetsetkat conservativeskonzervativci.
25
63000
2000
ale snažím se nepředpojatě bavit i s konzervativci.
01:20
I like hearingsluch what they're thinkingmyslící about;
26
65000
2000
Rád si poslechnu, co si myslí,
01:22
I like seeingvidění what they linkodkaz to;
27
67000
2000
jaké odkazy posílají,
01:24
I like learningučení se a thing or two.
28
69000
2000
rád se od nich pár věcí přiučím.
01:26
And so I was surprisedpřekvapený when I noticedvšiml si one day
29
71000
3000
Takže jsem byl překvapený, když jsem si všiml,
01:29
that the conservativeskonzervativci had disappearedzmizel from my FacebookFacebook feedkrmivo.
30
74000
3000
že konzervativci najednou zmizeli z mé facebookové stránky.
01:33
And what it turnedobrátil se out was going on
31
78000
2000
Zjistil jsem, že je to proto,
01:35
was that FacebookFacebook was looking at whichkterý linksodkazy I clickedklepnutí na on,
32
80000
4000
že Facebook sleduje, na jaké odkazy klikám,
01:39
and it was noticingvšiml si that, actuallyvlastně,
33
84000
2000
a všiml si, že daleko častěji
01:41
I was clickingkliknutím more on my liberalliberální friends'přátelé' linksodkazy
34
86000
2000
otevírám odkazy svých liberálních přátel,
01:43
than on my conservativekonzervativní friends'přátelé' linksodkazy.
35
88000
3000
než svých konzervativních přátel.
01:46
And withoutbez consultingporadenství me about it,
36
91000
2000
A aniž by se mě na to ptal,
01:48
it had editededitováno them out.
37
93000
2000
odstranil mi je ze zdi.
01:50
They disappearedzmizel.
38
95000
3000
Prostě zmizeli.
01:54
So FacebookFacebook isn't the only placemísto
39
99000
2000
A Facebook není jediný,
01:56
that's doing this kinddruh of invisibleneviditelný, algorithmicalgoritmické
40
101000
2000
kdo dělá tyhle neviditelné, algoritmické
01:58
editingeditace of the WebWeb.
41
103000
3000
úpravy Webu.
02:01
Google'sSpolečnosti Google doing it too.
42
106000
2000
Google to dělá taky.
02:03
If I searchVyhledávání for something, and you searchVyhledávání for something,
43
108000
3000
Pokud budu něco vyhledávat já a vy,
02:06
even right now at the very samestejný time,
44
111000
2000
i zrovna teď, ve stejnou chvíli,
02:08
we maysmět get very differentodlišný searchVyhledávání resultsvýsledky.
45
113000
3000
možná dostaneme naprosto rozdílné výsledky.
02:11
Even if you're loggedzaznamenána out, one engineerinženýr told me,
46
116000
3000
Jeden inženýr mi řekl, že i když jste odhlášení,
02:14
there are 57 signalssignály
47
119000
2000
vysíláte 57 signálů,
02:16
that GoogleGoogle looksvzhled at --
48
121000
3000
na které se Google dívá --
02:19
everything from what kinddruh of computerpočítač you're on
49
124000
3000
k personalizaci vašeho vyhledávání
02:22
to what kinddruh of browserprohlížeč you're usingpoužitím
50
127000
2000
používá vše od značky vašeho počítače,
02:24
to where you're locatednachází se --
51
129000
2000
prohlížeče, který používáte,
02:26
that it usespoužití to personallyosobně tailorKrejčí your querydotaz resultsvýsledky.
52
131000
3000
po místo, kde se zrovna nacházíte.
02:29
Think about it for a seconddruhý:
53
134000
2000
Zamyslete se nad tím na chvíli:
02:31
there is no standardStandard GoogleGoogle anymoreuž víc.
54
136000
4000
už neexistuje žádný standartní Google.
02:35
And you know, the funnylegrační thing about this is that it's hardtvrdý to see.
55
140000
3000
Víte, nejlegračnější na tom je, že to nepoznáte.
02:38
You can't see how differentodlišný your searchVyhledávání resultsvýsledky are
56
143000
2000
Nevidíte, jak se liší vaše vyhledávání,
02:40
from anyonekdokoliv else'sjinak.
57
145000
2000
od výsledků někoho jiného.
02:42
But a couplepár of weekstýdny agopřed,
58
147000
2000
Ale před pár týdny
02:44
I askedzeptal se a bunchchomáč of friendspřátelé to GoogleGoogle "EgyptEgypt"
59
149000
3000
jsem poprosil pár přátel, aby vygooglili "Egypt"
02:47
and to sendposlat me screenobrazovka shotszáběry of what they got.
60
152000
3000
a poslali mi snímek své obrazovky.
02:50
So here'stady je my friendpřítel Scott'sScott screenobrazovka shotvýstřel.
61
155000
3000
Tady je obrazovka mého přítele Scotta,
02:54
And here'stady je my friendpřítel Daniel'sDaniel screenobrazovka shotvýstřel.
62
159000
3000
a tady Daniela.
02:57
When you put them side-by-sidevedle sebe,
63
162000
2000
Když je dáte vedle sebe,
02:59
you don't even have to readčíst the linksodkazy
64
164000
2000
nemusíte ani číst odkazy,
03:01
to see how differentodlišný these two pagesstránek are.
65
166000
2000
abyste si všimli, jak rozdílné ty stránky jsou.
03:03
But when you do readčíst the linksodkazy,
66
168000
2000
A když si ty odkazy přečtete,
03:05
it's really quitedocela remarkablepozoruhodný.
67
170000
3000
uvidíte opravdu propastný rozdíl.
03:09
DanielDaniel didn't get anything about the protestsprotesty in EgyptEgypt at all
68
174000
3000
Daniel neměl na celé první stránce
03:12
in his first pagestrana of GoogleGoogle resultsvýsledky.
69
177000
2000
ani slovo o protestech v Egyptě.
03:14
Scott'sScott resultsvýsledky were fullplný of them.
70
179000
2000
Scott jich tam má spoustu.
03:16
And this was the bigvelký storypříběh of the day at that time.
71
181000
2000
V těch dnech toho zrovna byly plné zprávy.
03:18
That's how differentodlišný these resultsvýsledky are becomingstát se.
72
183000
3000
Tady vidíte jak rozdílné ty výsledky jsou.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherbuď.
73
186000
3000
A není to jen Google a Facebook.
03:24
This is something that's sweepingzametání the WebWeb.
74
189000
2000
Šíří se to po celém internetu.
03:26
There are a wholeCelý hosthostitel of companiesspolečnosti that are doing this kinddruh of personalizationindividuální nastavení.
75
191000
3000
Velké množství společností teď zavádí personalizaci.
03:29
YahooYahoo NewsNovinky, the biggestnejvětší newszprávy sitestránky on the InternetInternetu,
76
194000
3000
Yahoo News, největší internetové zpravodajství,
03:32
is now personalizedindividuální -- differentodlišný people get differentodlišný things.
77
197000
3000
je teď personalizované -- různí lidé vidí různé věci.
03:36
HuffingtonHuffington PostPříspěvek, the WashingtonWashington PostPříspěvek, the NewNové YorkYork TimesKrát --
78
201000
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirtingflirtování with personalizationindividuální nastavení in variousrozličný wayszpůsoby.
79
204000
3000
všichni se snaží různě se personalizovat.
03:42
And this movespohybuje se us very quicklyrychle
80
207000
3000
A to nás velmi rychle posunuje
03:45
towardk a worldsvět in whichkterý
81
210000
2000
do světa, ve kterém nám
03:47
the InternetInternetu is showingzobrazování us what it thinksmyslí si we want to see,
82
212000
4000
internet bude dávat to, co chceme vidět,
03:51
but not necessarilynezbytně what we need to see.
83
216000
3000
ale ne nutně to, co vidět potřebujeme.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Jak řekl Eric Schmidt,
03:57
"It will be very hardtvrdý for people to watch or consumekonzumovat something
85
222000
3000
"Pro lidi bude velmi těžké sledovat a konzumovat něco,
04:00
that has not in some sensesmysl
86
225000
2000
co pro ně v určitém ohledu
04:02
been tailoredna míru for them."
87
227000
3000
nebylo vytvořeno."
04:05
So I do think this is a problemproblém.
88
230000
2000
A já si myslím, že tohle je problém.
04:07
And I think, if you take all of these filtersfiltry togetherspolu,
89
232000
3000
Myslím si, že když spojíte všechny tyhle filtry dohromady,
04:10
you take all these algorithmsalgoritmy,
90
235000
2000
vezmete všechny ty algoritmy,
04:12
you get what I call a filterfiltr bubblebublina.
91
237000
3000
dostanete informační bublinu.
04:16
And your filterfiltr bubblebublina is your ownvlastní personalosobní,
92
241000
3000
A vaše informační bublina je váš osobní,
04:19
uniqueunikátní universevesmír of informationinformace
93
244000
2000
jedinečný informační vesmír,
04:21
that you livežít in onlineonline.
94
246000
2000
ve kterém žijete když jste online.
04:23
And what's in your filterfiltr bubblebublina
95
248000
3000
Co je ve vaší informační bublině,
04:26
dependszávisí on who you are, and it dependszávisí on what you do.
96
251000
3000
záleží na tom, kdo jste a co děláte.
04:29
But the thing is that you don't deciderozhodni se what getsdostane in.
97
254000
4000
A vy vůbec nerozhodujete o tom, co se dostane dovnitř.
04:33
And more importantlydůležité,
98
258000
2000
A ještě důležitější je,
04:35
you don't actuallyvlastně see what getsdostane editededitováno out.
99
260000
3000
že nevidíte, co se dovnitř nedostane.
04:38
So one of the problemsproblémy with the filterfiltr bubblebublina
100
263000
2000
Jeden z problémů informačních bublin objevili pracovníci Netflixu,
04:40
was discoveredobjevil by some researchersvýzkumných pracovníků at NetflixNetflix.
101
265000
3000
amerického provozovatele online televize a půjčovny DVD.
04:43
And they were looking at the NetflixNetflix queuesfronty, and they noticedvšiml si something kinddruh of funnylegrační
102
268000
3000
Dívali se na to, o jaké filmy si zákazníci žádají, a všimli si něčeho zvláštního,
04:46
that a lot of us probablypravděpodobně have noticedvšiml si,
103
271000
2000
čeho si možná všimla i spousta dalších lidí.
04:48
whichkterý is there are some moviesfilmy
104
273000
2000
Že některé filmy si lidé dávají do fronty
04:50
that just sorttřídění of zipzip right up and out to our housesdomy.
105
275000
3000
vždy na začátek - aby je dostali nejdřív.
04:53
They enterzadejte the queuefronta, they just zipzip right out.
106
278000
3000
(Vždy je možné půjčit si jen jeden film naráz)
04:56
So "IronŽelezo Man" zipszipy right out,
107
281000
2000
Filmy jako "Iron Man" bývají na začátku,
04:58
and "WaitingČekání for SupermanSuperman"
108
283000
2000
a "Čekání na Supermana"
05:00
can wait for a really long time.
109
285000
2000
někde na konci.
05:02
What they discoveredobjevil
110
287000
2000
Objevili,
05:04
was that in our NetflixNetflix queuesfronty
111
289000
2000
že v Netflixových frontách
05:06
there's this epicEpic struggleboj going on
112
291000
3000
probíhá obrovský boj
05:09
betweenmezi our futurebudoucnost aspirationalzáměr selves
113
294000
3000
mezi naším cílevědomým já hledícím do budoucnosti
05:12
and our more impulsiveimpulzivní presentsoučasnost, dárek selves.
114
297000
3000
a naším impulzivním současným já.
05:15
You know we all want to be someoneněkdo
115
300000
2000
Víte, všichni chceme
05:17
who has watchedsledoval "RashomonRashomon,"
116
302000
2000
jednou vidět film Rašomón,
05:19
but right now
117
304000
2000
ale zrovna teď
05:21
we want to watch "AceEso VenturaVentura" for the fourthČtvrtý time.
118
306000
3000
se jdeme počtvrté koukat na Ace Venturu.
05:24
(LaughterSmích)
119
309000
3000
(Smích)
05:27
So the bestnejlepší editingeditace givesdává us a bitbit of bothoba.
120
312000
2000
Ten nejlepší filtr by nám měl dát trochu od všeho.
05:29
It givesdává us a little bitbit of JustinJustin BieberBieber
121
314000
2000
Trochu Justina Biebera
05:31
and a little bitbit of AfghanistanAfghánistán.
122
316000
2000
a trochu Afghánistánu.
05:33
It givesdává us some informationinformace vegetableszelenina;
123
318000
2000
Nějaké výživné informace
05:35
it givesdává us some informationinformace dessertdezert.
124
320000
3000
a nějaký informační zákusek.
05:38
And the challengevýzva with these kindsdruhy of algorithmicalgoritmické filtersfiltry,
125
323000
2000
A největší záludnost těchto algoritmických,
05:40
these personalizedindividuální filtersfiltry,
126
325000
2000
personalizovaných filtrů je právě to,
05:42
is that, because they're mainlyhlavně looking
127
327000
2000
že sledují hlavně,
05:44
at what you clickklikněte na tlačítko on first,
128
329000
4000
na co klikáme jako první,
05:48
it can throwhod off that balanceZůstatek.
129
333000
4000
což může narušit tu požadovanou rovnováhu.
05:52
And insteadmísto toho of a balancedvyrovnaný informationinformace dietstrava,
130
337000
3000
A místo vyvážené informační stravy
05:55
you can endkonec up surroundedobklopen
131
340000
2000
dostaneme jen
05:57
by informationinformace junkharaburdí foodjídlo.
132
342000
2000
informační menu z MacDonalda.
05:59
What this suggestsnavrhuje
133
344000
2000
Což naznačuje, že jsme se možná
06:01
is actuallyvlastně that we maysmět have the storypříběh about the InternetInternetu wrongšpatně.
134
346000
3000
s našimi představami o internetu pěkně spletli.
06:04
In a broadcastvysílání societyspolečnost --
135
349000
2000
Ve vysílacích společnostech --
06:06
this is how the foundingzaložení mythologymytologie goesjde --
136
351000
2000
tak to říká mytologie vysílání --
06:08
in a broadcastvysílání societyspolečnost,
137
353000
2000
tak v těch vysílacích společnostech
06:10
there were these gatekeepersservery gatekeeper, the editorseditory,
138
355000
2000
byli správci, editoři,
06:12
and they controlledřízen the flowsprotéká of informationinformace.
139
357000
3000
kteří kontrolovali proudění informací.
06:15
And alongpodél camepřišel the InternetInternetu and it sweptzametl them out of the way,
140
360000
3000
A pak přišel internet a smetl je z cesty,
06:18
and it allowedpovoleno all of us to connectpřipojit togetherspolu,
141
363000
2000
umožnil všem navzájem se propojit,
06:20
and it was awesomeskvělý.
142
365000
2000
a bylo to skvělé.
06:22
But that's not actuallyvlastně what's happeninghappening right now.
143
367000
3000
Ale to už se teď neděje.
06:26
What we're seeingvidění is more of a passingprocházet of the torchpochodeň
144
371000
3000
Teď můžeme sledovat, jak živí strážci
06:29
from humančlověk gatekeepersservery gatekeeper
145
374000
2000
předávají štafetu
06:31
to algorithmicalgoritmické onesty.
146
376000
3000
algoritmickým strážcům.
06:34
And the thing is that the algorithmsalgoritmy
147
379000
3000
A problém je v tom, že algoritmy
06:37
don't yetdosud have the kinddruh of embeddedvestavěné ethicsetika
148
382000
3000
nemají zabudovanou etiku
06:40
that the editorseditory did.
149
385000
3000
těch bývalých živých strážců.
06:43
So if algorithmsalgoritmy are going to curateKaplan the worldsvět for us,
150
388000
3000
Takže pokud za nás mají svět hlídat algoritmy,
06:46
if they're going to deciderozhodni se what we get to see and what we don't get to see,
151
391000
3000
pokud to budou ony, kdo rozhoduje, co vidíme a co nevidíme,
06:49
then we need to make sure
152
394000
2000
pak si musíme dát pozor,
06:51
that they're not just keyednedočkavý to relevancerelevantnost.
153
396000
3000
aby se neřídily automaticky jen podle našeho výběru.
06:54
We need to make sure that they alsotaké showshow us things
154
399000
2000
Musíme zajistit, aby nám také nabízely věci,
06:56
that are uncomfortablenepříjemný or challengingnáročný or importantdůležité --
155
401000
3000
které jsou nepříjemné, podnětné a důležité,
06:59
this is what TEDTED does --
156
404000
2000
aby nám ukazovaly jiné úhly pohledu
07:01
other pointsbodů of viewPohled.
157
406000
2000
-- jako to dělá třeba TED.
07:03
And the thing is, we'vejsme actuallyvlastně been here before
158
408000
2000
V podobné situaci
07:05
as a societyspolečnost.
159
410000
2000
už společnost jednou byla.
07:08
In 1915, it's not like newspapersnoviny were sweatingpocení a lot
160
413000
3000
V roce 1915 se noviny příliš nestaraly
07:11
about theirjejich civicobčanské responsibilitiesodpovědnosti.
161
416000
3000
o nějakou občanskou zodpovědnost.
07:14
Then people noticedvšiml si
162
419000
2000
A pak si lidé všimli,
07:16
that they were doing something really importantdůležité.
163
421000
3000
že ony mají velmi důležitý úkol.
07:19
That, in factskutečnost, you couldn'tnemohl have
164
424000
2000
Že nemůžete mít
07:21
a functioningfungování democracydemokracie
165
426000
2000
fungující demokracii,
07:23
if citizensobčanů didn't get a good flowtok of informationinformace,
166
428000
4000
pokud občané nemají kvalitní přísun informací.
07:28
that the newspapersnoviny were criticalkritické because they were actingherectví as the filterfiltr,
167
433000
3000
Noviny byly kritické, protože fungovaly jako filtr,
07:31
and then journalisticnovinářské ethicsetika developedrozvinutý.
168
436000
2000
a tak se vyvinula novinářská etika.
07:33
It wasn'tnebyl perfectperfektní,
169
438000
2000
Nebyla dokonalá,
07:35
but it got us throughpřes the last centurystoletí.
170
440000
3000
ale pomohla nám přežít minulé století.
07:38
And so now,
171
443000
2000
A teď jsme s internetem
07:40
we're kinddruh of back in 1915 on the WebWeb.
172
445000
3000
zpátky v situaci z roku 1915.
07:44
And we need the newNový gatekeepersservery gatekeeper
173
449000
3000
A potřebujeme, aby noví strážci
07:47
to encodekódování that kinddruh of responsibilityodpovědnost
174
452000
2000
zabudovali ten smysl zodpovědnosti
07:49
into the codekód that they're writingpsaní.
175
454000
2000
do kódu, který vytvářejí.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Vím, že je tu přítomno mnoho lidí z Facebooku i z Googlu --
07:54
LarryLarry and SergeySergej --
177
459000
2000
Larry a Sergey --
07:56
people who have helpedpomohl buildstavět the WebWeb as it is,
178
461000
2000
lidé, kteří pomohli vybudovat Web do dnešní podoby,
07:58
and I'm gratefulvděčný for that.
179
463000
2000
a já jsem jim za to vděčný.
08:00
But we really need you to make sure
180
465000
3000
Ale musíme si teď dát velký pozor,
08:03
that these algorithmsalgoritmy have encodedkódování in them
181
468000
3000
aby algoritmy měly v sobě zabudovaný
08:06
a sensesmysl of the publicveřejnost life, a sensesmysl of civicobčanské responsibilityodpovědnost.
182
471000
3000
smysl pro veřejný život, pro občanskou zodpovědnost.
08:09
We need you to make sure that they're transparentprůhledný enoughdost
183
474000
3000
Musíme se ujistit, že jsou dostatečně průhledné,
08:12
that we can see what the rulespravidel are
184
477000
2000
že známe pravidla,
08:14
that determineurčit what getsdostane throughpřes our filtersfiltry.
185
479000
3000
která rozhodují o tom, co projde našimi filtry.
08:17
And we need you to give us some controlřízení
186
482000
2000
A my potřebujeme, abyste nám vy dali kontrolu,
08:19
so that we can deciderozhodni se
187
484000
2000
abychom mohli rozhodovat,
08:21
what getsdostane throughpřes and what doesn't.
188
486000
3000
co se k nám dostane a co ne.
08:24
Because I think
189
489000
2000
Protože jsem předvědčený,
08:26
we really need the InternetInternetu to be that thing
190
491000
2000
že internet opravdu potřebujeme takový,
08:28
that we all dreamedsnil of it beingbytost.
191
493000
2000
jaký jsme si ho kdysi vysnili.
08:30
We need it to connectpřipojit us all togetherspolu.
192
495000
3000
Potřebujeme, aby nás všechny spojoval.
08:33
We need it to introducepředstavit us to newNový ideasnápady
193
498000
3000
Potřebujeme, aby přinášel nové nápady,
08:36
and newNový people and differentodlišný perspectivesperspektivy.
194
501000
3000
nové lidi a nové úhly pohledu.
08:40
And it's not going to do that
195
505000
2000
A to se nestane,
08:42
if it leaveslisty us all isolatedizolovaný in a WebWeb of one.
196
507000
3000
pokud budeme izolováni v naší vlastní "síti".
08:45
Thank you.
197
510000
2000
Děkuji.
08:47
(ApplausePotlesk)
198
512000
11000
(Potlesk)

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com