ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Илай Парисър: Пазете се от онлайн "балонни филтри"

Filmed:
5,309,238 views

Докато интернет компаниите се стремят да нагодят услугите си (включително новините и резултатите от търсенията) към нашите лични вкусове, има опасно нежелано последствие: Да бъдем хванати в капана на "балонения филтър", и да не бъдем изложени на информацията, която може да предизвика или да разшири мирогледа ни. Илай Парисър твърди убедително, че това в крайна сметка ще се окаже зле за нас и лошо за демокрацията.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkМарк ZuckerbergЦукерберг,
0
0
2000
Марк Зукерберг,
00:17
a journalistжурналист was askingпита him a questionвъпрос about the newsНовини feedфураж.
1
2000
3000
журналист го питал въпрос за емисиите с новини.
00:20
And the journalistжурналист was askingпита him,
2
5000
2000
И журналиста го попитал:
00:22
"Why is this so importantважно?"
3
7000
2000
"Защо е толкова важно това?"
00:24
And ZuckerbergЦукерберг said,
4
9000
2000
И Зукерберг отговорил:
00:26
"A squirrelкатерица dyingумиращ in your frontпреден yardдвор
5
11000
2000
"Катерица умираща във вашия двор
00:28
mayможе be more relevantсъответен to your interestsинтереси right now
6
13000
3000
може да бъде по-важна за вашите интереси в момента,
00:31
than people dyingумиращ in AfricaАфрика."
7
16000
3000
отколкото хората, които умират в Африка."
00:34
And I want to talk about
8
19000
2000
И аз искам да говоря за това,
00:36
what a WebУеб basedбазиран on that ideaидея of relevanceуместност mightбиха могли, може look like.
9
21000
3000
как може да изглежда Уеб базиран на тази идея за значимост.
00:40
So when I was growingнарастващ up
10
25000
2000
И така, когато израствах
00:42
in a really ruralселски area■ площ in MaineМейн,
11
27000
2000
в един наистина селски район в щата Мейн,
00:44
the InternetИнтернет meantозначаваше something very differentразличен to me.
12
29000
3000
Интернет означаваше нещо много различно за мен.
00:47
It meantозначаваше a connectionВръзка to the worldсвят.
13
32000
2000
Означаваше връзка към света.
00:49
It meantозначаваше something that would connectсвържете us all togetherзаедно.
14
34000
3000
Означаваше нещо, което можеше да ни свърже всички заедно.
00:52
And I was sure that it was going to be great for democracyдемокрация
15
37000
3000
И бях сигурен, че щеше да бъде страхотен за демокрацията
00:55
and for our societyобщество.
16
40000
3000
и за нашето общество.
00:58
But there's this shiftизместване
17
43000
2000
Но има промяна
01:00
in how informationинформация is flowingтечаща onlineна линия,
18
45000
2000
в това как информацията тече онлайн,
01:02
and it's invisibleневидим.
19
47000
3000
и тя е невидима.
01:05
And if we don't payплащам attentionвнимание to it,
20
50000
2000
И ако не обърнем внимание на това,
01:07
it could be a realреален problemпроблем.
21
52000
3000
то може да бъде реален проблем.
01:10
So I first noticedзабелязах this in a placeмясто I spendхарча a lot of time --
22
55000
3000
За първи път забелязах това на място, където прекарвам много време --
01:13
my FacebookFacebook pageстраница.
23
58000
2000
моята Фейсбук страница.
01:15
I'm progressiveпрогресивен, politicallyполитически -- bigголям surpriseизненада --
24
60000
3000
Аз съм прогресивен, политически -- голяма изненада --
01:18
but I've always goneси отиде out of my way to meetСреща conservativesконсерваторите.
25
63000
2000
но винаги съм се стремял да изслушвам консерваторите.
01:20
I like hearingслух what they're thinkingмислене about;
26
65000
2000
Обичам да изслушвам това, за което мислят,
01:22
I like seeingвиждане what they linkвръзка to;
27
67000
2000
обичам да гледам линковете, които изпращат,
01:24
I like learningизучаване на a thing or two.
28
69000
2000
обичам да научавам нещо или друго.
01:26
And so I was surprisedизненадан when I noticedзабелязах one day
29
71000
3000
И така, аз бях изненадан, когато забелязах един ден,
01:29
that the conservativesконсерваторите had disappearedизчезнал from my FacebookFacebook feedфураж.
30
74000
3000
че консерваторите изчезнаха от моя Фейсбук фийд.
01:33
And what it turnedоказа out was going on
31
78000
2000
И това, което се оказа че става бе,
01:35
was that FacebookFacebook was looking at whichкойто linksзвена I clickedщракване on,
32
80000
4000
че Фейсбук следеше линковете, върху които съм щракал,
01:39
and it was noticingзабележи that, actuallyвсъщност,
33
84000
2000
и беше забелязал, че всъщност,
01:41
I was clickingщракване more on my liberalлиберална friends'"приятели' linksзвена
34
86000
2000
съм щракал повече върху линковете на моите либерални приятели,
01:43
than on my conservativeконсервативен friends'"приятели' linksзвена.
35
88000
3000
отколкото върху линковете на моите консервативни приятели.
01:46
And withoutбез consultingконсултативен me about it,
36
91000
2000
И без да се консултират с мен за това,
01:48
it had editedредактирано them out.
37
93000
2000
ги бяха редактирали.
01:50
They disappearedизчезнал.
38
95000
3000
Те изчезнаха.
01:54
So FacebookFacebook isn't the only placeмясто
39
99000
2000
И така, Фейсбук не е единственото място,
01:56
that's doing this kindмил of invisibleневидим, algorithmicалгоритмични
40
101000
2000
което прави това невидимо, алгоритмично
01:58
editingредактиране of the WebУеб.
41
103000
3000
редактиране на Уеба.
02:01
Google'sНа Google doing it too.
42
106000
2000
Гугъл го правят също.
02:03
If I searchТърсене for something, and you searchТърсене for something,
43
108000
3000
Ако аз търся нещо, и вие търсите нещо,
02:06
even right now at the very sameедин и същ time,
44
111000
2000
дори в този момент, по едно и също време,
02:08
we mayможе get very differentразличен searchТърсене resultsрезултати.
45
113000
3000
ние можем да получим много различни резултати от търсенето.
02:11
Even if you're loggedвлязъл out, one engineerинженер told me,
46
116000
3000
Дори и когато не сте се разписали, един инженер ми каза,
02:14
there are 57 signalsсигнали
47
119000
2000
има 57 сигнали,
02:16
that GoogleGoogle looksвъншност at --
48
121000
3000
които Гугъл следи --
02:19
everything from what kindмил of computerкомпютър you're on
49
124000
3000
всичко от какъв компютър имате,
02:22
to what kindмил of browserбраузър you're usingизползвайки
50
127000
2000
до какъв браузър използвате,
02:24
to where you're locatedразположен --
51
129000
2000
до мястото, където се намирате --
02:26
that it usesупотреби to personallyлично tailorшивач your queryзаявка resultsрезултати.
52
131000
3000
които използва за персонализиране на вашите резултатите от търсенето.
02:29
Think about it for a secondвтори:
53
134000
2000
Помислете си за това за секунда:
02:31
there is no standardстандарт GoogleGoogle anymoreвече.
54
136000
4000
повече няма стандартен Гугъл.
02:35
And you know, the funnyзабавен thing about this is that it's hardтвърд to see.
55
140000
3000
И знаете ли, странното нещо за това е, че е трудно да се види.
02:38
You can't see how differentразличен your searchТърсене resultsрезултати are
56
143000
2000
Не можете да видите колко различни са резултатите от търсенето ви,
02:40
from anyoneнякой else'sдруг е.
57
145000
2000
от тези на някой друг.
02:42
But a coupleдвойка of weeksседмици agoпреди,
58
147000
2000
Но преди няколко седмици,
02:44
I askedпопитах a bunchкуп of friendsприятели to GoogleGoogle "EgyptЕгипет"
59
149000
3000
помолих няколко приятели да търсят за "Египет" в Гугъл,
02:47
and to sendизпращам me screenекран shotsснимки of what they got.
60
152000
3000
и да ми изпратят скрийншоти от това, което виждат.
02:50
So here'sето my friendприятел Scott'sСкот screenекран shotизстрел.
61
155000
3000
Така че тук е скрийншота на моя приятел Скот.
02:54
And here'sето my friendприятел Daniel'sDaniel's screenекран shotизстрел.
62
159000
3000
А тук е скрийншота на моя приятел Даниел.
02:57
When you put them side-by-sideедин до друг,
63
162000
2000
Когато ги поставите една до друга,
02:59
you don't even have to readПрочети the linksзвена
64
164000
2000
дори не трябва да четете линковете,
03:01
to see how differentразличен these two pagesстраници are.
65
166000
2000
за да забележите колко различни са тези две страници.
03:03
But when you do readПрочети the linksзвена,
66
168000
2000
Но когато зачетете линковете,
03:05
it's really quiteсъвсем remarkableзабележителен.
67
170000
3000
е наистина доста забележително.
03:09
DanielДаниел didn't get anything about the protestsпротести in EgyptЕгипет at all
68
174000
3000
Даниел не получил никаква информация за протестите в Египет, въобще,
03:12
in his first pageстраница of GoogleGoogle resultsрезултати.
69
177000
2000
в първата страница с резултати от търсенето в Гугъл.
03:14
Scott'sСкот resultsрезултати were fullпълен of them.
70
179000
2000
Резултатите на Скот бяха пълни с тях.
03:16
And this was the bigголям storyистория of the day at that time.
71
181000
2000
И това беше голямата история на деня по това време.
03:18
That's how differentразличен these resultsрезултати are becomingпревръща.
72
183000
3000
Ето колко различни стават тези резултати.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherедин.
73
186000
3000
Но това не е само Гугъл и Фейсбук.
03:24
This is something that's sweepingметене the WebУеб.
74
189000
2000
Това е нещо, което се простира в мрежата.
03:26
There are a wholeцяло hostдомакин of companiesкомпании that are doing this kindмил of personalizationПерсонализиране.
75
191000
3000
Има цял куп от компании, които правят този вид персонализация.
03:29
YahooYahoo NewsНовини, the biggestНай-големият newsНовини siteмясто on the InternetИнтернет,
76
194000
3000
Yahoo News, най-големият новинарски сайт в интернет,
03:32
is now personalizedперсонализирани -- differentразличен people get differentразличен things.
77
197000
3000
сега е персонализиран -- различни хора получават различни неща.
03:36
HuffingtonHuffington PostПост, the WashingtonВашингтон PostПост, the NewНов YorkЙорк TimesПъти --
78
201000
3000
Хъфингтън Пост, Вашингтон пост, Ню Йорк Таймс --
03:39
all flirtingфлирт with personalizationПерсонализиране in variousразлични waysначини.
79
204000
3000
всички флиртуват с персонализацията по различни начини.
03:42
And this movesходове us very quicklyбързо
80
207000
3000
И това ни пренася много бързо
03:45
towardза a worldсвят in whichкойто
81
210000
2000
към един свят, в който
03:47
the InternetИнтернет is showingпоказване us what it thinksмисли we want to see,
82
212000
4000
Интернет ни показва това, което той смята, че искаме да видим,
03:51
but not necessarilyнепременно what we need to see.
83
216000
3000
но не непременно това, което ние искаме да видим.
03:54
As EricЕрик SchmidtШмид said,
84
219000
3000
Както Ерик Шмид казва:
03:57
"It will be very hardтвърд for people to watch or consumeконсумираме something
85
222000
3000
"Ще бъде много трудно за хората да гледат или консумират нещо,
04:00
that has not in some senseсмисъл
86
225000
2000
което не е по някакъв начин
04:02
been tailoredсъобразени for them."
87
227000
3000
пригодено за тях."
04:05
So I do think this is a problemпроблем.
88
230000
2000
И аз мисля, че това е проблем.
04:07
And I think, if you take all of these filtersфилтри togetherзаедно,
89
232000
3000
Мисля, че ако вземем всички тези филтри заедно,
04:10
you take all these algorithmsалгоритми,
90
235000
2000
ако вземем всички тези алгоритми,
04:12
you get what I call a filterфилтър bubbleмехур.
91
237000
3000
ще получим това, което наричам балонен филтър.
04:16
And your filterфилтър bubbleмехур is your ownсобствен personalперсонален,
92
241000
3000
И вашия балонен филтър е вашата лична
04:19
uniqueединствен по рода си universeвселена of informationинформация
93
244000
2000
уникална вселена от информация,
04:21
that you liveживея in onlineна линия.
94
246000
2000
с която живеете онлайн.
04:23
And what's in your filterфилтър bubbleмехур
95
248000
3000
И какво има във вашия балонен филтър
04:26
dependsЗависи on who you are, and it dependsЗависи on what you do.
96
251000
3000
зависи от това кой сте, и зависи от това какво правите.
04:29
But the thing is that you don't decideреши what getsполучава in.
97
254000
4000
Но важното е, че вие не решавате какво влиза вътре.
04:33
And more importantlyважно,
98
258000
2000
И по-важното е, че
04:35
you don't actuallyвсъщност see what getsполучава editedредактирано out.
99
260000
3000
вие всъщност не виждате това, което е редактирано.
04:38
So one of the problemsпроблеми with the filterфилтър bubbleмехур
100
263000
2000
Така че един от проблемите с балонния филтър
04:40
was discoveredоткрит by some researchersизследователи at NetflixNetflix.
101
265000
3000
беше открит от някои изследователи от Нетфликс.
04:43
And they were looking at the NetflixNetflix queuesопашки, and they noticedзабелязах something kindмил of funnyзабавен
102
268000
3000
Гледайки времената за чакане в Нетфликс, те забелязали нещо странно,
04:46
that a lot of us probablyвероятно have noticedзабелязах,
103
271000
2000
което много от нас вероятно са забелязали,
04:48
whichкойто is there are some moviesкино
104
273000
2000
което е, че някои филми
04:50
that just sortвид of zipцип right up and out to our housesкъщи.
105
275000
3000
преминават мигновено през нашите домове.
04:53
They enterвъведете the queueопашка, they just zipцип right out.
106
278000
3000
Те влизат в опашката и се свалят веднага.
04:56
So "IronЖелязо Man" zipsципове right out,
107
281000
2000
Например "Железния човек" се сваля веднага,
04:58
and "WaitingИзчакване for SupermanСупермен"
108
283000
2000
а "В очакване на Супермен"
05:00
can wait for a really long time.
109
285000
2000
може да чака доста дълго време.
05:02
What they discoveredоткрит
110
287000
2000
Това, което открили
05:04
was that in our NetflixNetflix queuesопашки
111
289000
2000
било, че в нашите Нетфликс опашки
05:06
there's this epicепос struggleборба going on
112
291000
3000
се води тази епична борба
05:09
betweenмежду our futureбъдеще aspirationalпожелателно selvesсъщност
113
294000
3000
между нашите бъдещи пожелателни личности,
05:12
and our more impulsiveимпулсивен presentнастояще selvesсъщност.
114
297000
3000
и нашите по-импулсивни настоящи личности.
05:15
You know we all want to be someoneнякой
115
300000
2000
Знаете ли, ние всички искаме да бъдем някой,
05:17
who has watchedГледах "RashomonРашомон,"
116
302000
2000
който е гледал "Рашомон,"
05:19
but right now
117
304000
2000
но точно сега
05:21
we want to watch "AceАсо VenturaВентура" for the fourthчетвърти time.
118
306000
3000
искаме да гледаме "Ейс Вентура" за четвърти път.
05:24
(LaughterСмях)
119
309000
3000
(Смях)
05:27
So the bestнай-доброто editingредактиране givesдава us a bitмалко of bothи двете.
120
312000
2000
Затова най-доброто редактиране ни дава малко и от двете.
05:29
It givesдава us a little bitмалко of JustinДжъстин BieberБийбър
121
314000
2000
Дава ни малко от Джъстин Бийбър
05:31
and a little bitмалко of AfghanistanАфганистан.
122
316000
2000
и малко от Афганистан.
05:33
It givesдава us some informationинформация vegetablesзеленчуци;
123
318000
2000
Дава ни информационни зеленчуци,
05:35
it givesдава us some informationинформация dessertдесерт.
124
320000
3000
дава ни информационни десерти.
05:38
And the challengeпредизвикателство with these kindsвидове of algorithmicалгоритмични filtersфилтри,
125
323000
2000
И предизвикателството с тези алгоритмични филтри,
05:40
these personalizedперсонализирани filtersфилтри,
126
325000
2000
с тези персонализирани филтри
05:42
is that, because they're mainlyглавно looking
127
327000
2000
е, че понеже те основно гледат
05:44
at what you clickкликване on first,
128
329000
4000
това, върху което щракате първо,
05:48
it can throwхвърлям off that balanceбаланс.
129
333000
4000
това може да наруши баланса.
05:52
And insteadвместо of a balancedуравновесен informationинформация dietдиета,
130
337000
3000
И вместо една балансирана информационна диета,
05:55
you can endкрай up surroundedобкръжен
131
340000
2000
може да се окажете заобиколени
05:57
by informationинформация junkбоклуци foodхрана.
132
342000
2000
от информационни хранителни боклуци.
05:59
What this suggestsподсказва
133
344000
2000
Това намеква,
06:01
is actuallyвсъщност that we mayможе have the storyистория about the InternetИнтернет wrongпогрешно.
134
346000
3000
че всъщност може да не сме разбрали правилно историята на Интернет.
06:04
In a broadcastизлъчване societyобщество --
135
349000
2000
В информационно общество --
06:06
this is how the foundingосноваване mythologyмитология goesотива --
136
351000
2000
така е поне в основополагащата митология --
06:08
in a broadcastизлъчване societyобщество,
137
353000
2000
в информационното общество,
06:10
there were these gatekeepersвратарите, the editorsредактори,
138
355000
2000
имаше пазители, редактори,
06:12
and they controlledконтролиран the flowsпотоци of informationинформация.
139
357000
3000
и те контролираха потока на информация.
06:15
And alongзаедно cameдойде the InternetИнтернет and it sweptпометен them out of the way,
140
360000
3000
И тогава се появи Интернет и ги помете настрани,
06:18
and it allowedпозволен all of us to connectсвържете togetherзаедно,
141
363000
2000
и ни позволи да се свържем заедно,
06:20
and it was awesomeстрахотен.
142
365000
2000
и беше страхотно.
06:22
But that's not actuallyвсъщност what's happeningслучва right now.
143
367000
3000
Но това не е нещото, което се случва в момента.
06:26
What we're seeingвиждане is more of a passingпреминаване of the torchфакел
144
371000
3000
Това, което виждаме е по-скоро предаване на факлата
06:29
from humanчовек gatekeepersвратарите
145
374000
2000
от човешки контрольори
06:31
to algorithmicалгоритмични onesтакива.
146
376000
3000
на алгоритмични такива.
06:34
And the thing is that the algorithmsалгоритми
147
379000
3000
И проблемът е, че алгоритмите
06:37
don't yetоще have the kindмил of embeddedвградени ethicsетика
148
382000
3000
все още не разполагат с вградената етика,
06:40
that the editorsредактори did.
149
385000
3000
която имаха редакторите.
06:43
So if algorithmsалгоритми are going to curateпомощник на енорийски свещеник the worldсвят for us,
150
388000
3000
Така че, ако алгоритмите ще ни превеждат през света,
06:46
if they're going to decideреши what we get to see and what we don't get to see,
151
391000
3000
ако те ще решават какво можем да видим и какво не можем да видим,
06:49
then we need to make sure
152
394000
2000
тогава трябва да се уверим,
06:51
that they're not just keyedизнервящ to relevanceуместност.
153
396000
3000
че те не са настроени само за уместност.
06:54
We need to make sure that they alsoсъщо showшоу us things
154
399000
2000
Трябва да се уверим, че те също ще ни показват неща,
06:56
that are uncomfortableнеудобен or challengingпредизвикателен or importantважно --
155
401000
3000
които са неудобни, или предизвикателни, или важни --
06:59
this is what TEDТЕД does --
156
404000
2000
това, което прави TED --
07:01
other pointsточки of viewизглед.
157
406000
2000
други гледни точки.
07:03
And the thing is, we'veние имаме actuallyвсъщност been here before
158
408000
2000
И въпросът е, че ние всъщност сме били тук преди
07:05
as a societyобщество.
159
410000
2000
като общество.
07:08
In 1915, it's not like newspapersвестници were sweatingизпотяване a lot
160
413000
3000
През 1915 година, не че вестниците не са се потили много
07:11
about theirтехен civicгражданския responsibilitiesотговорности.
161
416000
3000
за гражданските си задължения.
07:14
Then people noticedзабелязах
162
419000
2000
Тогава хората забелязали,
07:16
that they were doing something really importantважно.
163
421000
3000
че те правели нещо наистина важно.
07:19
That, in factфакт, you couldn'tне можех have
164
424000
2000
Че всъщност не може да има
07:21
a functioningфункциониране democracyдемокрация
165
426000
2000
функционираща демокрация,
07:23
if citizensграждани didn't get a good flowпоток of informationинформация,
166
428000
4000
ако гражданите не получават добър приток от информация.
07:28
that the newspapersвестници were criticalкритичен because they were actingактьорско майсторство as the filterфилтър,
167
433000
3000
Че вестниците били жизнено важни, защото те действали като филтър,
07:31
and then journalisticжурналистически ethicsетика developedразвита.
168
436000
2000
и после журналистическата етика се развила.
07:33
It wasn'tне е perfectсъвършен,
169
438000
2000
Това не беше съвършено,
07:35
but it got us throughпрез the last centuryвек.
170
440000
3000
но ни свърши работа през миналия век.
07:38
And so now,
171
443000
2000
И така, сега,
07:40
we're kindмил of back in 1915 on the WebУеб.
172
445000
3000
ние сме един вид обратно в 1915 година с Уеба.
07:44
And we need the newнов gatekeepersвратарите
173
449000
3000
И ние се нуждаем от нови пазители,
07:47
to encodeкодиране that kindмил of responsibilityотговорност
174
452000
2000
които да кодират този вид отговорност
07:49
into the codeкод that they're writingписане.
175
454000
2000
в кода, който пишат.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Знам, че има много хора тук от Фейсбук и от Гугъл --
07:54
LarryЛари and SergeyСергей --
177
459000
2000
Лари и Сергей --
07:56
people who have helpedпомогна buildпострои the WebУеб as it is,
178
461000
2000
хора, които са помогнали да построят Уеба в сегашната му форма,
07:58
and I'm gratefulблагодарен for that.
179
463000
2000
и аз съм им благодарен за това.
08:00
But we really need you to make sure
180
465000
3000
Но ние наистина трябва да се уверим,
08:03
that these algorithmsалгоритми have encodedкодиран in them
181
468000
3000
че тези алгоритми имат закодирано в тях
08:06
a senseсмисъл of the publicобществен life, a senseсмисъл of civicгражданския responsibilityотговорност.
182
471000
3000
чувство за обществения живот, чувството за гражданска отговорност.
08:09
We need you to make sure that they're transparentпрозрачен enoughдостатъчно
183
474000
3000
Трябва да се уверите, че те са достатъчно прозрачни,
08:12
that we can see what the rulesправилник are
184
477000
2000
че можем да видим какви са правилата,
08:14
that determineопредели what getsполучава throughпрез our filtersфилтри.
185
479000
3000
които определят какво преминава през нашите филтри.
08:17
And we need you to give us some controlконтрол
186
482000
2000
И вие трябва да ни дадете някакъв контрол,
08:19
so that we can decideреши
187
484000
2000
така че да можем да решим
08:21
what getsполучава throughпрез and what doesn't.
188
486000
3000
какво преминава и какво не.
08:24
Because I think
189
489000
2000
Защото мисля,
08:26
we really need the InternetИнтернет to be that thing
190
491000
2000
че наистина имаме нужда Интернет да бъде това нещо,
08:28
that we all dreamedсънувах of it beingсъщество.
191
493000
2000
което всички ние мечтаем да бъде.
08:30
We need it to connectсвържете us all togetherзаедно.
192
495000
3000
Необходимо е той да ни свързва всички заедно.
08:33
We need it to introduceвъведат us to newнов ideasидеи
193
498000
3000
Необходимо е той да ни запознава с нови идеи
08:36
and newнов people and differentразличен perspectivesперспективи.
194
501000
3000
и нови хора, с различни гледни точки.
08:40
And it's not going to do that
195
505000
2000
И той няма да постигне това,
08:42
if it leavesлиста us all isolatedизолиран in a WebУеб of one.
196
507000
3000
ако ни остави всички нас изолирани в Уеб от един.
08:45
Thank you.
197
510000
2000
Благодаря ви.
08:47
(ApplauseАплодисменти)
198
512000
11000
(Ръкопляскане)
Translated by Anton Hikov
Reviewed by Darina Stoyanova

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com