ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Елі Парізер: Стережіться "фільтрових бульбашок" онлайн.

Filmed:
5,309,238 views

Через те, що Інтернет-компанії прагнуть підігнати свої сервіси (включаючи новини та пошукові результати) під наші особисті вподобання, існують небезпечні небажані наслідки: ми опиняємося у пастці "фільтрової бульбашки" і лишаємося закритими до інформації, яка може кинути виклик нашому світогляду, або розширити його. Елі Парізер наполегливо стверджує, що в остаточному підсумку це погано вплине на нас та матиме негативний вплив на демократію.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkМарк ZuckerbergЦукерберг,
0
0
2000
Марк Цукерберг,
00:17
a journalistжурналіст was askingзапитую him a questionпитання about the newsновини feedгодувати.
1
2000
3000
журналіст ставив йому питання про стрічку новин.
00:20
And the journalistжурналіст was askingзапитую him,
2
5000
2000
Журналіст запитував його:
00:22
"Why is this so importantважливо?"
3
7000
2000
"Чому це так важливо?"
00:24
And ZuckerbergЦукерберг said,
4
9000
2000
Цукерберг відповів:
00:26
"A squirrelбілки dyingвмирає in your frontфронт yardдвір
5
11000
2000
"Білка, що помирає у вашому дворі
00:28
mayможе be more relevantрелевантний to your interestsінтереси right now
6
13000
3000
може бути більш релевантною до ваших інтересів просто зараз
00:31
than people dyingвмирає in AfricaАфрика."
7
16000
3000
ніж люди, що гинуть в Африці".
00:34
And I want to talk about
8
19000
2000
Я хочу поговорити про те,
00:36
what a WebWeb basedна основі on that ideaідея of relevanceрелевантність mightможе look like.
9
21000
3000
як Інтернет, що базується на цій ідеї релевантності може виглядати.
00:40
So when I was growingзростає up
10
25000
2000
В той час коли я підростав
00:42
in a really ruralсільський areaплоща in MaineМен,
11
27000
2000
в насправді сільській місцевості штату Мен,
00:44
the InternetІнтернет meantозначало something very differentінший to me.
12
29000
3000
Інтернет означав для мене щось зовсім інше.
00:47
It meantозначало a connectionз'єднання to the worldсвіт.
13
32000
2000
Він означав зв'язок з усім світом.
00:49
It meantозначало something that would connectпідключити us all togetherразом.
14
34000
3000
Він означав дещо таке, що мало поєднати нас всіх разом.
00:52
And I was sure that it was going to be great for democracyдемократія
15
37000
3000
І я був упевнений, що це буде чудово для демокрітії
00:55
and for our societyсуспільство.
16
40000
3000
і для нашого суспільства.
00:58
But there's this shiftзміна
17
43000
2000
Але існує цей зсув
01:00
in how informationінформація is flowingтече onlineонлайн,
18
45000
2000
в тому, як інформація тече онлайн,
01:02
and it's invisibleневидимий.
19
47000
3000
і він невидимий.
01:05
And if we don't payплатити attentionувага to it,
20
50000
2000
І якщо ми не звернемо увагу на нього,
01:07
it could be a realреальний problemпроблема.
21
52000
3000
він може стати реальною проблемою.
01:10
So I first noticedпомітив this in a placeмісце I spendвитрачати a lot of time --
22
55000
3000
Я вперше помітив це в місці, де я проводжу доволі багато часу -
01:13
my FacebookFacebook pageсторінка.
23
58000
2000
моя сторінка у Facebook.
01:15
I'm progressiveпрогресивний, politicallyполітично -- bigвеликий surpriseздивування --
24
60000
3000
Я прогресивний, політично -- великий сюрприз --
01:18
but I've always goneпішов out of my way to meetзустрітися conservativesконсерватори.
25
63000
2000
але я завжди відходив від моїх переконань, щоб зустрітися з консерваторами.
01:20
I like hearingслухання what they're thinkingмислення about;
26
65000
2000
Мені подобається чути про що вони думають;
01:22
I like seeingбачачи what they linkпосилання to;
27
67000
2000
Мені подобається бачити посилання, якими вони діляться;
01:24
I like learningнавчання a thing or two.
28
69000
2000
Мені подобається дізнаватись певні речі.
01:26
And so I was surprisedздивований when I noticedпомітив one day
29
71000
3000
Я був здивований коли одного дня помітив,
01:29
that the conservativesконсерватори had disappearedзник from my FacebookFacebook feedгодувати.
30
74000
3000
що консерватори зникли з моєї стрічки новин на Facebook.
01:33
And what it turnedобернувся out was going on
31
78000
2000
Виявилося, що відбувалося те,
01:35
was that FacebookFacebook was looking at whichкотрий linksпосилання I clickedнатиснув on,
32
80000
4000
що Facebook вивчав, на які посилання я натискав,
01:39
and it was noticingпомічаючи that, actuallyнасправді,
33
84000
2000
і він помітив, що власне,
01:41
I was clickingнатиснувши more on my liberalліберальний friends'друзів linksпосилання
34
86000
2000
я натискав частіше на посилання від моїх друзів лібералів
01:43
than on my conservativeконсервативний friends'друзів linksпосилання.
35
88000
3000
ніж на посилання моїх друзів консерваторів.
01:46
And withoutбез consultingконсалтинг me about it,
36
91000
2000
І не радячись зі мною,
01:48
it had editedвідредаговано them out.
37
93000
2000
він відсіяв їх.
01:50
They disappearedзник.
38
95000
3000
Вони зникли.
01:54
So FacebookFacebook isn't the only placeмісце
39
99000
2000
Але Facebook не єдине місце
01:56
that's doing this kindдоброзичливий of invisibleневидимий, algorithmicАлгоритмічні
40
101000
2000
де провадять такого роду невидиме, алгоритмічне
01:58
editingредагування of the WebWeb.
41
103000
3000
редагування Інтернету.
02:01
Google'sGoogle doing it too.
42
106000
2000
Google також це робить.
02:03
If I searchпошук for something, and you searchпошук for something,
43
108000
3000
Якщо я шукаю дещо, і ви шукаєте те саме,
02:06
even right now at the very sameтой же time,
44
111000
2000
навіть просто зараз, в той самиий час,
02:08
we mayможе get very differentінший searchпошук resultsрезультати.
45
113000
3000
ми можемо отримати дуже різні результати нашого пошуку.
02:11
Even if you're loggedзаписаний out, one engineerінженер told me,
46
116000
3000
Навіть якщо ви вилогувались, один інженер сказав мені,
02:14
there are 57 signalsсигнали
47
119000
2000
- існує 57 сигналів
02:16
that GoogleGoogle looksвиглядає at --
48
121000
3000
які зчитує Google --
02:19
everything from what kindдоброзичливий of computerкомп'ютер you're on
49
124000
3000
все, починаючи з того який комп'ютер ви використовуєте,
02:22
to what kindдоброзичливий of browserбраузер you're usingвикористовуючи
50
127000
2000
який браузер ви використовуєте
02:24
to where you're locatedрозташована --
51
129000
2000
закінчуючи тим де ви знаходитеся --
02:26
that it usesвикористовує to personallyособисто tailorКравець your queryзапит resultsрезультати.
52
131000
3000
Все це він використовує, щоб персоналізувати результати вашого пошуку.
02:29
Think about it for a secondдругий:
53
134000
2000
Замисліться про це на мить:
02:31
there is no standardстандарт GoogleGoogle anymoreбільше.
54
136000
4000
більше не існує стандартного Google.
02:35
And you know, the funnyсмішно thing about this is that it's hardважко to see.
55
140000
3000
І ви знаєте, найсмішніше в цьому те, що це важко побачити.
02:38
You can't see how differentінший your searchпошук resultsрезультати are
56
143000
2000
Ви не можете побачити, наскільки відрізняються ваші результати пошуку
02:40
from anyoneбудь хто else'sінше.
57
145000
2000
від результатів когось іншого.
02:42
But a coupleпара of weeksтижні agoтому назад,
58
147000
2000
Але пару тижнів тому,
02:44
I askedзапитав a bunchпучок of friendsдрузі to GoogleGoogle "EgyptЄгипет"
59
149000
3000
Я попросив декількох свої друзів загуглити "Єгипет"
02:47
and to sendвідправити me screenекран shotsпостріли of what they got.
60
152000
3000
і надіслати мені скріншоти того, що вони отримали.
02:50
So here'sось тут my friendдруг Scott'sСкотт screenекран shotвистрілений.
61
155000
3000
Ось скріншот мого друга Скотта.
02:54
And here'sось тут my friendдруг Daniel'sДанила screenекран shotвистрілений.
62
159000
3000
А ось скріншот мого друга Денієла.
02:57
When you put them side-by-sideпліч-о-пліч,
63
162000
2000
Коли ви поставите їх поруч,
02:59
you don't even have to readчитати the linksпосилання
64
164000
2000
вам навіть не потрібно читати посилання
03:01
to see how differentінший these two pagesсторінок are.
65
166000
2000
щоб, побачити які відмінні ці дві сторінки.
03:03
But when you do readчитати the linksпосилання,
66
168000
2000
Але коли ви прочитаєте посилання,
03:05
it's really quiteцілком remarkableчудовий.
67
170000
3000
це просто дивовижно.
03:09
DanielДаніель didn't get anything about the protestsпротести in EgyptЄгипет at all
68
174000
3000
Данієль зовсім не отримав результатів стосовно протестів у Єгипті
03:12
in his first pageсторінка of GoogleGoogle resultsрезультати.
69
177000
2000
на першій сторінці результатів пошуку в Google.
03:14
Scott'sСкотт resultsрезультати were fullповний of them.
70
179000
2000
Результати Скотта були переповнені ними.
03:16
And this was the bigвеликий storyісторія of the day at that time.
71
181000
2000
І це була велика новина на той час.
03:18
That's how differentінший these resultsрезультати are becomingстає.
72
183000
3000
Ось наскільки різними стають результати пошуку.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherабо.
73
186000
3000
Але це стосується не тільки Google та Facebook.
03:24
This is something that's sweepingпідмітання the WebWeb.
74
189000
2000
Це щось таке, що пронизує Інтернет.
03:26
There are a wholeцілий hostхост of companiesкомпаній that are doing this kindдоброзичливий of personalizationПерсоналізація.
75
191000
3000
Існує ціла низка компаній, які роблять такого роду персоналізацію.
03:29
YahooYahoo NewsНовини, the biggestнайбільший newsновини siteсайт on the InternetІнтернет,
76
194000
3000
Yahoo News, найбільший сайт новин в Інтернеті,
03:32
is now personalizedперсоналізовані -- differentінший people get differentінший things.
77
197000
3000
тепер персоналізовано -- різні люди отримують різні новини.
03:36
HuffingtonХаффінгтон PostПост, the WashingtonВашингтон PostПост, the NewНові YorkЙорк TimesРазів --
78
201000
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirtingфлірт with personalizationПерсоналізація in variousрізноманітні waysшляхи.
79
204000
3000
всі вони "фліртують" з персоналізацією по-різному.
03:42
And this movesрухається us very quicklyшвидко
80
207000
3000
І це дуже швидко скеровує нас
03:45
towardдо a worldсвіт in whichкотрий
81
210000
2000
до світу, в якому
03:47
the InternetІнтернет is showingпоказати us what it thinksдумає we want to see,
82
212000
4000
Інтернет показує нам те, що, на його думку, ми хочемо бачити,
03:51
but not necessarilyобов'язково what we need to see.
83
216000
3000
але не обов'язково те, що нам потрібно бачити.
03:54
As EricЕрік SchmidtШмідт said,
84
219000
3000
Як Ерік Шмідт сказав:
03:57
"It will be very hardважко for people to watch or consumeспоживати something
85
222000
3000
"Це стане дуже складним для людей, подивитися або спожити щось
04:00
that has not in some senseсенс
86
225000
2000
що не було, певною мірою,
04:02
been tailoredз урахуванням for them."
87
227000
3000
підігнане під них."
04:05
So I do think this is a problemпроблема.
88
230000
2000
Отже я вважаю, що це проблема.
04:07
And I think, if you take all of these filtersфільтри togetherразом,
89
232000
3000
І я вважаю, що якщо взяти всі ці фільтри разом,
04:10
you take all these algorithmsалгоритми,
90
235000
2000
взяти всі ці алгоритми,
04:12
you get what I call a filterфільтр bubbleміхур.
91
237000
3000
ви отримаєте те що я називаю "фільтрова бульбашка".
04:16
And your filterфільтр bubbleміхур is your ownвласний personalособистий,
92
241000
3000
І ваша фільтрова бульбашка є вашою власною, персональною,
04:19
uniqueунікальний universeвсесвіт of informationінформація
93
244000
2000
унікальною підмножиною інформації
04:21
that you liveжити in onlineонлайн.
94
246000
2000
в якій ви живете онлайн.
04:23
And what's in your filterфільтр bubbleміхур
95
248000
3000
І те, що в середини вашої бульбашки
04:26
dependsзалежить on who you are, and it dependsзалежить on what you do.
96
251000
3000
залежить від того, хто ви і що ви робите.
04:29
But the thing is that you don't decideвирішувати what getsотримує in.
97
254000
4000
Але справа в тому, що ви не вирішуєте, що потрапить всередину.
04:33
And more importantlyголовне,
98
258000
2000
І набагато важливіше,
04:35
you don't actuallyнасправді see what getsотримує editedвідредаговано out.
99
260000
3000
- ви навіть не бачити ту інформацію яка відфільтровується.
04:38
So one of the problemsпроблеми with the filterфільтр bubbleміхур
100
263000
2000
Отже одна з проблем з "фільтровою бульбашкою"
04:40
was discoveredвідкритий by some researchersдослідники at NetflixNetflix.
101
265000
3000
була виявлена дослідниками Netflix.
04:43
And they were looking at the NetflixNetflix queuesСписки очікування, and they noticedпомітив something kindдоброзичливий of funnyсмішно
102
268000
3000
А вони спостерігали черги відтворення в Netflix і помітили щось цікаве.
04:46
that a lot of us probablyймовірно have noticedпомітив,
103
271000
2000
те, що, вірогідно, помічали багато з нас,
04:48
whichкотрий is there are some moviesфільми
104
273000
2000
існують деякі фільми
04:50
that just sortсортувати of zipzip right up and out to our housesбудинки.
105
275000
3000
вони просто прослизають в наші будинки.
04:53
They enterвходити the queueчерга, they just zipzip right out.
106
278000
3000
Вони стають у чергу, і просто вистрілюють.
04:56
So "IronЗалізо Man" zipsблискавки right out,
107
281000
2000
Отже "Iron Man" вистрілює,
04:58
and "WaitingОчікування for SupermanСупермен"
108
283000
2000
а "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
може дійсно довго чекати.
05:02
What they discoveredвідкритий
110
287000
2000
Що вони виявили,
05:04
was that in our NetflixNetflix queuesСписки очікування
111
289000
2000
це те, що в наший чергах Netfix
05:06
there's this epicепос struggleборотьба going on
112
291000
3000
відбувається ця епічна боротьба
05:09
betweenміж our futureмайбутнє aspirationalбажані selves"я"
113
294000
3000
між бажаними нами в майбутньому
05:12
and our more impulsiveімпульсного presentприсутній selves"я".
114
297000
3000
і між більш імпульсивними нами теперішніми.
05:15
You know we all want to be someoneхтось
115
300000
2000
Ви знаєте, ми всі хочемо бути кимось
05:17
who has watchedспостерігав "RashomonТому Расемон,"
116
302000
2000
хто дивився "Rashomon" (японський художній чорно-білий фільм 1950 року)
05:19
but right now
117
304000
2000
але саме зараз
05:21
we want to watch "AceТуз VenturaВентура" for the fourthчетвертий time.
118
306000
3000
ми хочемо, переглянути "Ейс Вентура" вчетверте.
05:24
(LaughterСміх)
119
309000
3000
(Сміх)
05:27
So the bestнайкраще editingредагування givesдає us a bitбіт of bothобидва.
120
312000
2000
Тому ліпша редакція дає нам те, і інше.
05:29
It givesдає us a little bitбіт of JustinДжастін BieberБібер
121
314000
2000
Воно дає нам трохи Джастіна Бібера
05:31
and a little bitбіт of AfghanistanАфганістан.
122
316000
2000
і трохи Афганістану.
05:33
It givesдає us some informationінформація vegetablesовочі;
123
318000
2000
Воно дає нам трохи "інформаційних овочів";
05:35
it givesдає us some informationінформація dessertдесерт.
124
320000
3000
воно дає нам трішки "інформаційного десерту".
05:38
And the challengeвиклик with these kindsвидів of algorithmicАлгоритмічні filtersфільтри,
125
323000
2000
І проблема з цими видами алгоритмічних фільтрів,
05:40
these personalizedперсоналізовані filtersфільтри,
126
325000
2000
цих персоналізованих фільтрів,
05:42
is that, because they're mainlyголовним чином looking
127
327000
2000
в тім, що вони, переважно, беруть до уваги
05:44
at what you clickклацніть on first,
128
329000
4000
те, на що ви натисли першим,
05:48
it can throwкинути off that balanceбаланс.
129
333000
4000
що може порушувати той баланс.
05:52
And insteadзамість цього of a balancedзбалансований informationінформація dietдієта,
130
337000
3000
І замість збалансованої "інформаційної дієти",
05:55
you can endкінець up surroundedоточений
131
340000
2000
ви можете опинитися в оточенні
05:57
by informationінформація junkнебажаний foodїжа.
132
342000
2000
інформаційного фаст-фуду.
05:59
What this suggestsпропонує
133
344000
2000
Це свідчить про те,
06:01
is actuallyнасправді that we mayможе have the storyісторія about the InternetІнтернет wrongнеправильно.
134
346000
3000
що ми, направду, хибно зрозуміли цю історію про Інтернет.
06:04
In a broadcastтрансляція societyсуспільство --
135
349000
2000
У "трансляційному" суспільстві --
06:06
this is how the foundingзаснування mythologyміфологія goesйде --
136
351000
2000
ось якою є його міфологія --
06:08
in a broadcastтрансляція societyсуспільство,
137
353000
2000
у "трансляційному" суспільстві,
06:10
there were these gatekeepersсторожі, the editorsредактори,
138
355000
2000
були ті вартові, редактори,
06:12
and they controlledконтрольоване the flowsпотоки of informationінформація.
139
357000
3000
і вони контролювали потоки інформації.
06:15
And alongразом cameприйшов the InternetІнтернет and it sweptпромитий them out of the way,
140
360000
3000
Та з'явився Інтернет, і змів їх зі свого шляху,
06:18
and it allowedдозволено all of us to connectпідключити togetherразом,
141
363000
2000
й це дозволило всім нам об'єднатися,
06:20
and it was awesomeчудово.
142
365000
2000
і це було дивовижно.
06:22
But that's not actuallyнасправді what's happeningвідбувається right now.
143
367000
3000
Але насправді це не зовсім те, що відбувається зараз.
06:26
What we're seeingбачачи is more of a passingпроходження of the torchфакел
144
371000
3000
Що ми бачимо, більшою мірою - передача факелу
06:29
from humanлюдина gatekeepersсторожі
145
374000
2000
від людей-брамарів
06:31
to algorithmicАлгоритмічні onesті, хто.
146
376000
3000
до алгоритмічних вартових.
06:34
And the thing is that the algorithmsалгоритми
147
379000
3000
І справа в тому, що алгоритми
06:37
don't yetвсе-таки have the kindдоброзичливий of embeddedвбудований ethicsетика
148
382000
3000
ще не мають, чогось на зразок вбудованої етики
06:40
that the editorsредактори did.
149
385000
3000
яку мали редактори.
06:43
So if algorithmsалгоритми are going to curateсвященик the worldсвіт for us,
150
388000
3000
Отже, якщо алгоритми будуть коригувати світ для нас,
06:46
if they're going to decideвирішувати what we get to see and what we don't get to see,
151
391000
3000
якщо вони будуть вирішувати, що ми зможемо побачити, а що ні
06:49
then we need to make sure
152
394000
2000
тоді ми повинні упевнитися,
06:51
that they're not just keyedключі to relevanceрелевантність.
153
396000
3000
що вони не просто прив'язані до релевантності.
06:54
We need to make sure that they alsoтакож showпоказати us things
154
399000
2000
Ми повинні пересвідчитись, що вони також покажуть нам речі
06:56
that are uncomfortableнезручно or challengingскладний or importantважливо --
155
401000
3000
які є незручними, кидають виклик або просто важливі --
06:59
this is what TEDТЕД does --
156
404000
2000
це те що робить TED --
07:01
other pointsокуляри of viewвид.
157
406000
2000
інші точки зору.
07:03
And the thing is, we'veми маємо actuallyнасправді been here before
158
408000
2000
А справа в тому, що ми насправді були тут раніше
07:05
as a societyсуспільство.
159
410000
2000
як суспільство.
07:08
In 1915, it's not like newspapersгазети were sweatingпотовиділення a lot
160
413000
3000
У 1915 році, не те щоб газети багато писали про
07:11
about theirїх civicгромадянський responsibilitiesобов'язки.
161
416000
3000
громадські обов'язки.
07:14
Then people noticedпомітив
162
419000
2000
Тоді люди помітили
07:16
that they were doing something really importantважливо.
163
421000
3000
що вони роблять щось насправді дуже важливе.
07:19
That, in factфакт, you couldn'tне міг have
164
424000
2000
Насправді неможливо отримати
07:21
a functioningфункціонування democracyдемократія
165
426000
2000
функціюючу демократію
07:23
if citizensгромадяни didn't get a good flowтечія of informationінформація,
166
428000
4000
якщо громадяни не отримають гарний потік інформації,
07:28
that the newspapersгазети were criticalкритичний because they were actingдіючи as the filterфільтр,
167
433000
3000
газети були критичними, тому що вони виступали в якості фільтру,
07:31
and then journalisticжурналістської ethicsетика developedрозроблений.
168
436000
2000
а тоді розвинулася журналістська етика.
07:33
It wasn'tне було perfectдосконалий,
169
438000
2000
Вона не була досконалою,
07:35
but it got us throughчерез the last centuryстоліття.
170
440000
3000
але вона провела нас крізь минуле сторіччя.
07:38
And so now,
171
443000
2000
Тож тепер,
07:40
we're kindдоброзичливий of back in 1915 on the WebWeb.
172
445000
3000
ми, в якомусь сенсі, в Інтернеті ми знов опинилися в 1915 році.
07:44
And we need the newновий gatekeepersсторожі
173
449000
3000
І нам потрібні нові вартові,
07:47
to encodeкодувати that kindдоброзичливий of responsibilityвідповідальність
174
452000
2000
котрі закодують той різновид відповідальність
07:49
into the codeкод that they're writingписати.
175
454000
2000
в код який вони пишуть.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Я знаю, що тут є багато людей з Facebook і Google --
07:54
LarryЛаррі and SergeyСергій --
177
459000
2000
Ларрі і Сергій -
07:56
people who have helpedдопомагав buildбудувати the WebWeb as it is,
178
461000
2000
люди, які допомогли побудувати Інтернет в тому вигляді, який існує зараз,
07:58
and I'm gratefulвдячний for that.
179
463000
2000
і я вдячний за це.
08:00
But we really need you to make sure
180
465000
3000
Але ми дійсно повинні переконатися,
08:03
that these algorithmsалгоритми have encodedзакодовано in them
181
468000
3000
що в цих алгоритмах закодовано
08:06
a senseсенс of the publicгромадськість life, a senseсенс of civicгромадянський responsibilityвідповідальність.
182
471000
3000
відчуття публічного життя, відчуття громадської відповідальності.
08:09
We need you to make sure that they're transparentпрозорий enoughдостатньо
183
474000
3000
Ми хочемо, щоб ви впевнились, що вони достатньо прозорі,
08:12
that we can see what the rulesправил are
184
477000
2000
і ми можемо побачити які правила вони використовують,
08:14
that determineвизначити what getsотримує throughчерез our filtersфільтри.
185
479000
3000
обумовлюючи те, що проривається крізь наші фільтри.
08:17
And we need you to give us some controlКОНТРОЛЬ
186
482000
2000
І нам потрібно, щоб ви дали нам певний контроль,
08:19
so that we can decideвирішувати
187
484000
2000
так, щоб ми могли вирішувати
08:21
what getsотримує throughчерез and what doesn't.
188
486000
3000
що проходить крізь фільтри, а що ні.
08:24
Because I think
189
489000
2000
Бо я вважаю
08:26
we really need the InternetІнтернет to be that thing
190
491000
2000
нам дійсно потрібно, щоб Інтернет був тим,
08:28
that we all dreamedмріяв of it beingбуття.
191
493000
2000
про що ми всі мріяли.
08:30
We need it to connectпідключити us all togetherразом.
192
495000
3000
Нам потрібно, щоб він всіх нас поєднав.
08:33
We need it to introduceвводити us to newновий ideasідеї
193
498000
3000
Нам потрібно, щоб він представляв нам нові ідеї,
08:36
and newновий people and differentінший perspectivesперспективи.
194
501000
3000
нових людей і відмінні перспективи.
08:40
And it's not going to do that
195
505000
2000
Але він не зможе цьог о зробити,
08:42
if it leavesлистя us all isolatedізольований in a WebWeb of one.
196
507000
3000
якщо залишить нас в ізоляції "Мережі на одну особу".
08:45
Thank you.
197
510000
2000
Дякую за увагу.
08:47
(ApplauseОплески)
198
512000
11000
(Оплески)
Translated by Dmitriy Baykov
Reviewed by Kateryna Despati

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com