ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

אלי פאריסר: היזהרו מ"בועות סינון" מקוונות

Filmed:
5,309,238 views

ככל שחברות מקוונות חותרות בשרותיהן (כולל חדשות ותוצאות חיפוש) לקלוע לטעמים האישיים שלנו, מקבלים תוצאה מסוכנת שלא התכוונו אליה: אנו נלכדים ב"בועות מקוונות" ולא נחשפים למידע היכול לאתגר אותנו או להרחיב את תפיסת-עולמנו. אלי פאריסר טוען בצורה ממוקדת ומשכנעת שבסופו של דבר, זה יוכח כרע לנו וכרע לדמוקרטיה.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
Markסימן Zuckerbergצוקרברג,
0
0
2000
מארק צוקרברג,
00:17
a journalistעִתוֹנָאִי was askingשואל him a questionשְׁאֵלָה about the newsחֲדָשׁוֹת feedהזנה.
1
2000
3000
עיתונאי שאל אותו על עדכון חדשות שוטף.
00:20
And the journalistעִתוֹנָאִי was askingשואל him,
2
5000
2000
הוא שאל אותו,
00:22
"Why is this so importantחָשׁוּב?"
3
7000
2000
"מדוע זה כה חשוב?"
00:24
And Zuckerbergצוקרברג said,
4
9000
2000
וצוקרברג ענה
00:26
"A squirrelסנאי dyingגְסִיסָה in your frontחֲזִית yardחָצֵר
5
11000
2000
שסנאי גוסס בחזית ביתנו
00:28
mayמאי be more relevantרלוונטי to your interestsאינטרסים right now
6
13000
3000
עשוי להיות יותר רלוונטי לאינטרסים המיידיים שלנו
00:31
than people dyingגְסִיסָה in Africaאַפְרִיקָה."
7
16000
3000
מאשר אנשים גוססים באפריקה.
00:34
And I want to talk about
8
19000
2000
אז ברצוני לדבר על
00:36
what a Webאינטרנט basedמבוסס on that ideaרַעְיוֹן of relevanceהרלוונטיות mightאולי look like.
9
21000
3000
איך אינטרנט המתבסס על הרעיון הנ"ל עשוי להיראות.
00:40
So when I was growingגָדֵל up
10
25000
2000
כאשר גדלתי
00:42
in a really ruralכַּפרִי areaאֵזוֹר in Maineמיין,
11
27000
2000
באזור כפרי במיין,
00:44
the Internetאינטרנט meantהתכוון something very differentשונה to me.
12
29000
3000
האינטרנט היה בשבילי משהו אחר לגמרי.
00:47
It meantהתכוון a connectionחיבור to the worldעוֹלָם.
13
32000
2000
הוא היה עבורי קשר לעולם.
00:49
It meantהתכוון something that would connectלְחַבֵּר us all togetherיַחַד.
14
34000
3000
הוא היה עבורי משהו העשוי לקשר את כולנו ביחד.
00:52
And I was sure that it was going to be great for democracyדֵמוֹקרָטִיָה
15
37000
3000
והייתי בטוח שהוא הולך להיות נפלא בשביל הדמוקרטיה
00:55
and for our societyחֶברָה.
16
40000
3000
והחברה שלנו.
00:58
But there's this shiftמִשׁמֶרֶת
17
43000
2000
אבל מול עינינו מתחולל שינוי
01:00
in how informationמֵידָע is flowingזורם onlineבאינטרנט,
18
45000
2000
באופן בו המידע זורם ברשת,
01:02
and it's invisibleבלתי נראה.
19
47000
3000
והשינוי הוא בלתי נראה.
01:05
And if we don't payלְשַׁלֵם attentionתשומת הלב to it,
20
50000
2000
ואם לא נשים לב לזה,
01:07
it could be a realאמיתי problemבְּעָיָה.
21
52000
3000
זו עלולה להיות בעיה רצינית.
01:10
So I first noticedשם לב this in a placeמקום I spendלְבַלוֹת a lot of time --
22
55000
3000
בפעם הראשונה הבחנתי בזה היכן שאני מבלה המון זמן --
01:13
my Facebookפייסבוק pageעמוד.
23
58000
2000
דף הפייסבוק שלי.
01:15
I'm progressiveפּרוֹגרֵסִיבִי, politicallyפוליטית -- bigגָדוֹל surpriseהַפתָעָה --
24
60000
3000
אני ליברל מבחינה פוליטית -- איזו הפתעה --
01:18
but I've always goneנעלם out of my way to meetלִפְגוֹשׁ conservativesשמרנים.
25
63000
2000
אבל תמיד עשיתי הכל כדי לפגוש שמרנים.
01:20
I like hearingשמיעה what they're thinkingחושב about;
26
65000
2000
אני אוהב לשמוע על מה הם חושבים;
01:22
I like seeingרְאִיָה what they linkקישור to;
27
67000
2000
אני אוהב לראות עם מה הם מקושרים;
01:24
I like learningלְמִידָה a thing or two.
28
69000
2000
אני אוהב ללמוד דברים חדשים.
01:26
And so I was surprisedמוּפתָע when I noticedשם לב one day
29
71000
3000
ולכן הופתעתי כאשר הבחנתי יום אחד
01:29
that the conservativesשמרנים had disappearedנעלם from my Facebookפייסבוק feedהזנה.
30
74000
3000
שהשמרנים נעלמו מעדכוני הפייסבוק שלי.
01:33
And what it turnedפנה out was going on
31
78000
2000
ומה שהתברר הוא
01:35
was that Facebookפייסבוק was looking at whichאיזה linksקישורים I clickedלחץ על on,
32
80000
4000
שפייסבוק עקבה אחריי -- על איזה קישורים אני מקליק,
01:39
and it was noticingמבחין that, actuallyלמעשה,
33
84000
2000
והיא שמה לב שבעצם
01:41
I was clickingלחיצה more on my liberalלִיבֵּרָלִי friends'חברים linksקישורים
34
86000
2000
אני מקליק יותר על קישורים של
01:43
than on my conservativeשמרני friends'חברים linksקישורים.
35
88000
3000
חברים ליברליים מאשר אלו של חברים שמרניים.
01:46
And withoutלְלֹא consultingייעוץ me about it,
36
91000
2000
ומבלי להתייעץ איתי על כך,
01:48
it had editedעָרוּך them out.
37
93000
2000
היא סיננה אותם החוצה.
01:50
They disappearedנעלם.
38
95000
3000
הם נעלמו.
01:54
So Facebookפייסבוק isn't the only placeמקום
39
99000
2000
אבל פייסבוק אינה המקום היחיד
01:56
that's doing this kindסוג of invisibleבלתי נראה, algorithmicאלגוריתמי
40
101000
2000
אשר מבצע סוג כזה של עריכה
01:58
editingעֲרִיכָה of the Webאינטרנט.
41
103000
3000
אלגוריתמית בלתי נראית ברשת.
02:01
Google'sשל גוגל doing it too.
42
106000
2000
גם גוגל עושה את זה.
02:03
If I searchחפש for something, and you searchחפש for something,
43
108000
3000
אם אני מחפש משהו, ואתם מחפשים משהו,
02:06
even right now at the very sameאותו time,
44
111000
2000
אפילו עכשיו, בו-זמנית,
02:08
we mayמאי get very differentשונה searchחפש resultsתוצאות.
45
113000
3000
אנו עשויים לקבל תוצאות חיפוש מאוד שונות.
02:11
Even if you're loggedמחובר out, one engineerמהנדס told me,
46
116000
3000
גם כאשר יוצאים מהמערכת, סיפר לי מהנדס אחד,
02:14
there are 57 signalsאותות
47
119000
2000
ישנם 57 סימנים
02:16
that GoogleGoogle looksנראה at --
48
121000
3000
שגוגל עוקבת אחריהם --
02:19
everything from what kindסוג of computerמַחשֵׁב you're on
49
124000
3000
כל דבר החל מאיזה מחשב אנו משתמשים
02:22
to what kindסוג of browserדפדפן you're usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני
50
127000
2000
דרך באיזה דפדפן משתמשים
02:24
to where you're locatedממוקם --
51
129000
2000
ועד למקום בו אנו נמצאים --
02:26
that it usesשימו to personallyאישית tailorלְהַתְאִים your queryשאילתא resultsתוצאות.
52
131000
3000
והיא משתמשת בהם כדי לתפור לנו את תוצאות חיפושנו.
02:29
Think about it for a secondשְׁנִיָה:
53
134000
2000
תחשבו על זה שניה:
02:31
there is no standardתֶקֶן GoogleGoogle anymoreיותר.
54
136000
4000
אין יותר גוגל זהה לכולם.
02:35
And you know, the funnyמצחיק thing about this is that it's hardקָשֶׁה to see.
55
140000
3000
ומה שמצחיק בכל זה הוא שקשה להבחין בזה.
02:38
You can't see how differentשונה your searchחפש resultsתוצאות are
56
143000
2000
אי-אפשר לראות כמה שונים תוצאות החיפוש שלך
02:40
from anyoneכֹּל אֶחָד else'sאחר.
57
145000
2000
מאלו של מישהו אחר.
02:42
But a coupleזוּג of weeksשבועות agoלִפנֵי,
58
147000
2000
אבל לפני כמה שבועות,
02:44
I askedשאל a bunchצְרוֹר of friendsחברים to GoogleGoogle "Egyptמִצְרַיִם"
59
149000
3000
ביקשתי ממספר חברים לחפש בגוגל "מצרים"
02:47
and to sendלִשְׁלוֹחַ me screenמָסָך shotsיריות of what they got.
60
152000
3000
ולשלוח לי צילומי מסך של התוצאות שלהם.
02:50
So here'sהנה my friendחָבֵר Scott'sשל סקוט screenמָסָך shotבְּעִיטָה.
61
155000
3000
אז הנה צילום מסך של חברי סקוט.
02:54
And here'sהנה my friendחָבֵר Daniel'sשל דניאל screenמָסָך shotבְּעִיטָה.
62
159000
3000
וזה של חברי דניאל.
02:57
When you put them side-by-sideזה לצד זה,
63
162000
2000
כאשר מניחים אותם זה לצד זה,
02:59
you don't even have to readלקרוא the linksקישורים
64
164000
2000
אין אפילו צורך לקרוא מה כתוב בתוצאות
03:01
to see how differentשונה these two pagesדפים are.
65
166000
2000
כדי לראות עד כמה שונים שני העמודים.
03:03
But when you do readלקרוא the linksקישורים,
66
168000
2000
אבל כאשר קוראים את התוצאות,
03:05
it's really quiteדַי remarkableראוי לציון.
67
170000
3000
זה באמת די מוזר.
03:09
Danielדניאל didn't get anything about the protestsמחאות in Egyptמִצְרַיִם at all
68
174000
3000
דניאל לא קיבל שום דבר על ההפגנות במצרים
03:12
in his first pageעמוד of GoogleGoogle resultsתוצאות.
69
177000
2000
בעמוד הראשון של התוצאות.
03:14
Scott'sשל סקוט resultsתוצאות were fullמלא of them.
70
179000
2000
אבל התוצאות שסקוט קיבל מלאות בהן.
03:16
And this was the bigגָדוֹל storyכַּתָבָה of the day at that time.
71
181000
2000
וזה היה אז ה-סיפור של אותו יום.
03:18
That's how differentשונה these resultsתוצאות are becomingהִתהַוּוּת.
72
183000
3000
זה כמה שהתוצאות נעשות שונות.
03:21
So it's not just GoogleGoogle and Facebookפייסבוק eitherאוֹ.
73
186000
3000
אבל זה לא רק גוגל ופייסבוק.
03:24
This is something that's sweepingסוֹחֵף the Webאינטרנט.
74
189000
2000
זה משהו שסוחף איתו את כל הרשת.
03:26
There are a wholeכֹּל hostמארח of companiesחברות that are doing this kindסוג of personalizationהתאמה אישית.
75
191000
3000
יש מגוון של חברות אשר מבצעות סינון אישי כזה.
03:29
YahooYahoo Newsחֲדָשׁוֹת, the biggestהגדול ביותר newsחֲדָשׁוֹת siteאֲתַר on the Internetאינטרנט,
76
194000
3000
"חדשות יאהו", אתר החדשות הכי גדול ברשת,
03:32
is now personalizedאישית -- differentשונה people get differentשונה things.
77
197000
3000
הוא עכשיו בעל סינון אישי -- כל אחד מקבל משהו אחר.
03:36
Huffingtonהאפינגטון Postהודעה, the Washingtonוושינגטון Postהודעה, the Newחָדָשׁ Yorkיורק Timesפִּי --
78
201000
3000
"הפינגטון פוסט", ה"וושינגטון פוסט", ה"ניו-יורק טיימס" --
03:39
all flirtingמפלרטטת with personalizationהתאמה אישית in variousשׁוֹנִים waysדרכים.
79
204000
3000
כולם מפלרטטים עם סינונים אישיים באופנים שונים.
03:42
And this movesמהלכים us very quicklyבִּמְהִירוּת
80
207000
3000
וזה לוקח אותנו במהירות
03:45
towardלקראת a worldעוֹלָם in whichאיזה
81
210000
2000
אל עולם שבו
03:47
the Internetאינטרנט is showingמראה us what it thinksחושב we want to see,
82
212000
4000
האינטרנט מראה לנו את מה שנדמה לו שאנו רוצים לראות,
03:51
but not necessarilyבהכרח what we need to see.
83
216000
3000
אבל לא בהכרח את מה שאנו צריכים לראות.
03:54
As Ericאריק Schmidtשמידט said,
84
219000
3000
כפי שאריק שמידט אמר,
03:57
"It will be very hardקָשֶׁה for people to watch or consumeלִצְרוֹך something
85
222000
3000
"יהיה זה בלתי אפשרי לאנשים לראות או לצרוך משהו
04:00
that has not in some senseלָחוּשׁ
86
225000
2000
שבמובן מסויים
04:02
been tailoredמותאם for them."
87
227000
3000
לא נתפר עבורם."
04:05
So I do think this is a problemבְּעָיָה.
88
230000
2000
לכן אני סבור שזו אכן בעיה.
04:07
And I think, if you take all of these filtersמסננים togetherיַחַד,
89
232000
3000
ואני חושב שאם נוטלים את כל המסננים ביחד,
04:10
you take all these algorithmsאלגוריתמים,
90
235000
2000
נוטלים את כל האלגוריתמים הללו,
04:12
you get what I call a filterלְסַנֵן bubbleבּוּעָה.
91
237000
3000
מקבלים את מה שאני מכנה בועת סינון.
04:16
And your filterלְסַנֵן bubbleבּוּעָה is your ownשֶׁלוֹ personalאישי,
92
241000
3000
ובועת הסינון שלך היא עולם המידע האישי
04:19
uniqueייחודי universeעוֹלָם of informationמֵידָע
93
244000
2000
והמיוחד שלך
04:21
that you liveלחיות in onlineבאינטרנט.
94
246000
2000
שאתה חי בו ברשת.
04:23
And what's in your filterלְסַנֵן bubbleבּוּעָה
95
248000
3000
ומה שבתוך בועת הסינון שלך
04:26
dependsתלוי on who you are, and it dependsתלוי on what you do.
96
251000
3000
תלוי במי שאתה, וזה תלוי במה שאתה עושה.
04:29
But the thing is that you don't decideלְהַחלִיט what getsמקבל in.
97
254000
4000
אבל העניין הוא שאינך מחליט מה נכנס לתוכה.
04:33
And more importantlyחשוב,
98
258000
2000
ויותר חשוב,
04:35
you don't actuallyלמעשה see what getsמקבל editedעָרוּך out.
99
260000
3000
אינך רואה את מה שמסננים החוצה.
04:38
So one of the problemsבעיות with the filterלְסַנֵן bubbleבּוּעָה
100
263000
2000
את אחת הבעיות
04:40
was discoveredגילה by some researchersחוקרים at Netflixנטפליקס.
101
265000
3000
של בועות הסינון גילו כמה חוקרים מנטפליקס.
04:43
And they were looking at the Netflixנטפליקס queuesתורים, and they noticedשם לב something kindסוג of funnyמצחיק
102
268000
3000
הם היו מסתכלים בטורי נטפליקס והם שמו לב לדבר מצחיק
04:46
that a lot of us probablyכנראה have noticedשם לב,
103
271000
2000
שרבים מאיתנו בטח שמו לב אליו,
04:48
whichאיזה is there are some moviesסרטים
104
273000
2000
והוא שיש כמה סרטים
04:50
that just sortסוג of zipרוכסן right up and out to our housesבתים.
105
275000
3000
שמגיעים במהירות היישר לביתינו.
04:53
They enterלהיכנס the queueתוֹר, they just zipרוכסן right out.
106
278000
3000
הם נכנסים לתור ונפתחים מייד לפנינו.
04:56
So "Ironבַּרזֶל Man" zipsרוכסנים right out,
107
281000
2000
כך ש-"Iron man" נפתח מייד,
04:58
and "Waitingהַמתָנָה for Supermanסוּפֶּרמֶן"
108
283000
2000
ו-"Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
יכול לחכות ממש הרבה זמן.
05:02
What they discoveredגילה
110
287000
2000
מה שהם מצאו
05:04
was that in our Netflixנטפליקס queuesתורים
111
289000
2000
היה שבטורי הנטפליקס שלנו
05:06
there's this epicאפוס struggleמַאֲבָק going on
112
291000
3000
מתנהל מאבק איתנים
05:09
betweenבֵּין our futureעתיד aspirationalשאיפה selvesהאני
113
294000
3000
בין העצמי העתידי, השאפתני שלנו
05:12
and our more impulsiveאימפולסיבי presentמתנה selvesהאני.
114
297000
3000
לבין העצמי היותר אימפולסיבי שלנו השייך להווה.
05:15
You know we all want to be someoneמִישֶׁהוּ
115
300000
2000
אנו כולנו שואפים להיות זה
05:17
who has watchedצפה "Rashomonרשומון,"
116
302000
2000
שראה כבר את "Rashomon",
05:19
but right now
117
304000
2000
אבל ברגע זה ממש
05:21
we want to watch "Aceאֵס Venturaונטורה" for the fourthרביעי time.
118
306000
3000
אנו רוצים לצפות ב-"Ace Ventura" בפעם הרביעית.
05:24
(Laughterצחוק)
119
309000
3000
(צחוק)
05:27
So the bestהטוב ביותר editingעֲרִיכָה givesנותן us a bitbit of bothשניהם.
120
312000
2000
אז העריכה המוצלחת ביותר נותנת לנו קצת משניהם.
05:29
It givesנותן us a little bitbit of Justinג'סטין Bieberביבר
121
314000
2000
היא נותנת לנו קצת מג'סטין ביבר
05:31
and a little bitbit of Afghanistanאפגניסטן.
122
316000
2000
וקצת מאפגניסטן.
05:33
It givesנותן us some informationמֵידָע vegetablesיְרָקוֹת;
123
318000
2000
היא נותנת לנו קצת מידע על ירקות,
05:35
it givesנותן us some informationמֵידָע dessertקינוח.
124
320000
3000
וקצת מידע על קינוח.
05:38
And the challengeאתגר with these kindsמיני of algorithmicאלגוריתמי filtersמסננים,
125
323000
2000
והקושי עם מסננים אלגוריתמיים כאלה,
05:40
these personalizedאישית filtersמסננים,
126
325000
2000
עם המסננים הללו המותאמים אישית,
05:42
is that, because they're mainlyבעיקר looking
127
327000
2000
הוא שבגלל שהם מסתכלים בעיקר
05:44
at what you clickנְקִישָׁה on first,
128
329000
4000
על מה שאנו מקליקים עליו ראשון,
05:48
it can throwלזרוק off that balanceאיזון.
129
333000
4000
זה יכול להפר את האיזון.
05:52
And insteadבמקום זאת of a balancedמְאוּזָן informationמֵידָע dietדִיאֵטָה,
130
337000
3000
ואז במקום דיאטת מידע מאוזנת,
05:55
you can endסוֹף up surroundedמוּקָף
131
340000
2000
נמצא את עצמנו מוקפים
05:57
by informationמֵידָע junkפְּסוֹלֶת foodמזון.
132
342000
2000
בג'נק-פוד של מידע.
05:59
What this suggestsמציע
133
344000
2000
כל זה מצביע על כך
06:01
is actuallyלמעשה that we mayמאי have the storyכַּתָבָה about the Internetאינטרנט wrongלא בסדר.
134
346000
3000
שאנו מפספסים את כל מטרת האינטרנט.
06:04
In a broadcastמִשׁדָר societyחֶברָה --
135
349000
2000
בחברה מבוססת שידורים --
06:06
this is how the foundingייסוד mythologyמִיתוֹלוֹגִיָה goesהולך --
136
351000
2000
כך על-פי מיתוס ההיווסדות --
06:08
in a broadcastמִשׁדָר societyחֶברָה,
137
353000
2000
בחברה מבוססת שידורים,
06:10
there were these gatekeepersשומרי סף, the editorsעורכים,
138
355000
2000
היו אלה שומרי-הסף, העורכים,
06:12
and they controlledמְבוּקָר the flowsזור of informationמֵידָע.
139
357000
3000
והם שלטו על ברז המידע.
06:15
And alongלְאוֹרֶך cameבא the Internetאינטרנט and it sweptנסחף them out of the way,
140
360000
3000
ואז בא האינטרנט וניפנף אותם הצידה,
06:18
and it allowedמוּתָר all of us to connectלְחַבֵּר togetherיַחַד,
141
363000
2000
וזה איפשר לנו להתחבר זה לזה,
06:20
and it was awesomeמדהים.
142
365000
2000
וזה היה פשוט נפלא.
06:22
But that's not actuallyלמעשה what's happeningמתרחש right now.
143
367000
3000
אבל לא זה מה שקורה כעת.
06:26
What we're seeingרְאִיָה is more of a passingחוֹלֵף of the torchלפיד
144
371000
3000
מה שאנו עדים לו זה העברת המפתחות
06:29
from humanבן אנוש gatekeepersשומרי סף
145
374000
2000
משומרי-סף אנושיים
06:31
to algorithmicאלגוריתמי onesיחידות.
146
376000
3000
לשומרי-סף אלגוריתמיים.
06:34
And the thing is that the algorithmsאלגוריתמים
147
379000
3000
והעניין הוא שהאלגוריתמים
06:37
don't yetעדיין have the kindסוג of embeddedמוטבע ethicsאֶתִיקָה
148
382000
3000
חסרים עדיין את האתיקה הפנימית
06:40
that the editorsעורכים did.
149
385000
3000
שהיתה לעורכים.
06:43
So if algorithmsאלגוריתמים are going to curateעוֹזֵר לְכּוֹמֶר the worldעוֹלָם for us,
150
388000
3000
כך שאם האלגוריתמים הולכים לנהל לנו את העולם,
06:46
if they're going to decideלְהַחלִיט what we get to see and what we don't get to see,
151
391000
3000
אם הם הולכים להחליט מה נזכה לראות ומה לא נזכה,
06:49
then we need to make sure
152
394000
2000
אז עלינו לוודא
06:51
that they're not just keyedהמפתח to relevanceהרלוונטיות.
153
396000
3000
שהם לא מכווננים רק לפי מידת הרלוונטיות.
06:54
We need to make sure that they alsoגַם showלְהַצִיג us things
154
399000
2000
עלינו לוודא שהם גם מראים לנו דברים
06:56
that are uncomfortableלא נוח or challengingמאתגר or importantחָשׁוּב --
155
401000
3000
שאינם נוחים או שהם מאתגרים או שהם חשובים --
06:59
this is what TEDTED does --
156
404000
2000
זה מה ש-TED עושה --
07:01
other pointsנקודות of viewנוף.
157
406000
2000
נקודות מבט שונות.
07:03
And the thing is, we'veיש לנו actuallyלמעשה been here before
158
408000
2000
והעניין הוא שכבר היינו בסרט הזה
07:05
as a societyחֶברָה.
159
410000
2000
כחברה.
07:08
In 1915, it's not like newspapersעיתונים were sweatingמְיוֹזָע a lot
160
413000
3000
ב-1915, זה לא שלעיתונים היה יותר מדי איכפת
07:11
about theirשֶׁלָהֶם civicאֶזרָחִי responsibilitiesאחריות.
161
416000
3000
מהאחריות האזרחית שלהם.
07:14
Then people noticedשם לב
162
419000
2000
ואז אנשים שמו לב
07:16
that they were doing something really importantחָשׁוּב.
163
421000
3000
שהעיתונים עושים משהו באמת חשוב.
07:19
That, in factעוּבדָה, you couldn'tלא יכול have
164
424000
2000
שלמעשה, קשה לקיים
07:21
a functioningתִפקוּד democracyדֵמוֹקרָטִיָה
165
426000
2000
דמוקרטיה מתפקדת
07:23
if citizensאזרחים didn't get a good flowזְרִימָה of informationמֵידָע,
166
428000
4000
אם אזרחים לא זוכים לזרם שוטף ויעיל של מידע.
07:28
that the newspapersעיתונים were criticalקריטי because they were actingמשחק as the filterלְסַנֵן,
167
433000
3000
שהעיתונים היו דבר קריטי, היות והם פעלו בתור מסננים,
07:31
and then journalisticעיתונאי ethicsאֶתִיקָה developedמפותח.
168
436000
2000
וכך התפתחה אתיקה עיתונאית.
07:33
It wasn'tלא היה perfectמושלם,
169
438000
2000
היא לא היתה מושלמת,
07:35
but it got us throughדרך the last centuryמֵאָה.
170
440000
3000
אבל היא ליוותה אותנו בכל המאה שעברה.
07:38
And so now,
171
443000
2000
ועכשיו,
07:40
we're kindסוג of back in 1915 on the Webאינטרנט.
172
445000
3000
אנו שוב בחזרה במין אותו מצב של 1915, אבל ברשת.
07:44
And we need the newחָדָשׁ gatekeepersשומרי סף
173
449000
3000
ואנו צריכים ששומרי-הסף החדשים
07:47
to encodeלְהַצְפִּין that kindסוג of responsibilityאַחֲרָיוּת
174
452000
2000
יקודדו את האחריות הזו,
07:49
into the codeקוד that they're writingכְּתִיבָה.
175
454000
2000
בתוך התוכנות שהם כותבים.
07:51
I know that there are a lot of people here from Facebookפייסבוק and from GoogleGoogle --
176
456000
3000
אני יודע שיש כאן הרבה אנשים מפייסבוק וגוגל --
07:54
Larryלארי and Sergeyסרגיי --
177
459000
2000
לארי וסרגיי --
07:56
people who have helpedעזר buildלִבנוֹת the Webאינטרנט as it is,
178
461000
2000
אנשים שתרמו לבניית הרשת כפי שהיא,
07:58
and I'm gratefulאסיר תודה for that.
179
463000
2000
ואני אסיר-תודה על כך.
08:00
But we really need you to make sure
180
465000
3000
אבל אנו באמת צריכים שאתם תוודאו
08:03
that these algorithmsאלגוריתמים have encodedמוּצפָּן in them
181
468000
3000
שבתוך האלגוריתמים הללו יקודדו
08:06
a senseלָחוּשׁ of the publicפּוּמְבֵּי life, a senseלָחוּשׁ of civicאֶזרָחִי responsibilityאַחֲרָיוּת.
182
471000
3000
גם המודעות לציבור, המודעות לאחריות אזרחית.
08:09
We need you to make sure that they're transparentשָׁקוּף enoughמספיק
183
474000
3000
אנו צריכים שאתם תבטיחו שהם יהיו שקופים מספיק
08:12
that we can see what the rulesכללים are
184
477000
2000
כדי שנוכל לראות מה הם הכללים
08:14
that determineלקבוע what getsמקבל throughדרך our filtersמסננים.
185
479000
3000
אשר קובעים מה יעבור את הסינון.
08:17
And we need you to give us some controlלִשְׁלוֹט
186
482000
2000
ואנו צריכים שתתנו לנו שליטה מסויימת,
08:19
so that we can decideלְהַחלִיט
187
484000
2000
כך שנוכל להחליט
08:21
what getsמקבל throughדרך and what doesn't.
188
486000
3000
מה יעבור ומה לא.
08:24
Because I think
189
489000
2000
כי אני סבור
08:26
we really need the Internetאינטרנט to be that thing
190
491000
2000
שאנו באמת צריכים שהאינטרנט יהיה הדבר
08:28
that we all dreamedחלמתי of it beingלהיות.
191
493000
2000
שכולנו חלמנו שהוא יהיה.
08:30
We need it to connectלְחַבֵּר us all togetherיַחַד.
192
495000
3000
אנו צריכים שהוא יחבר את כולנו זה לזה.
08:33
We need it to introduceהצג us to newחָדָשׁ ideasרעיונות
193
498000
3000
אנו צריכים שהוא יביא לפנינו רעיונות חדשים
08:36
and newחָדָשׁ people and differentשונה perspectivesנקודות מבט.
194
501000
3000
ואנשים חדשים ונקודות מבט שונות.
08:40
And it's not going to do that
195
505000
2000
וזה לא יוכל לקרות
08:42
if it leavesמשאיר us all isolatedמְבוּדָד in a Webאינטרנט of one.
196
507000
3000
אם זה ישאיר את כולנו מבודדים ברשת השייכת ליחיד.
08:45
Thank you.
197
510000
2000
תודה לכם.
08:47
(Applauseתְשׁוּאוֹת)
198
512000
11000
(מחיאות כפיים)
Translated by Yubal Masalker
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com