ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com
TED2011

Eli Pariser: Beware online "filter bubbles"

Eli Pariser: Vorsicht vor "Filter-Blasen" im Internet

Filmed:
5,309,238 views

Das Streben von Internetfirmen, ihre Dienste (Nachrichten und Suchresultate eingeschlossen) auf unsere persönlichen Vorlieben hin anzupassen, hat eine gefährliche, nicht intendierte Folge: Wir werden in einer "Filter-Blase" eingeschlossen und nicht mehr mit Informationen konfrontiert, die unsere Weltsicht herausfordern oder erweitern könnten. Eli Pariser legt überzeugend dar, dass sich das letztendlich für uns und die Demokratie als schädlich erweisen wird.
- Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview. Full bio

Double-click the English transcript below to play the video.

00:15
MarkMark ZuckerbergZuckerberg,
0
0
2000
Mark Zuckerberg
00:17
a journalistJournalist was askingfragen him a questionFrage about the newsNachrichten feedFutter.
1
2000
3000
wurde von einem Journalisten zum News Feed bei Facebook befragt.
00:20
And the journalistJournalist was askingfragen him,
2
5000
2000
Der Journalist fragte ihn,
00:22
"Why is this so importantwichtig?"
3
7000
2000
"Warum ist er so wichtig?"
00:24
And ZuckerbergZuckerberg said,
4
9000
2000
Und Zuckerberg sagte,
00:26
"A squirrelEichhörnchen dyingsterben in your frontVorderseite yardHof
5
11000
2000
"Ein Eichhörnchen, das in Ihrem Vorgarten stirbt
00:28
maykann be more relevantrelevant to your interestsInteressen right now
6
13000
3000
kann für Sie jetzt gerade relevanter sein
00:31
than people dyingsterben in AfricaAfrika."
7
16000
3000
als sterbende Menschen in Afrika."
00:34
And I want to talk about
8
19000
2000
Und ich möchte darüber sprechen
00:36
what a WebWeb basedbasierend on that ideaIdee of relevanceRelevanz mightMacht look like.
9
21000
3000
wie ein Internet aussähe, das auf dieser Auffassung von Relevanz basiert.
00:40
So when I was growingwachsend up
10
25000
2000
Während meiner Jugend
00:42
in a really ruralländlich areaBereich in MaineMaine,
11
27000
2000
in einer sehr ländlichen Gegend in Maine
00:44
the InternetInternet meantgemeint something very differentanders to me.
12
29000
3000
war das Internet für mich etwas völlig anderes.
00:47
It meantgemeint a connectionVerbindung to the worldWelt.
13
32000
2000
Es war eine Verbindung zur Welt.
00:49
It meantgemeint something that would connectverbinden us all togetherzusammen.
14
34000
3000
Etwas, das uns alle miteinander verbinden würde.
00:52
And I was sure that it was going to be great for democracyDemokratie
15
37000
3000
Und ich war sicher, dass es großartig für die Demokratie sein würde
00:55
and for our societyGesellschaft.
16
40000
3000
und für unsere Gesellschaft.
00:58
But there's this shiftVerschiebung
17
43000
2000
Aber es gibt eine Verschiebung darin
01:00
in how informationInformation is flowingfließend onlineonline,
18
45000
2000
wie Informationen online fließen,
01:02
and it's invisibleunsichtbar.
19
47000
3000
und zwar eine unsichtbare.
01:05
And if we don't payZahlen attentionAufmerksamkeit to it,
20
50000
2000
Und wenn wir nicht aufpassen,
01:07
it could be a realecht problemProblem.
21
52000
3000
könnte sie ein echtes Problem werden.
01:10
So I first noticedbemerkt this in a placeOrt I spendverbringen a lot of time --
22
55000
3000
Mir ist sie zuerst an einem Ort aufgefallen, an dem ich viel Zeit verbringe --
01:13
my FacebookFacebook pageSeite.
23
58000
2000
meiner Facebook-Seite.
01:15
I'm progressiveprogressiv, politicallypolitisch -- biggroß surpriseüberraschen --
24
60000
3000
Ich bin politisch progressiv -- überraschenderweise --
01:18
but I've always goneWeg out of my way to meetTreffen conservativeskonservativen.
25
63000
2000
aber ich habe mich immer bemüht, Konservativen zu begegnen.
01:20
I like hearingHören what they're thinkingDenken about;
26
65000
2000
Ich mag es, zu hören worüber sie nachdenken;
01:22
I like seeingSehen what they linkVerknüpfung to;
27
67000
2000
Ich mag es, zu sehen was sie verlinken;
01:24
I like learningLernen a thing or two.
28
69000
2000
Ich mag es, ein-zwei Dinge zu lernen.
01:26
And so I was surprisedüberrascht when I noticedbemerkt one day
29
71000
3000
Also war ich überrascht, als ich eines Tages gemerkt habe
01:29
that the conservativeskonservativen had disappearedverschwunden from my FacebookFacebook feedFutter.
30
74000
3000
dass die Konservativen aus meinen Facebook-Neuigkeiten verschwunden waren.
01:33
And what it turnedgedreht out was going on
31
78000
2000
Wie sich herausstellte
01:35
was that FacebookFacebook was looking at whichwelche linksLinks I clickedgeklickt on,
32
80000
4000
hatte Facebook registriert, auf welche Links ich klickte,
01:39
and it was noticingbemerken that, actuallytatsächlich,
33
84000
2000
und hatte festgestellt, dass ich
01:41
I was clickingKlicken more on my liberalliberale friends'Freunde linksLinks
34
86000
2000
mehr auf die Links meiner liberalen Freunde klickte
01:43
than on my conservativekonservativ friends'Freunde linksLinks.
35
88000
3000
als auf die meiner konservativen Freunde.
01:46
And withoutohne consultingBeratung me about it,
36
91000
2000
Und ohne dass ich gefragt wurde
01:48
it had editedbearbeitet them out.
37
93000
2000
wurden sie aussortiert.
01:50
They disappearedverschwunden.
38
95000
3000
Sie verschwanden.
01:54
So FacebookFacebook isn't the only placeOrt
39
99000
2000
Facebook ist nicht der einzige Ort
01:56
that's doing this kindArt of invisibleunsichtbar, algorithmicalgorithmische
40
101000
2000
an dem das Netz auf diese unsichtbare,
01:58
editingBearbeitung of the WebWeb.
41
103000
3000
algorithmische Weise redigiert wird.
02:01
Google'sGoogles doing it too.
42
106000
2000
Google macht das gleiche.
02:03
If I searchSuche for something, and you searchSuche for something,
43
108000
3000
Wenn ich nach etwas suche, und Sie nach etwas suchen,
02:06
even right now at the very samegleich time,
44
111000
2000
jetzt gerade, genau gleichzeitig,
02:08
we maykann get very differentanders searchSuche resultsErgebnisse.
45
113000
3000
können wir sehr unterschiedliche Ergebnisse bekommen.
02:11
Even if you're loggedangemeldet out, one engineerIngenieur told me,
46
116000
3000
Sogar wenn man ausgeloggt ist, hat mir ein Spezialist gesagt,
02:14
there are 57 signalsSignale
47
119000
2000
gibt es noch 57 Signale
02:16
that GoogleGoogle lookssieht aus at --
48
121000
3000
die Google berücksichtigt --
02:19
everything from what kindArt of computerComputer you're on
49
124000
3000
von der Art des Computers
02:22
to what kindArt of browserBrowser you're usingmit
50
127000
2000
über den Browser, den man benutzt
02:24
to where you're locatedgelegen --
51
129000
2000
bis zum eigenen Standort --
02:26
that it usesVerwendungen to personallypersönlich tailorSchneider your queryAbfrage resultsErgebnisse.
52
131000
3000
die benutzt werden um die Ergebnisse zu personalisieren.
02:29
Think about it for a secondzweite:
53
134000
2000
Denken sie mal drüber nach:
02:31
there is no standardStandard GoogleGoogle anymorenicht mehr.
54
136000
4000
es gibt kein Standard-Google mehr.
02:35
And you know, the funnykomisch thing about this is that it's hardhart to see.
55
140000
3000
Und das komische daran ist, dass es kaum sichtbar ist.
02:38
You can't see how differentanders your searchSuche resultsErgebnisse are
56
143000
2000
Man sieht nicht, wie unterschiedlich die eigenen Suchtreffer
02:40
from anyonejemand else'ssonst.
57
145000
2000
von denen der anderen sind.
02:42
But a couplePaar of weeksWochen agovor,
58
147000
2000
Aber vor ein paar Wochen
02:44
I askedaufgefordert a bunchBündel of friendsFreunde to GoogleGoogle "EgyptÄgypten"
59
149000
3000
habe ich ein paar Freunde gebeten, "Ägypten" zu googlen
02:47
and to sendsenden me screenBildschirm shotsSchüsse of what they got.
60
152000
3000
und mir Screenshots der Ergebnisse zu schicken.
02:50
So here'shier ist my friendFreund Scott'sScotts screenBildschirm shotSchuss.
61
155000
3000
Hier ist der Screenshot meines Freundes Scott.
02:54
And here'shier ist my friendFreund Daniel'sDaniels screenBildschirm shotSchuss.
62
159000
3000
Und hier ist der von meinem Freund Daniel.
02:57
When you put them side-by-sideSeite an Seite,
63
162000
2000
Wenn man sie nebeneinander stellt,
02:59
you don't even have to readlesen the linksLinks
64
164000
2000
muss man noch nicht mal die Links lesen
03:01
to see how differentanders these two pagesSeiten are.
65
166000
2000
um zu sehen, wie unterschiedlich die beiden Seiten sind.
03:03
But when you do readlesen the linksLinks,
66
168000
2000
Aber wenn man die Links liest,
03:05
it's really quiteganz remarkablebemerkenswert.
67
170000
3000
ist es schon bemerkenswert.
03:09
DanielDanke. didn't get anything about the protestsProteste in EgyptÄgypten at all
68
174000
3000
Daniel hat auf seiner ersten Trefferseite überhaupt nichts
03:12
in his first pageSeite of GoogleGoogle resultsErgebnisse.
69
177000
2000
über die Proteste in Ägypten bekommen.
03:14
Scott'sScotts resultsErgebnisse were fullvoll of them.
70
179000
2000
Scott's Ergebnisse waren voll davon.
03:16
And this was the biggroß storyGeschichte of the day at that time.
71
181000
2000
Und das war zu dieser Zeit die Nachricht des Tages.
03:18
That's how differentanders these resultsErgebnisse are becomingWerden.
72
183000
3000
So unterschiedlich werden die Ergebnisse jetzt.
03:21
So it's not just GoogleGoogle and FacebookFacebook eitherentweder.
73
186000
3000
Und es geht nicht nur um Google und Facebook.
03:24
This is something that's sweepingfegen the WebWeb.
74
189000
2000
Das ist etwas, das das ganze Internet durchzieht.
03:26
There are a wholeganze hostGastgeber of companiesFirmen that are doing this kindArt of personalizationPersonalisierung.
75
191000
3000
Es gibt eine ganze Menge Firmen, die diese Art von Personalisierung machen.
03:29
YahooYahoo NewsNews, the biggestgrößte newsNachrichten siteStandort on the InternetInternet,
76
194000
3000
Yahoo News, die größte Nachrichtenseite im Internet,
03:32
is now personalizedpersonalisiert -- differentanders people get differentanders things.
77
197000
3000
ist schon personalisiert -- verschiedene Menschen bekommen verschiedene Dinge.
03:36
HuffingtonHuffington PostBereitstellen, the WashingtonWashington PostBereitstellen, the NewNeu YorkYork TimesMale --
78
201000
3000
Huffington Post, die Washington Post, die New York Times --
03:39
all flirtingflirten with personalizationPersonalisierung in variousverschiedene waysWege.
79
204000
3000
sie flirten alle irgendwie mit Personalisierung.
03:42
And this movesbewegt us very quicklyschnell
80
207000
3000
Und das bringt uns sehr schnell
03:45
towardzu a worldWelt in whichwelche
81
210000
2000
zu einer Welt in der das Internet
03:47
the InternetInternet is showingzeigt us what it thinksdenkt we want to see,
82
212000
4000
uns das zeigt, wovon es denkt, dass wir es sehen wollen,
03:51
but not necessarilyNotwendig what we need to see.
83
216000
3000
aber nicht zwangsläufig, was wir sehen sollten.
03:54
As EricEric SchmidtSchmidt said,
84
219000
3000
Eric Schmidt hat gesagt,
03:57
"It will be very hardhart for people to watch or consumeverbrauchen something
85
222000
3000
"Es wird für die Menschen schwierig werden, etwas zu sehen oder zu konsumieren,
04:00
that has not in some senseSinn
86
225000
2000
das nicht in irgendeiner Weise
04:02
been tailoredzugeschnitten for them."
87
227000
3000
auf sie zugeschnitten ist."
04:05
So I do think this is a problemProblem.
88
230000
2000
Und ich glaube, dass das ein Problem ist.
04:07
And I think, if you take all of these filtersFilter togetherzusammen,
89
232000
3000
Ich glaube, wenn man all diese Filter zusammen nimmt,
04:10
you take all these algorithmsAlgorithmen,
90
235000
2000
all diese Algorithmen,
04:12
you get what I call a filterFilter bubbleBlase.
91
237000
3000
dann bekommt man, was ich eine "Filterblase" nenne.
04:16
And your filterFilter bubbleBlase is your ownbesitzen personalpersönlich,
92
241000
3000
Ihre Filterblase ist Ihr ganz persönliches
04:19
uniqueeinzigartig universeUniversum of informationInformation
93
244000
2000
einzigartiges Informationsuniversum,
04:21
that you liveLeben in onlineonline.
94
246000
2000
in dem Sie online leben.
04:23
And what's in your filterFilter bubbleBlase
95
248000
3000
Und was in Ihrer Filterblase ist,
04:26
dependshängt davon ab on who you are, and it dependshängt davon ab on what you do.
96
251000
3000
hängt davon ab, wer Sie sind und was Sie tun.
04:29
But the thing is that you don't decideentscheiden what getsbekommt in.
97
254000
4000
Aber Sie bestimmen nicht, was hineinkommt.
04:33
And more importantlywichtig,
98
258000
2000
Und, noch wichtiger,
04:35
you don't actuallytatsächlich see what getsbekommt editedbearbeitet out.
99
260000
3000
Sie sehen nie, was aussortiert wird.
04:38
So one of the problemsProbleme with the filterFilter bubbleBlase
100
263000
2000
Eines der Probleme der Filterblase
04:40
was discoveredentdeckt by some researchersForscher at NetflixNetflix.
101
265000
3000
wurde von Forschern bei Netflix entdeckt.
04:43
And they were looking at the NetflixNetflix queuesWarteschlangen, and they noticedbemerkt something kindArt of funnykomisch
102
268000
3000
Sie schauten sich die Film-Bestelllisten dort an, und ihnen fiel etwas komisches auf,
04:46
that a lot of us probablywahrscheinlich have noticedbemerkt,
103
271000
2000
das wohl schon viele von uns kennen,
04:48
whichwelche is there are some moviesFilme
104
273000
2000
nämlich dass manche Filme sofort
04:50
that just sortSortieren of zipReißverschluss right up and out to our housesHäuser.
105
275000
3000
nach oben auf die Liste kommen und ab zu uns nach Hause.
04:53
They entereingeben the queueWarteschlange, they just zipReißverschluss right out.
106
278000
3000
Sie kommen neu oben auf die Liste, und sofort geht es los.
04:56
So "IronEisen Man" zipsReißverschlüsse right out,
107
281000
2000
"Iron Man" geht sofort raus,
04:58
and "WaitingWarten for SupermanSuperman"
108
283000
2000
und bei "Waiting for Superman"
05:00
can wait for a really long time.
109
285000
2000
kann es ziemlich lange dauern.
05:02
What they discoveredentdeckt
110
287000
2000
Was sie herausgefunden haben
05:04
was that in our NetflixNetflix queuesWarteschlangen
111
289000
2000
ist, dass in unseren Netflix-Wartelisten
05:06
there's this epicEpos struggleKampf going on
112
291000
3000
ein epischer Kampf stattfindet --
05:09
betweenzwischen our futureZukunft aspirationalAbsichtserklärung selvesselbst
113
294000
3000
zwischen unserem zukünftigen, anspruchsvolleren Ich
05:12
and our more impulsiveimpulsive presentGeschenk selvesselbst.
114
297000
3000
und unserem impulsiveren, gegenwärtigen Ich.
05:15
You know we all want to be someonejemand
115
300000
2000
Sie wissen ja, wir möchten alle jemand sein
05:17
who has watchedangesehen "RashomonRashomon,"
116
302000
2000
der "Rashomon" gesehen hat,
05:19
but right now
117
304000
2000
aber jetzt gerade
05:21
we want to watch "AceAss VenturaVentura" for the fourthvierte time.
118
306000
3000
wollen wir "Ace Ventura" zum vierten Mal anschauen.
05:24
(LaughterLachen)
119
309000
3000
(Gelächter)
05:27
So the bestBeste editingBearbeitung givesgibt us a bitBit of bothbeide.
120
312000
2000
Die beste Zusammenstellung für uns wäre von allem etwas.
05:29
It givesgibt us a little bitBit of JustinJustin BieberBieber
121
314000
2000
Ein kleines bißchen Justin Bieber
05:31
and a little bitBit of AfghanistanAfghanistan.
122
316000
2000
und ein kleines bißchen Afghanistan.
05:33
It givesgibt us some informationInformation vegetablesGemüse;
123
318000
2000
Etwas Informations-Gemüse,
05:35
it givesgibt us some informationInformation dessertDessert.
124
320000
3000
und ein wenig Informations-Nachtisch.
05:38
And the challengeHerausforderung with these kindsArten of algorithmicalgorithmische filtersFilter,
125
323000
2000
Und die Herausforderung für algorithmische Filter,
05:40
these personalizedpersonalisiert filtersFilter,
126
325000
2000
diese personalisierten Filter,
05:42
is that, because they're mainlyhauptsächlich looking
127
327000
2000
ist, dass sie diese Balance umkippen,
05:44
at what you clickklicken on first,
128
329000
4000
weil sie vor allem danach gehen,
05:48
it can throwwerfen off that balanceBalance.
129
333000
4000
worauf man zuerst klickt.
05:52
And insteadstattdessen of a balancedausgewogen informationInformation dietDiät,
130
337000
3000
Und statt einer ausgewogenen Informationsdiät
05:55
you can endEnde up surroundedumgeben
131
340000
2000
findet man sich am Ende inmitten
05:57
by informationInformation junkMüll foodLebensmittel.
132
342000
2000
von Informations-Junk Food wieder.
05:59
What this suggestsschlägt vor
133
344000
2000
Was das heißen könnte ist,
06:01
is actuallytatsächlich that we maykann have the storyGeschichte about the InternetInternet wrongfalsch.
134
346000
3000
dass wir die Sache mit dem Internet vielleicht falsch verstanden haben.
06:04
In a broadcastÜbertragung societyGesellschaft --
135
349000
2000
In einer Sendergesellschaft --
06:06
this is how the foundingGründung mythologyMythologie goesgeht --
136
351000
2000
so geht der Gründungsmythos --
06:08
in a broadcastÜbertragung societyGesellschaft,
137
353000
2000
in einer Sendergesellschaft
06:10
there were these gatekeepersGatekeeper, the editorsEditoren,
138
355000
2000
gab es Torwächter, die Redakteure,
06:12
and they controlledkontrolliert the flowsFlüsse of informationInformation.
139
357000
3000
die den Informationsfluss kontrolliert haben.
06:15
And alongeine lange camekam the InternetInternet and it sweptgefegt them out of the way,
140
360000
3000
Und dann kam das Internet und hat sie aus dem Weg gefegt,
06:18
and it alloweddürfen all of us to connectverbinden togetherzusammen,
141
363000
2000
und uns allen ermöglicht, uns miteinander zu verbinden,
06:20
and it was awesomegenial.
142
365000
2000
und es war wunderbar.
06:22
But that's not actuallytatsächlich what's happeningHappening right now.
143
367000
3000
Aber das ist nicht, was gerade passiert.
06:26
What we're seeingSehen is more of a passingVorbeigehen of the torchFackel
144
371000
3000
Was wir erleben ist eher eine Übergabe der Fackel
06:29
from humanMensch gatekeepersGatekeeper
145
374000
2000
von menschlichen Torwächtern
06:31
to algorithmicalgorithmische onesEinsen.
146
376000
3000
an die Algorithmen.
06:34
And the thing is that the algorithmsAlgorithmen
147
379000
3000
Nur dass den Algorithmen
06:37
don't yetnoch have the kindArt of embeddedeingebettet ethicsEthik
148
382000
3000
noch keine Ethik eingebaut wurde,
06:40
that the editorsEditoren did.
149
385000
3000
wie sie die Redakteure haben.
06:43
So if algorithmsAlgorithmen are going to curateKurat the worldWelt for us,
150
388000
3000
Wenn also Algorithmen die Welt für uns kuratieren,
06:46
if they're going to decideentscheiden what we get to see and what we don't get to see,
151
391000
3000
wenn sie entscheiden, was wir zu sehen bekommen und was nicht,
06:49
then we need to make sure
152
394000
2000
dann müssen wir sicherstellen,
06:51
that they're not just keyedeingegeben to relevanceRelevanz.
153
396000
3000
dass sie nicht nur nach Relevanz auswählen.
06:54
We need to make sure that they alsoebenfalls showShow us things
154
399000
2000
Wir müssen garantieren, dass sie uns auch Dinge zeigen,
06:56
that are uncomfortableunbequem or challengingherausfordernd or importantwichtig --
155
401000
3000
die unbequem oder herausfordernd oder wichtig sind --
06:59
this is what TEDTED does --
156
404000
2000
so wie das TED tut --
07:01
other pointsPunkte of viewAussicht.
157
406000
2000
andere Sichtweisen.
07:03
And the thing is, we'vewir haben actuallytatsächlich been here before
158
408000
2000
Und an diesem Punkt waren wir ja schon einmal,
07:05
as a societyGesellschaft.
159
410000
2000
als Gesellschaft.
07:08
In 1915, it's not like newspapersZeitungen were sweatingSchwitzen a lot
160
413000
3000
Im Jahre 1915 haben sich die Zeitungen nicht gerade verausgabt
07:11
about theirihr civicstaatsbürgerlich responsibilitiesVerantwortlichkeiten.
161
416000
3000
um ihrer bürgerlichen Verantwortung nachzukommen.
07:14
Then people noticedbemerkt
162
419000
2000
Dann hat man bemerkt
07:16
that they were doing something really importantwichtig.
163
421000
3000
dass sie eine sehr wichtige Funktion hatten.
07:19
That, in factTatsache, you couldn'tkonnte nicht have
164
424000
2000
Dass eine funktionierende Demokratie
07:21
a functioningFunktion democracyDemokratie
165
426000
2000
gar nicht möglich war
07:23
if citizensBürger didn't get a good flowfließen of informationInformation,
166
428000
4000
ohne einen guten Informationsfluss für die Bürger.
07:28
that the newspapersZeitungen were criticalkritisch because they were actingSchauspielkunst as the filterFilter,
167
433000
3000
Dass die Zeitungen mit ihrer Filterwirkung von entscheidender Bedeutung waren --
07:31
and then journalisticjournalistische ethicsEthik developedentwickelt.
168
436000
2000
und dann entwickelte sich eine journalistische Ethik.
07:33
It wasn'twar nicht perfectperfekt,
169
438000
2000
Die war nicht perfekt,
07:35
but it got us throughdurch the last centuryJahrhundert.
170
440000
3000
aber sie hat uns durch das letzte Jahrhundert gebracht.
07:38
And so now,
171
443000
2000
Und jetzt sind wir
07:40
we're kindArt of back in 1915 on the WebWeb.
172
445000
3000
mit dem Internet wieder im Jahr 1915.
07:44
And we need the newneu gatekeepersGatekeeper
173
449000
3000
Und die neuen Torwächter müssen
07:47
to encodeCodieren that kindArt of responsibilityVerantwortung
174
452000
2000
in den Code, den sie schreiben,
07:49
into the codeCode that they're writingSchreiben.
175
454000
2000
diese Verantwortung für uns mit einbauen.
07:51
I know that there are a lot of people here from FacebookFacebook and from GoogleGoogle --
176
456000
3000
Ich weiß, dass hier viele Leute von Facebook und von Google sind --
07:54
LarryLarry and SergeySergej --
177
459000
2000
Larry und Sergey --
07:56
people who have helpedhalf buildbauen the WebWeb as it is,
178
461000
2000
Leute, die das Netz in seiner heutigen Form mitgebaut haben,
07:58
and I'm gratefuldankbar for that.
179
463000
2000
und dafür bin ich dankbar.
08:00
But we really need you to make sure
180
465000
3000
Aber wir müssen wirklich sicherstellen,
08:03
that these algorithmsAlgorithmen have encodedcodiert in them
181
468000
3000
dass diese Algorithmen einen Sinn für öffentliches Leben,
08:06
a senseSinn of the publicÖffentlichkeit life, a senseSinn of civicstaatsbürgerlich responsibilityVerantwortung.
182
471000
3000
für bürgerliche Verantwortung einprogrammiert haben.
08:09
We need you to make sure that they're transparenttransparent enoughgenug
183
474000
3000
Wir müssen dafür sorgen, dass sie transparent genug sind,
08:12
that we can see what the rulesRegeln are
184
477000
2000
so dass wir die Regeln sehen können,
08:14
that determinebestimmen what getsbekommt throughdurch our filtersFilter.
185
479000
3000
die bestimmen, was durch unsere Filter kommt.
08:17
And we need you to give us some controlsteuern
186
482000
2000
Und Ihr müsst uns Kontrolle darüber geben,
08:19
so that we can decideentscheiden
187
484000
2000
so dass wir entscheiden können
08:21
what getsbekommt throughdurch and what doesn't.
188
486000
3000
was durchkommen soll und was nicht.
08:24
Because I think
189
489000
2000
Denn ich glaube
08:26
we really need the InternetInternet to be that thing
190
491000
2000
dass wir das Internet wirklich so brauchen
08:28
that we all dreamedgeträumt of it beingSein.
191
493000
2000
wie wir es uns erträumt haben.
08:30
We need it to connectverbinden us all togetherzusammen.
192
495000
3000
Es soll uns alle miteinander verbinden.
08:33
We need it to introducevorstellen us to newneu ideasIdeen
193
498000
3000
Es soll uns an neue Ideen heranführen
08:36
and newneu people and differentanders perspectivesPerspektiven.
194
501000
3000
und an neue Leute und fremde Perspektiven.
08:40
And it's not going to do that
195
505000
2000
Und das wird nicht geschehen,
08:42
if it leavesBlätter us all isolatedisoliert in a WebWeb of one.
196
507000
3000
wenn wir alle isoliert werden, in einem vereinzelten Netz.
08:45
Thank you.
197
510000
2000
Danke.
08:47
(ApplauseApplaus)
198
512000
11000
(Applaus)
Translated by Judith Funke
Reviewed by Lex Asobo

▲Back to top

ABOUT THE SPEAKER
Eli Pariser - Organizer and author
Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Why you should listen

Shortly after the September 11, 2001, attacks, Eli Pariser created a website calling for a multilateral approach to fighting terrorism. In the following weeks, over half a million people from 192 countries signed on, and Pariser rather unexpectedly became an online organizer. The website merged with MoveOn.org in November 2001, and Pariser -- then 20 years old -- joined the group to direct its foreign policy campaigns. He led what the New York Times Magazine called the "mainstream arm of the peace movement" -- tripling MoveOn's member base and demonstrating how large numbers of small donations could be mobilized through online engagement.

In 2004, Pariser became executive director of MoveOn. Under his leadership, MoveOn.org Political Action has grown to 5 million members and raised over $120 million from millions of small donors to support advocacy campaigns and political candidates. Pariser focused MoveOn on online-to-offline organizing, developing phone-banking tools and precinct programs in 2004 and 2006 that laid the groundwork for Barack Obama's extraordinary web-powered campaign. In 2008, Pariser transitioned the Executive Director role at MoveOn to Justin Ruben and became President of MoveOn’s board; he's now a senior fellow at the Roosevelt Institute.

His book The Filter Bubble is set for release May 12, 2011. In it, he asks how modern search tools -- the filter by which many of see the wider world -- are getting better and better and screening the wider world from us, by returning only the search results it "thinks" we want to see.

More profile about the speaker
Eli Pariser | Speaker | TED.com