ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Das Spiralpommes-Rätsel: Warum ein "Gefällt mir" so viel mehr sagt, als Sie denken

Filmed:
2,366,837 views

Mögen Sie geringelte Pommes? Haben Sie dafür auf Facebook "Gefällt mir" gedrückt? In diesem Video können Sie sehen, welche verblüffenden Dinge Facebook (und andere) über Sie herausfinden können – nur durch die Analyse dessen, was Sie teilen und "liken". Die IT-Forscherin Jennifer Golbeck erklärt, wie es dazu kam, wie unschön manche dieser technologischen Anwendungen sein können – und warum sie denkt, dass die Kontrolle über die Daten wieder zurück an die rechtmäßigen Besitzer gegeben werden sollte.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

Erinnern Sie sich mal zurück:
In seinen ersten zehn Jahren
00:12
If you remembermerken that first decadeDekade of the webweb,
0
738
1997
00:14
it was really a staticstatische placeOrt.
1
2735
2255
war das Internet sehr statisch.
00:16
You could go onlineonline, you could look at pagesSeiten,
2
4990
2245
Man konnte online gehen
und sich Websites anschauen,
00:19
and they were put up eitherentweder by organizationsOrganisationen
3
7235
2513
die entweder von Organisationen
00:21
who had teamsTeams to do it
4
9748
1521
mit professionellen Teams betrieben wurden
00:23
or by individualsIndividuen who were really tech-savvytechnisch versierte
5
11269
2229
oder von Privatleuten, die für ihre Zeit
sehr technikversiert waren.
00:25
for the time.
6
13498
1737
00:27
And with the riseerhebt euch of socialSozial mediaMedien
7
15235
1575
Mit dem Aufstieg der sozialen Medien
00:28
and socialSozial networksNetzwerke in the earlyfrüh 2000s,
8
16810
2399
und der sozialen Netzwerke
zu Beginn der 2000er
00:31
the webweb was completelyvollständig changedgeändert
9
19209
2149
veränderte sich das Internet
von Grund auf:
00:33
to a placeOrt where now the vastriesig majorityMehrheit of contentInhalt
10
21358
3608
Ein Ort, an dem
die große Mehrheit der Inhalte,
00:36
we interactinteragieren with is put up by averagedurchschnittlich usersBenutzer,
11
24966
3312
mit denen wir uns beschäftigen,
von durchschnittlichen Nutzern kommt,
00:40
eitherentweder in YouTubeYouTube videosVideos or blogBlog postsBeiträge
12
28278
2697
ob als YouTube-Video oder als Blogeintrag,
00:42
or productProdukt reviewsBewertungen zu der Unterkunft or socialSozial mediaMedien postingsBuchungen.
13
30975
3315
Produktrezension oder
Post bei einem sozialen Netzwerk.
00:46
And it's alsoebenfalls becomewerden a much more interactiveinteraktiv placeOrt,
14
34290
2347
Das Internet ist auch
viel interaktiver geworden.
00:48
where people are interactinginteragierend with othersAndere,
15
36637
2637
Menschen treten miteinander in Kontakt,
00:51
they're commentingkommentieren, they're sharingTeilen,
16
39274
1696
sie kommentieren, sie teilen,
sie lesen nicht nur.
00:52
they're not just readingLesen.
17
40970
1614
Facebook ist nicht der einzige
Ort für solche Aktivitäten,
00:54
So FacebookFacebook is not the only placeOrt you can do this,
18
42584
1866
00:56
but it's the biggestgrößte,
19
44450
1098
aber der größte,
00:57
and it servesdient to illustrateveranschaulichen the numbersNummern.
20
45548
1784
und zeigt das Ausmaß sehr gut.
00:59
FacebookFacebook has 1.2 billionMilliarde usersBenutzer perpro monthMonat.
21
47332
3477
Facebook hat monatlich
1,2 Milliarden Nutzer.
01:02
So halfHälfte the Earth'sDer Erde InternetInternet populationBevölkerung
22
50809
1930
Mehr als die Hälfte
aller Internetnutzer nutzt Facebook.
01:04
is usingmit FacebookFacebook.
23
52739
1653
Es ist eine Website so wie andere auch,
01:06
They are a siteStandort, alongeine lange with othersAndere,
24
54392
1932
01:08
that has alloweddürfen people to createerstellen an onlineonline personaPersona
25
56324
3219
mit der Leute ohne große
technische Kenntnisse
01:11
with very little technicaltechnisch skillFertigkeit,
26
59543
1782
ein virtuelles Ich erstellen können.
01:13
and people respondedantwortete by puttingPutten hugeenorm amountsBeträge
27
61325
2476
Als Ergebnis stellten viele Leute
eine Menge persönlicher Daten online.
01:15
of personalpersönlich dataDaten onlineonline.
28
63801
1983
01:17
So the resultErgebnis is that we have behavioralVerhaltens-,
29
65784
2543
Wir haben jetzt also Daten zum Verhalten,
01:20
preferencePräferenz, demographicdemographisch dataDaten
30
68327
1986
zu Vorlieben und zur Demographie
01:22
for hundredsHunderte of millionsMillionen of people,
31
70313
2101
von hunderten Millionen von Leuten.
01:24
whichwelche is unprecedentedbeispiellos in historyGeschichte.
32
72414
2026
Das gab es bisher noch nie.
01:26
And as a computerComputer scientistWissenschaftler,
what this meansmeint is that
33
74440
2560
Als IT-Forscherin konnte ich
daher Modelle erstellen,
01:29
I've been ablefähig to buildbauen modelsModelle
34
77000
1664
die alle möglichen versteckten
Eigenschaften errechnen können,
01:30
that can predictvorhersagen all sortssortiert of hiddenversteckt attributesAttribute
35
78664
2322
01:32
for all of you that you don't even know
36
80986
2284
für Sie alle -- und Ihnen
ist nicht bewusst,
01:35
you're sharingTeilen informationInformation about.
37
83270
2202
dass Sie Informationen darüber teilen.
01:37
As scientistsWissenschaftler, we use that to help
38
85472
2382
Als Forscher helfen wir Menschen dabei,
01:39
the way people interactinteragieren onlineonline,
39
87854
2114
online miteinander umgehen.
01:41
but there's lessWeniger altruisticaltruistische applicationsAnwendungen,
40
89968
2499
Aber es gibt auch weniger
selbstlose Anwendungen.
01:44
and there's a problemProblem in that usersBenutzer don't really
41
92467
2381
Das Problem ist, dass Nutzer
nicht richtig verstehen,
01:46
understandverstehen these techniquesTechniken and how they work,
42
94848
2470
wie diese Techniken funktionieren
01:49
and even if they did, they don't
have a lot of controlsteuern over it.
43
97318
3128
und auch wenn sie es täten,
könnten sie sie nicht steuern.
01:52
So what I want to talk to you about todayheute
44
100446
1490
Heute möchte ich Ihnen sagen,
01:53
is some of these things that we're ablefähig to do,
45
101936
2702
was wir alles tun können
01:56
and then give us some ideasIdeen
of how we mightMacht go forwardVorwärts-
46
104638
2763
und einige Wege aufzeigen,
wie es weitergehen kann,
01:59
to moveBewegung some controlsteuern back into the handsHände of usersBenutzer.
47
107401
2769
um den Nutzern wieder mehr
Kontrolle zu geben.
02:02
So this is TargetZiel, the companyUnternehmen.
48
110170
1586
Das hier ist das Unternehmen "Target".
02:03
I didn't just put that logoLogo
49
111756
1324
Das Logo ist nicht zufällig
02:05
on this poorArm, pregnantschwanger woman'sFrau bellyBauch.
50
113080
2170
auf dem Bauch dieser armen Schwangeren.
02:07
You maykann have seengesehen this anecdoteAnekdote that was printedgedruckt
51
115250
1840
Sie kennen vielleicht die Geschichte,
02:09
in ForbesForbes magazineZeitschrift where TargetZiel
52
117090
2061
die im Magazin "Forbes" abgedruckt wurde.
02:11
sentgesendet a flyerFlyer to this 15-year-old-Jahr alt girlMädchen
53
119151
2361
Darin schickte Target einem
15-jährigen Mädchen einen Flyer
02:13
with advertisementsWerbung and couponsGutscheine
54
121512
1710
mit Werbung und Gutscheinen
02:15
for babyBaby bottlesFlaschen and diapersWindeln and cribsKrippen
55
123222
2554
für Babyfläschchen, Windeln und Bettchen,
02:17
two weeksWochen before she told her parentsEltern
56
125776
1684
zwei Wochen bevor das Mädchen
02:19
that she was pregnantschwanger.
57
127460
1864
seinen Eltern von der
Schwangerschaft erzählte.
02:21
Yeah, the dadPapa was really upsetverärgert.
58
129324
2704
Ja, ihr Vater hat sich ziemlich aufgeregt.
02:24
He said, "How did TargetZiel figureZahl out
59
132028
1716
Er sagte: "Wie konnte Target herausfinden,
02:25
that this highhoch schoolSchule girlMädchen was pregnantschwanger
60
133744
1824
dass eine Schülerin schwanger ist,
02:27
before she told her parentsEltern?"
61
135568
1960
noch bevor sie es
ihren Eltern erzählt hat?"
02:29
It turnswendet sich out that they have the purchaseKauf historyGeschichte
62
137528
2621
Es stellte sich heraus,
dass Target Einkaufsdaten
02:32
for hundredsHunderte of thousandsTausende of customersKunden
63
140149
2301
von hunderttausenden Kunden besitzt
02:34
and they computeberechnen what they
call a pregnancySchwangerschaft scoreErgebnis,
64
142450
2730
und daraus einen
"Schwangerschaftswert" errechnet.
02:37
whichwelche is not just whetherob or
not a woman'sFrau pregnantschwanger,
65
145180
2332
Da geht es nicht nur um
eine mögliche Schwangerschaft,
02:39
but what her duefällig dateDatum is.
66
147512
1730
sondern um das errechnete
Geburtsdatum des Kindes.
02:41
And they computeberechnen that
67
149242
1304
Das wird nicht errechnet,
02:42
not by looking at the obviousoffensichtlich things,
68
150546
1768
indem die offensichtlichen
Dinge angeschaut werden,
02:44
like, she's buyingKauf a cribKrippe or babyBaby clothesKleider,
69
152314
2512
wie z. B. Kauf von
Babykleidung oder Bettchen,
02:46
but things like, she boughtgekauft more vitaminsVitamine
70
154826
2943
sondern ob die Frau z. B.
mehr Vitamine als sonst kauft
02:49
than she normallynormalerweise had,
71
157769
1717
02:51
or she boughtgekauft a handbagHandtasche
72
159486
1464
oder eine Handtasche,
02:52
that's biggroß enoughgenug to holdhalt diapersWindeln.
73
160950
1711
die groß genug für Windeln ist.
02:54
And by themselvessich, those purchasesKäufe don't seemscheinen
74
162661
1910
Diese Einkäufe an sich scheinen
02:56
like they mightMacht revealverraten a lot,
75
164571
2469
nicht so viel zu offenbaren,
aber sie stehen für ein Verhaltensmuster,
02:59
but it's a patternMuster of behaviorVerhalten that,
76
167040
1978
03:01
when you take it in the contextKontext
of thousandsTausende of other people,
77
169018
3117
das im Kontext mit
tausenden anderen Menschen
03:04
startsbeginnt to actuallytatsächlich revealverraten some insightsEinblicke.
78
172135
2757
doch einige Einblicke bietet.
03:06
So that's the kindArt of thing that we do
79
174892
1793
So werden also durch soziale Medien
03:08
when we're predictingvorhersagen stuffSachen
about you on socialSozial mediaMedien.
80
176685
2567
Dinge über Sie errechnet.
03:11
We're looking for little
patternsMuster of behaviorVerhalten that,
81
179252
2796
Wir suchen nach kleinen Verhaltensmustern,
die Millionen Menschen zeigen
03:14
when you detecterkennen them amongunter millionsMillionen of people,
82
182048
2682
03:16
letsLasst uns us find out all kindsArten of things.
83
184730
2706
und die somit einiges aussagen.
Zusammen mit meinen Kollegen
haben wir im Labor
03:19
So in my labLabor and with colleaguesKollegen,
84
187436
1747
03:21
we'vewir haben developedentwickelt mechanismsMechanismen where we can
85
189183
1777
Mechanismen entwickelt, um sehr
genau Dinge errechnen zu können:
03:22
quiteganz accuratelygenau predictvorhersagen things
86
190960
1560
03:24
like your politicalpolitisch preferencePräferenz,
87
192520
1725
Politische Vorlieben,
03:26
your personalityPersönlichkeit scoreErgebnis, genderGeschlecht, sexualsexuell orientationOrientierung,
88
194245
3752
persönliche Eigenschaften,
Geschlecht, sexuelle Orientierung,
03:29
religionReligion, ageAlter, intelligenceIntelligenz,
89
197997
2873
Religion, Alter, Intelligenz,
03:32
alongeine lange with things like
90
200870
1394
wie sehr Sie den Menschen
vertrauen, die Sie kennen,
03:34
how much you trustVertrauen the people you know
91
202264
1937
03:36
and how strongstark those relationshipsBeziehungen are.
92
204201
1804
und wie stark diese Beziehungen sind.
03:38
We can do all of this really well.
93
206005
1785
Das alles können wir ziemlich gut.
03:39
And again, it doesn't come from what you mightMacht
94
207790
2197
Diese Daten stammen nicht
aus offensichtlichen Informationen.
03:41
think of as obviousoffensichtlich informationInformation.
95
209987
2102
Mein Lieblingsbeispiel
stammt aus einer Studie,
03:44
So my favoriteFavorit exampleBeispiel is from this studyStudie
96
212089
2281
03:46
that was publishedveröffentlicht this yearJahr
97
214370
1240
die dieses Jahr in der Fachzeitschrift
"PNA S" veröffentlicht wurde.
03:47
in the ProceedingsVerfahren of the NationalNationalen AcademiesAkademien.
98
215610
1795
03:49
If you GoogleGoogle this, you'lldu wirst find it.
99
217405
1285
Googeln Sie das mal.
03:50
It's fourvier pagesSeiten, easyeinfach to readlesen.
100
218690
1872
Es sind vier Seiten, leicht zu lesen.
03:52
And they lookedsah at just people'sMenschen FacebookFacebook likesLikes,
101
220562
3003
Es wurden nur die "Gefällt mir"-Angaben
auf Facebook untersucht
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
und dazu genutzt, um Eigenschaften
03:57
and used that to predictvorhersagen all these attributesAttribute,
103
225485
2138
03:59
alongeine lange with some other onesEinsen.
104
227623
1645
und andere Dinge zu errechnen.
04:01
And in theirihr paperPapier- they listedgelistet the fivefünf likesLikes
105
229268
2961
In dieser Studie findet man
die fünf "Gefällt mir",
04:04
that were mostdie meisten indicativeindikativ of highhoch intelligenceIntelligenz.
106
232229
2787
die meistens für hohe Intelligenz standen.
Da war auch eine Seite
über Spiralpommes dabei.
04:07
And amongunter those was likingGeschmack a pageSeite
107
235016
2324
04:09
for curlylockig friesFritten. (LaughterLachen)
108
237340
1905
(Gelächter)
04:11
CurlyLockig friesFritten are delicioussehr lecker,
109
239245
2093
Spiralpommes sind lecker,
aber ein "Gefällt mir"
heißt noch lange nicht,
04:13
but likingGeschmack them does not necessarilyNotwendig mean
110
241338
2530
dass Sie klüger sind als der Durchschnitt.
04:15
that you're smarterintelligenter than the averagedurchschnittlich personPerson.
111
243868
2080
04:17
So how is it that one of the strongestam stärksten indicatorsIndikatoren
112
245948
3207
Wie kann einer der stärksten
Hinweise auf Intelligenz
04:21
of your intelligenceIntelligenz
113
249155
1570
das "Gefällt mir" für diese Seite sein,
04:22
is likingGeschmack this pageSeite
114
250725
1447
04:24
when the contentInhalt is totallytotal irrelevantirrelevant
115
252172
2252
wenn der Inhalt
für das Errechnen der Eigenschaft
04:26
to the attributeAttribut that's beingSein predictedvorhergesagt?
116
254424
2527
eigentlich völlig irrelevant ist?
Dazu muss man sich eine Menge
04:28
And it turnswendet sich out that we have to look at
117
256951
1584
04:30
a wholeganze bunchBündel of underlyingzugrunde liegenden theoriesTheorien
118
258535
1618
zugrunde liegender Theorien anschauen,
04:32
to see why we're ablefähig to do this.
119
260153
2569
um zu verstehen,
warum das funktioniert.
Eine soziologische Theorie
heißt Homophilie:
04:34
One of them is a sociologicalsoziologische
theoryTheorie callednamens homophilyÄhnlichkeitsmechanismus,
120
262722
2913
04:37
whichwelche basicallyGrundsätzlich gilt sayssagt people are
friendsFreunde with people like them.
121
265635
3092
Leute freunden sich
mit ähnlichen Leuten an.
04:40
So if you're smartsmart, you tendneigen to
be friendsFreunde with smartsmart people,
122
268727
2014
Wenn Sie also intelligent sind,
haben Sie eher intelligente Freunde,
04:42
and if you're youngjung, you tendneigen
to be friendsFreunde with youngjung people,
123
270741
2630
und wenn Sie jung sind,
eher junge Freunde.
04:45
and this is well establishedetabliert
124
273371
1627
Das ist schon seit Hunderten
von Jahren bekannt.
04:46
for hundredsHunderte of yearsJahre.
125
274998
1745
04:48
We alsoebenfalls know a lot
126
276743
1232
Wir wissen auch viel darüber,
04:49
about how informationInformation spreadsbreitet sich aus throughdurch networksNetzwerke.
127
277975
2550
wie sich Informationen
in sozialen Netzwerken verbreiten.
04:52
It turnswendet sich out things like viralvirale videosVideos
128
280525
1754
Sehr beliebte Videos,
"Gefällt mir"-Angaben auf Facebook
04:54
or FacebookFacebook likesLikes or other informationInformation
129
282279
2406
oder andere Informationen
04:56
spreadsbreitet sich aus in exactlygenau the samegleich way
130
284685
1888
verbreiten sich auf die gleiche Weise
04:58
that diseasesKrankheiten spreadVerbreitung throughdurch socialSozial networksNetzwerke.
131
286573
2454
wie Krankheiten.
05:01
So this is something we'vewir haben studiedstudiert for a long time.
132
289027
1791
Das haben wir über
eine lange Zeit untersucht.
05:02
We have good modelsModelle of it.
133
290818
1576
Wir haben da gute Modelle.
05:04
And so you can put those things togetherzusammen
134
292394
2157
Dann kann man die beiden Dinge kombinieren
05:06
and startAnfang seeingSehen why things like this happengeschehen.
135
294551
3088
und verstehen, warum sie passieren.
05:09
So if I were to give you a hypothesisHypothese,
136
297639
1814
Eine Hypothese könnte so aussehen:
05:11
it would be that a smartsmart guy startedhat angefangen this pageSeite,
137
299453
3227
Ein intelligenter Typ
hat eine Seite eingerichtet,
05:14
or maybe one of the first people who likedgefallen it
138
302680
1939
oder der erste mit "Gefällt mir"
05:16
would have scorederzielte highhoch on that testTest.
139
304619
1736
hatte ein hohes Testergebnis.
05:18
And they likedgefallen it, and theirihr friendsFreunde saw it,
140
306355
2288
Er klickte auf "Gefällt mir",
seine Freunde sahen es,
05:20
and by homophilyÄhnlichkeitsmechanismus, we know that
he probablywahrscheinlich had smartsmart friendsFreunde,
141
308643
3122
und Homophilie sagt uns,
dass er wahrscheinlich auch
intelligente Freunde hat,
05:23
and so it spreadVerbreitung to them,
and some of them likedgefallen it,
142
311765
3056
und die haben wiederum auf
"Gefällt mir" geklickt,
05:26
and they had smartsmart friendsFreunde,
143
314821
1189
die hatten intelligente Freunde
05:28
and so it spreadVerbreitung to them,
144
316010
807
05:28
and so it propagatedpropagierte throughdurch the networkNetzwerk
145
316817
1973
und so breitete sich das
05:30
to a hostGastgeber of smartsmart people,
146
318790
2569
durch das ganze Netzwerk aus
05:33
so that by the endEnde, the actionAktion
147
321359
2056
und erreichte viele intelligente Leute.
05:35
of likingGeschmack the curlylockig friesFritten pageSeite
148
323415
2544
Am Ende ist das "Gefällt mir"
für die Spiralpommes-Seite
05:37
is indicativeindikativ of highhoch intelligenceIntelligenz,
149
325959
1615
ein Zeichen für hohe Intelligenz.
05:39
not because of the contentInhalt,
150
327574
1803
Nicht wegen des Inhalts,
05:41
but because the actualtatsächlich actionAktion of likingGeschmack
151
329377
2522
sondern weil die "Gefällt mir"-Angabe
05:43
reflectsspiegelt back the commonverbreitet attributesAttribute
152
331899
1900
die gemeinsamen Eigenschaften
der Leute widerspiegelt, denen es gefällt.
05:45
of other people who have doneerledigt it.
153
333799
2468
05:48
So this is prettyziemlich complicatedkompliziert stuffSachen, right?
154
336267
2897
Das klingt sehr kompliziert, oder?
05:51
It's a hardhart thing to sitsitzen down and explainerklären
155
339164
2199
Es ist schwer, das einem
einfachen Nutzer zu erklären
05:53
to an averagedurchschnittlich userBenutzer, and even if you do,
156
341363
2848
und selbst wenn man das tut --
05:56
what can the averagedurchschnittlich userBenutzer do about it?
157
344211
2188
was kann der einfache Nutzer
schon dagegen tun?
05:58
How do you know that
you've likedgefallen something
158
346399
2048
Wie können Sie wissen,
dass Sie mit einem "Gefällt mir"
06:00
that indicateszeigt an a traitMerkmal for you
159
348447
1492
einen Charakterzug gezeigt haben,
06:01
that's totallytotal irrelevantirrelevant to the
contentInhalt of what you've likedgefallen?
160
349939
3545
der aber völlig unabhängig
vom Inhalt ist, der Ihnen gefällt?
06:05
There's a lot of powerLeistung that usersBenutzer don't have
161
353484
2546
Die Nutzer haben nicht viel Macht,
06:08
to controlsteuern how this dataDaten is used.
162
356030
2230
die Nutzung ihrer Daten zu steuern.
06:10
And I see that as a realecht
problemProblem going forwardVorwärts-.
163
358260
3112
Ich sehe darin ein großes
Problem für die Zukunft.
Wir sollten uns vielleicht
mehrere Wege anschauen,
06:13
So I think there's a couplePaar pathsWege
164
361372
1977
06:15
that we want to look at
165
363349
1001
06:16
if we want to give usersBenutzer some controlsteuern
166
364350
1910
wenn Nutzer die Verwendung
ihrer Daten beeinflussen wollen.
06:18
over how this dataDaten is used,
167
366260
1740
06:20
because it's not always going to be used
168
368000
1940
Die Daten werden eben nicht immer.
06:21
for theirihr benefitVorteil.
169
369940
1381
zu ihrem Vorteil genutzt.
06:23
An exampleBeispiel I oftenhäufig give is that,
170
371321
1422
Ein Beispiel, das ich oft bringe:
06:24
if I ever get boredgelangweilt beingSein a professorProfessor,
171
372743
1646
Falls ich einmal keine
Professorin mehr sein will,
06:26
I'm going to go startAnfang a companyUnternehmen
172
374389
1653
werde ich eine Firma gründen,
06:28
that predictsprognostiziert all of these attributesAttribute
173
376042
1454
die solche Eigenschaften errechnet,
06:29
and things like how well you work in teamsTeams
174
377496
1602
ebenso Eigenschaften wie Teamfähigkeit,
06:31
and if you're a drugDroge userBenutzer, if you're an alcoholicalkoholisch.
175
379098
2671
Drogenmissbrauch oder Alkoholismus.
06:33
We know how to predictvorhersagen all that.
176
381769
1440
Wir können das errechnen.
06:35
And I'm going to sellverkaufen reportsBerichte
177
383209
1761
Und ich werde Berichte an Personalberater
06:36
to H.R. companiesFirmen and biggroß businessesUnternehmen
178
384970
2100
und große Unternehmen verkaufen,
06:39
that want to hiremieten you.
179
387070
2273
bei denen Sie sich bewerben.
06:41
We totallytotal can do that now.
180
389343
1177
Das können wir alles schon.
06:42
I could startAnfang that businessGeschäft tomorrowMorgen,
181
390520
1788
Ich könnte diese Firma morgen gründen
06:44
and you would have
absolutelyunbedingt no controlsteuern
182
392308
2052
und Sie hätten absolut
keine Kontrolle darüber,
06:46
over me usingmit your dataDaten like that.
183
394360
2138
dass ich Ihre Daten zu diesem Zweck nutze.
06:48
That seemsscheint to me to be a problemProblem.
184
396498
2292
Für mich ist das ein Problem.
06:50
So one of the pathsWege we can go down
185
398790
1910
Eine mögliche Lösung
06:52
is the policyPolitik and lawRecht pathPfad.
186
400700
2032
wären interne Richtlinien
und gesetzliche Regelungen.
06:54
And in some respectsrespektiert, I think
that that would be mostdie meisten effectiveWirksam,
187
402732
3046
In mancher Hinsicht wäre das sehr wirksam,
06:57
but the problemProblem is we'dheiraten
actuallytatsächlich have to do it.
188
405778
2756
aber wir müssten es auch wirklich tun.
07:00
ObservingBeobachten our politicalpolitisch processverarbeiten in actionAktion
189
408534
2780
Wenn ich mir die politischen
Handlungen anschaue,
07:03
makesmacht me think it's highlyhöchst unlikelyunwahrscheinlich
190
411314
2379
finde ich es höchst unwahrscheinlich,
07:05
that we're going to get a bunchBündel of representativesVertreter
191
413693
1597
dass wir ein paar
Volksvertreter dazu bewegen,
07:07
to sitsitzen down, learnlernen about this,
192
415290
1986
sich eingehend damit zu befassen
07:09
and then enacterlassen sweepingfegen changesÄnderungen
193
417276
2106
und dann grundlegende Veränderungen
07:11
to intellectualgeistig propertyEigentum lawRecht in the U.S.
194
419382
2157
im US-Gesetz zum geistigen
Eigentum zu beschließen,
07:13
so usersBenutzer controlsteuern theirihr dataDaten.
195
421539
2461
damit die Nutzer ihre Daten steuern.
07:16
We could go the policyPolitik routeRoute,
196
424000
1304
Aufgrund interner Richtlinien
07:17
where socialSozial mediaMedien companiesFirmen say,
197
425304
1479
könnten soziale Medien sagen:
07:18
you know what? You ownbesitzen your dataDaten.
198
426783
1402
"Ihre Daten gehören Ihnen.
Sie allein bestimmen deren Nutzung."
07:20
You have totalgesamt controlsteuern over how it's used.
199
428185
2489
07:22
The problemProblem is that the revenueEinnahmen modelsModelle
200
430674
1848
Das Problem ist, dass das Geschäftsmodell
07:24
for mostdie meisten socialSozial mediaMedien companiesFirmen
201
432522
1724
vieler sozialer Medien
in irgendeiner Weise
07:26
relyverlassen on sharingTeilen or exploitingNutzung
users'Benutzer dataDaten in some way.
202
434246
4031
auf der Weitergabe und der Verwertung
der Nutzerdaten basiert.
07:30
It's sometimesmanchmal said of FacebookFacebook that the usersBenutzer
203
438277
1833
Bei Facebook ist manchmal die Rede davon,
07:32
aren'tsind nicht the customerKunde, they're the productProdukt.
204
440110
2528
dass der Nutzer nicht der Kunde ist,
sondern das Produkt.
07:34
And so how do you get a companyUnternehmen
205
442638
2714
Wie bekommt man dann also eine Firma dazu,
07:37
to cedeabtreten controlsteuern of theirihr mainMain assetAktiva
206
445352
2558
die Kontrolle über ihre
Haupteinnahmequelle
07:39
back to the usersBenutzer?
207
447910
1249
wieder an die Nutzer zu geben?
07:41
It's possiblemöglich, but I don't think it's something
208
449159
1701
Das geht, aber ich denke nicht,
07:42
that we're going to see changeVeränderung quicklyschnell.
209
450860
2320
dass der Wandel schnell kommen wird.
07:45
So I think the other pathPfad
210
453180
1500
Ich denke also, dass die andere
07:46
that we can go down that's
going to be more effectiveWirksam
211
454680
2288
mögliche Lösung wirksamer ist.
07:48
is one of more scienceWissenschaft.
212
456968
1508
Es geht um mehr Forschung.
07:50
It's doing scienceWissenschaft that alloweddürfen us to developentwickeln
213
458476
2510
Es geht um die Forschung,
die es uns erst ermöglicht hat,
07:52
all these mechanismsMechanismen for computingComputer
214
460986
1750
diese Mechanismen zum Verwerten
persönlicher Daten zu entwickeln.
07:54
this personalpersönlich dataDaten in the first placeOrt.
215
462736
2052
07:56
And it's actuallytatsächlich very similarähnlich researchForschung
216
464788
2106
Wir müssten eine sehr
ähnliche Forschung betreiben,
07:58
that we'dheiraten have to do
217
466894
1438
08:00
if we want to developentwickeln mechanismsMechanismen
218
468332
2386
wenn wir Mechanismen entwickeln wollen,
08:02
that can say to a userBenutzer,
219
470718
1421
die dem Nutzer das Risiko,
das er eingegangen ist, zeigen können.
08:04
"Here'sHier ist the riskRisiko of that actionAktion you just tookdauerte."
220
472139
2229
08:06
By likingGeschmack that FacebookFacebook pageSeite,
221
474368
2080
Durch Ihre "Gefällt mir"-Angabe
auf Facebook
08:08
or by sharingTeilen this pieceStück of personalpersönlich informationInformation,
222
476448
2535
oder die Weitergabe
persönlicher Informationen
08:10
you've now improvedverbessert my abilityFähigkeit
223
478983
1502
geben Sie mir die Möglichkeit
zu ermitteln,
08:12
to predictvorhersagen whetherob or not you're usingmit drugsDrogen
224
480485
2086
ob Sie Drogen nehmen
08:14
or whetherob or not you get
alongeine lange well in the workplaceArbeitsplatz.
225
482571
2862
oder sich an Ihrem
Arbeitsplatz wohlfühlen.
Ich denke, das hat Auswirkungen darauf,
08:17
And that, I think, can affectbeeinflussen whetherob or not
226
485433
1848
ob Leute etwas teilen wollen,
08:19
people want to shareAktie something,
227
487281
1510
08:20
keep it privatePrivatgelände, or just keep it offlineoffline altogetherinsgesamt.
228
488791
3239
es für sich behalten
oder gar nicht online stellen wollen.
08:24
We can alsoebenfalls look at things like
229
492030
1563
Wir können uns auch anschauen,
08:25
allowingZulassen people to encryptverschlüsseln dataDaten that they uploadhochladen,
230
493593
2728
ob Nutzer vielleicht Daten,
die sie hochladen, verschlüsseln,
08:28
so it's kindArt of invisibleunsichtbar and worthlesswertlos
231
496321
1855
sodass sie unsichtbar oder wertlos
08:30
to sitesStandorte like FacebookFacebook
232
498176
1431
für Seiten wie Facebook oder Dritte sind,
08:31
or thirddritte partyParty servicesDienstleistungen that accessZugriff it,
233
499607
2629
die sich Zugang verschaffen wollen.
Auf der anderen Seite
sollen aber andere Nutzer,
08:34
but that selectwählen usersBenutzer who the personPerson who postedGesendet it
234
502236
3247
die die Informationen
sehen sollen, sie auch sehen.
08:37
want to see it have accessZugriff to see it.
235
505483
2670
08:40
This is all superSuper excitingaufregend researchForschung
236
508153
2166
Das alles ist sehr spannende Forschung
08:42
from an intellectualgeistig perspectivePerspektive,
237
510319
1620
aus einer intellektuellen Perspektive
08:43
and so scientistsWissenschaftler are going to be willingbereit to do it.
238
511939
1859
und deshalb sind Forscher
bereit, das zu tun.
08:45
So that givesgibt us an advantageVorteil over the lawRecht sideSeite.
239
513798
3610
Das verschafft uns einen Vorteil
gegenüber der politischen Lösung.
08:49
One of the problemsProbleme that people bringbringen up
240
517408
1725
Wenn ich über dieses Thema rede,
08:51
when I talk about this is, they say,
241
519133
1595
äußern viele Leute die Kritik:
08:52
you know, if people startAnfang
keepinghalten all this dataDaten privatePrivatgelände,
242
520728
2646
"Wenn Leute anfangen,
all ihre Daten geheimzuhalten,
08:55
all those methodsMethoden that you've been developingEntwicklung
243
523374
2113
dann werden die von
Forschern entwickelten Methoden
08:57
to predictvorhersagen theirihr traitsZüge are going to failScheitern.
244
525487
2653
zur Berechnung von
Charakterzügen fehlschlagen."
09:00
And I say, absolutelyunbedingt, and for me, that's successErfolg,
245
528140
3520
Ich für meinen Teil finde,
dass das ein Erfolg ist,
09:03
because as a scientistWissenschaftler,
246
531660
1786
weil ich als Forscherin
09:05
my goalTor is not to inferSchließen informationInformation about usersBenutzer,
247
533446
3688
keine Informationen
über Nutzer sammeln will,
09:09
it's to improveverbessern the way people interactinteragieren onlineonline.
248
537134
2767
sondern den Umgang
im Internet verbessern will.
09:11
And sometimesmanchmal that involvesbeinhaltet
inferringherleiten von things about them,
249
539901
3218
Manchmal braucht es dazu
auch Datensammlungen,
09:15
but if usersBenutzer don't want me to use that dataDaten,
250
543119
3022
aber wenn Nutzer mir ihre
Daten nicht geben wollen,
09:18
I think they should have the right to do that.
251
546141
2038
dann sollten sie das Recht dazu haben.
09:20
I want usersBenutzer to be informedinformiert and consentingeinverstanden
252
548179
2651
Ich will, dass die Nutzer informiert und
einverstanden mit den
Tools sind, die wir nutzen.
09:22
usersBenutzer of the toolsWerkzeuge that we developentwickeln.
253
550830
2112
09:24
And so I think encouragingermutigend this kindArt of scienceWissenschaft
254
552942
2952
Ich finde also, dass diese Art von
Wissenschaft gefördert werden sollte.
09:27
and supportingUnterstützung researchersForscher
255
555894
1346
Forscher sollten unterstützt werden,
09:29
who want to cedeabtreten some of that controlsteuern back to usersBenutzer
256
557240
3023
wenn sie den Nutzern
der sozialen Netzwerke
09:32
and away from the socialSozial mediaMedien companiesFirmen
257
560263
2311
wieder etwas Kontrolle zurückgeben wollen.
09:34
meansmeint that going forwardVorwärts-, as these toolsWerkzeuge evolveentwickeln
258
562574
2671
Das heißt, dass wir in Zukunft,
09:37
and advanceVoraus,
259
565245
1476
wenn sich diese Tools
entwickeln und verbessern,
09:38
meansmeint that we're going to have an educatedgebildet
260
566721
1414
aufgeklärte und gestärkte Nutzer haben.
09:40
and empoweredermächtigt userBenutzer baseBase,
261
568135
1694
09:41
and I think all of us can agreezustimmen
262
569829
1100
Ich denke, wir sind uns einig,
09:42
that that's a prettyziemlich idealIdeal way to go forwardVorwärts-.
263
570929
2564
dass das ein ziemlich
idealer Weg in die Zukunft wäre.
09:45
Thank you.
264
573493
2184
Danke.
(Applaus)
09:47
(ApplauseApplaus)
265
575677
3080

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com