ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: A kunkori sült krumpli rejtélye: Miért mond egy lájk többet, mint gondolnánk?

Filmed:
2,366,837 views

Kedveli Ön a kunkori sült krumplit? Lájkolta már a Facebookon? Nézze meg ezt az előadást, és meglepő dolgokat tudhat meg arról, hogy a Facebook (és a többiek) mit deríthetnek ki Önről a lájkok és a megosztások elemzésével. A számítástudománnyal foglalkozó Jennifer Golbeck megmutatja, hogy hogyan alakult ez így, hogy a technológia néhány alkalmazási módja nem is annyira megnyerő, és miért gondolja úgy, hogy az adatok fölötti rendelkezést vissza kellene adnunk azok jogos tulajdonosainak.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

Ha még emlékeznek, az első évtizedében
00:12
If you rememberemlékezik that first decadeévtized of the webháló,
0
738
1997
00:14
it was really a staticstatikus placehely.
1
2735
2255
a világháló egy statikus hely volt.
00:16
You could go onlineonline, you could look at pagesoldalak,
2
4990
2245
Olyan honlapokat kereshettünk fel,
00:19
and they were put up eitherbármelyik by organizationsszervezetek
3
7235
2513
amiket vagy különböző szervezetek
00:21
who had teamscsapat to do it
4
9748
1521
szakembergárdái kezeltek,
00:23
or by individualsegyének who were really tech-savvytech-hozzáértés
5
11269
2229
vagy olyan személyek, akik addigra már
00:25
for the time.
6
13498
1737
rendelkeztek informatikai jártassággal.
00:27
And with the riseemelkedik of socialtársadalmi mediamédia
7
15235
1575
Aztán a közösségi oldalak
és hálózatok megjelenésével
00:28
and socialtársadalmi networkshálózatok in the earlykorai 2000s,
8
16810
2399
a 2000-es évek elején
00:31
the webháló was completelyteljesen changedmegváltozott
9
19209
2149
a világháló teljesen megváltozott.
00:33
to a placehely where now the vasthatalmas majoritytöbbség of contenttartalom
10
21358
3608
Olyan hellyé vált, ahol
a látott tartalmak többségét
00:36
we interactegymásra hat with is put up by averageátlagos usersfelhasználók,
11
24966
3312
átlagos felhasználók teszik fel,
00:40
eitherbármelyik in YouTubeYouTube-on videosvideók or blogblog postshozzászólás
12
28278
2697
YouTube-videók,
vagy blogbejegyzések formájában,
00:42
or producttermék reviews-értékelések or socialtársadalmi mediamédia postingsHozzászólások.
13
30975
3315
termékismertetőként
vagy közösségi oldalak posztjaiként.
00:46
And it's alsois becomeválik a much more interactiveinteraktív placehely,
14
34290
2347
A világháló közben
sokkal interaktívabb is lett.
00:48
where people are interactingkölcsönható with othersmások,
15
36637
2637
Az emberek információt
cserélnek másokkal,
00:51
they're commentingkommentálva, they're sharingmegosztás,
16
39274
1696
hozzászólnak, megosztanak,
00:52
they're not just readingolvasás.
17
40970
1614
nem csak olvasnak.
00:54
So FacebookFacebook is not the only placehely you can do this,
18
42584
1866
Mindezt nem csak a Facebookon tehetik,
00:56
but it's the biggestlegnagyobb,
19
44450
1098
de az a legnagyobb oldal.
00:57
and it servesszolgálja to illustrateszemléltet the numbersszám.
20
45548
1784
Az adatok szerint
00:59
FacebookFacebook has 1.2 billionmilliárd, ezermillió usersfelhasználók perper monthhónap.
21
47332
3477
a Facebooknak havonta
1,2 milliárd felhasználója van.
01:02
So halffél the Earth'sFöld InternetInternet populationnépesség
22
50809
1930
A Föld internethasználóinak a fele
01:04
is usinghasználva FacebookFacebook.
23
52739
1653
használja a Facebookot.
01:06
They are a sitewebhely, alongmentén with othersmások,
24
54392
1932
Egy olyan oldalt, pár másikkal együtt,
01:08
that has allowedengedélyezett people to createteremt an onlineonline personaszemély
25
56324
3219
amely különösebb
technikai hozzáértés nélkül
teszi lehetővé egy
online személyiség létrehozását.
01:11
with very little technicalműszaki skilljártasság,
26
59543
1782
01:13
and people respondedválaszolt by puttingelhelyezés hugehatalmas amountsösszegek
27
61325
2476
Így az emberek óriási mennyiségű
01:15
of personalszemélyes dataadat onlineonline.
28
63801
1983
személyes adatot töltenek rá fel online.
01:17
So the resulteredmény is that we have behavioralviselkedési,
29
65784
2543
Végeredményben tehát
emberek százmillióinak
a viselkedéséről, preferenciáiról,
demográfiai jellemzőiről
01:20
preferencepreferencia, demographicdemográfiai dataadat
30
68327
1986
01:22
for hundredsszáz of millionsTöbb millió of people,
31
70313
2101
rendelkezünk adatokkal,
ami példátlan a történelemben.
01:24
whichmelyik is unprecedentedpéldátlan in historytörténelem.
32
72414
2026
01:26
And as a computerszámítógép scientisttudós,
what this meanseszközök is that
33
74440
2560
Így ma számítástechnikával
foglalkozó kutatóként
01:29
I've been ableképes to buildépít modelsmodellek
34
77000
1664
olyan modelleket alkothatok,
melyek fel tudják fedni
mindannyiuk rejtett tulajdonságait
01:30
that can predictmegjósolni all sortsfajta of hiddenrejtett attributesattribútumok
35
78664
2322
01:32
for all of you that you don't even know
36
80986
2284
anélkül, hogy Önök tudnák,
01:35
you're sharingmegosztás informationinformáció about.
37
83270
2202
hogy valaha is
információt osztottak meg róluk.
01:37
As scientiststudósok, we use that to help
38
85472
2382
Kutatóként ezek felhasználásával
01:39
the way people interactegymásra hat onlineonline,
39
87854
2114
segíthetjük az emberek
online információcseréjét.
01:41
but there's lessKevésbé altruisticönzetlen applicationsalkalmazások,
40
89968
2499
Ám léteznek kevésbé önzetlen
alkalmazási módok is.
01:44
and there's a problemprobléma in that usersfelhasználók don't really
41
92467
2381
Probléma, hogy a felhasználók
nem igazán értik
01:46
understandmegért these techniquestechnikák and how they work,
42
94848
2470
ezeket az eljárásokat, a működésüket,
01:49
and even if they did, they don't
have a lot of controlellenőrzés over it.
43
97318
3128
vagy ha mégis, akkor se nagyon
szólhatnak bele.
01:52
So what I want to talk to you about todayMa
44
100446
1490
Ezért ma arról fogok beszélni,
01:53
is some of these things that we're ableképes to do,
45
101936
2702
hogy mi az a néhány dolog,
amit megtehetünk.
01:56
and then give us some ideasötletek
of how we mightesetleg go forwardelőre
46
104638
2763
Utána adok néhány
előremutató ötletet arra,
01:59
to movemozog some controlellenőrzés back into the handskezek of usersfelhasználók.
47
107401
2769
hogy miként adhatunk vissza
több irányítási jogot a felhasználónak.
02:02
So this is TargetCél, the companyvállalat.
48
110170
1586
Tehát van ez a cég, a Target.
02:03
I didn't just put that logologo
49
111756
1324
Nem véletlenül tettem a logót
02:05
on this poorszegény, pregnantterhes woman's bellyhas.
50
113080
2170
szegény kismama hasára.
02:07
You maylehet have seenlátott this anecdoteanekdota that was printednyomtatott
51
115250
1840
Talán már hallották a történetet,
02:09
in ForbesForbes magazinemagazin where TargetCél
52
117090
2061
ami a Forbes magazinban jelent meg.
02:11
sentküldött a flyerszórólap-tájékoztató to this 15-year-old-éves girllány
53
119151
2361
A Target szórólapot küldött
ennek a 15 éves lánynak
02:13
with advertisementsreklámok and couponskuponok
54
121512
1710
cumisüvegek, pelenkák és kiságyak
02:15
for babybaba bottlespalackok and diaperspelenkák and cribskiságy
55
123222
2554
reklámjaival és kuponjaival.
02:17
two weekshetes before she told her parentsszülők
56
125776
1684
Két héttel azelőtt, hogy szüleinek
beszélt volna terhességéről.
02:19
that she was pregnantterhes.
57
127460
1864
02:21
Yeah, the dadapu was really upsetszomorú.
58
129324
2704
Persze az apja eléggé ideges lett.
02:24
He said, "How did TargetCél figureábra out
59
132028
1716
Kíváncsi volt, a Target miből jöhetett rá
02:25
that this highmagas schooliskola girllány was pregnantterhes
60
133744
1824
középiskolás lányának a terhességére,
02:27
before she told her parentsszülők?"
61
135568
1960
mielőtt az saját szüleinek
elmondta volna.
02:29
It turnsmenetek out that they have the purchaseVásárlás historytörténelem
62
137528
2621
Kiderült, hogy fogyasztók százezreinek
02:32
for hundredsszáz of thousandsTöbb ezer of customersügyfelek
63
140149
2301
a vásárlási előzményei
állnak a rendelkezésükre,
02:34
and they computekiszámít what they
call a pregnancyterhesség scorepontszám,
64
142450
2730
és ebből számolnak
egy úgynevezett terhességi pontszámot.
02:37
whichmelyik is not just whetherakár or
not a woman's pregnantterhes,
65
145180
2332
Ez nem csak a terhességet mondja meg,
02:39
but what her dueesedékes datedátum is.
66
147512
1730
hanem azt is, mikorra várható a baba.
02:41
And they computekiszámít that
67
149242
1304
És mindezt nem az olyan
02:42
not by looking at the obviousnyilvánvaló things,
68
150546
1768
nyilvánvaló dolgokból számolják,
02:44
like, she's buyingvásárlás a cribgyerekágy or babybaba clothesruhák,
69
152314
2512
mint mondjuk a kiságyak
vagy a babaruhák megtekintése,
02:46
but things like, she boughtvásárolt more vitaminsvitaminok
70
154826
2943
hanem abból, hogy egy nő például
több vitamint vásárol, mint általában
02:49
than she normallynormális esetben had,
71
157769
1717
02:51
or she boughtvásárolt a handbagkézitáska
72
159486
1464
vagy olyan kézitáskát vesz,
02:52
that's bignagy enoughelég to holdtart diaperspelenkák.
73
160950
1711
ami elég nagy pelenkák szállítására.
02:54
And by themselvesmaguk, those purchasesvásárlások don't seemlátszik
74
162661
1910
Ezek a vásárlások önmagukban
nem tűnnek sokatmondónak,
02:56
like they mightesetleg revealfelfed a lot,
75
164571
2469
de ez olyan viselkedésminta,
02:59
but it's a patternminta of behaviorviselkedés that,
76
167040
1978
03:01
when you take it in the contextkontextus
of thousandsTöbb ezer of other people,
77
169018
3117
mely több ezer másik emberével együtt
03:04
startskezdődik to actuallytulajdonképpen revealfelfed some insightsbetekintést.
78
172135
2757
már valóban árulkodhat bizonyos dolgokról.
03:06
So that's the kindkedves of thing that we do
79
174892
1793
Ezt tesszük tehát olyankor,
03:08
when we're predictingelőrejelzésére stuffdolog
about you on socialtársadalmi mediamédia.
80
176685
2567
amikor közösségi oldalakon
meghatározunk Önökről dolgokat.
03:11
We're looking for little
patternsminták of behaviorviselkedés that,
81
179252
2796
Megkeressük az apró viselkedésmintákat,
03:14
when you detectfelismerni them amongközött millionsTöbb millió of people,
82
182048
2682
melyekből, emberek millióinak
adatai alapján,
03:16
letslehetővé teszi, us find out all kindsféle of things.
83
184730
2706
mindenféle dolgok derülhetnek ki.
03:19
So in my lablabor and with colleagueskollégák,
84
187436
1747
A laborunkban a kollégáimmal együtt
03:21
we'vevoltunk developedfejlett mechanismsmechanizmusok where we can
85
189183
1777
kifejlesztettünk néhány módszert,
03:22
quiteegészen accuratelypontosan predictmegjósolni things
86
190960
1560
melyekkel elég pontosan kiszámítható
03:24
like your politicalpolitikai preferencepreferencia,
87
192520
1725
például a politikai preferencia,
03:26
your personalityszemélyiség scorepontszám, gendernem, sexualszexuális orientationtájékozódás,
88
194245
3752
a személyiségteszt eredménye, a nem,
a szexuális irányultság,
03:29
religionvallás, agekor, intelligenceintelligencia,
89
197997
2873
a vallás, az életkor, az intelligencia.
03:32
alongmentén with things like
90
200870
1394
Emellett az is,
03:34
how much you trustbizalom the people you know
91
202264
1937
hogy mennyire bízunk az ismerőseinkben,
03:36
and how strongerős those relationshipskapcsolatok are.
92
204201
1804
és milyen erősek ezek a kapcsolataink.
03:38
We can do all of this really well.
93
206005
1785
Mindezek egész jól kimutathatóak.
03:39
And again, it doesn't come from what you mightesetleg
94
207790
2197
És ismétlem, ez nem az Önök által
03:41
think of as obviousnyilvánvaló informationinformáció.
95
209987
2102
nyilvánvalónak gondolt
adatoknak köszönhető.
03:44
So my favoritekedvenc examplepélda is from this studytanulmány
96
212089
2281
A kedvenc példám
egy tanulmányból származik,
03:46
that was publishedközzétett this yearév
97
214370
1240
ami idén jelent meg
a "Proceedings of the National Academies"-ben.
03:47
in the ProceedingsEljárás of the NationalNemzeti AcademiesAkadémiák.
98
215610
1795
03:49
If you GoogleGoogle this, you'llazt is megtudhatod find it.
99
217405
1285
A Google-lal megtalálhatják.
03:50
It's fournégy pagesoldalak, easykönnyen to readolvas.
100
218690
1872
Négy oldal, könnyen olvasható.
03:52
And they lookednézett at just people'semberek FacebookFacebook likeskedvel,
101
220562
3003
Ebben csak az emberek
Facebookon adott lájkjait vizsgálták,
csak, ami a Facebook-on tetszik Önöknek.
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
03:57
and used that to predictmegjósolni all these attributesattribútumok,
103
225485
2138
Majd ezeket használták
az említett jellemzők,
03:59
alongmentén with some other onesazok.
104
227623
1645
és néhány másik kiszámításához.
04:01
And in theirazok paperpapír they listedlistázott the fiveöt likeskedvel
105
229268
2961
A tanulmányban
felsoroltak öt olyan oldalt,
04:04
that were mosta legtöbb indicativeindikatív of highmagas intelligenceintelligencia.
106
232229
2787
melyek lájkolása a leginkább összefüggött
az intelligencia magas szintjével.
04:07
And amongközött those was likingszeretet a pageoldal
107
235016
2324
Ezek közül az egyik
a kunkori sült krumpli
rajongói oldala volt. (Nevetés)
04:09
for curlygöndör friessültkrumpli. (LaughterNevetés)
108
237340
1905
04:11
CurlyGöndör friessültkrumpli are deliciousfinom,
109
239245
2093
A kunkori sült krumpli finom,
04:13
but likingszeretet them does not necessarilyszükségszerűen mean
110
241338
2530
de az érte való rajongás
még nem feltétlenül jelenti,
04:15
that you're smarterintelligensebb than the averageátlagos personszemély.
111
243868
2080
hogy okosabbak is vagyunk az átlagnál.
04:17
So how is it that one of the strongestlegerősebb indicatorsmutatók
112
245948
3207
Hogy is lehet az intelligenciánk
04:21
of your intelligenceintelligencia
113
249155
1570
egyik legerősebb indikátora
04:22
is likingszeretet this pageoldal
114
250725
1447
ennek az oldalnak a lájkolása,
04:24
when the contenttartalom is totallyteljesen irrelevantirreleváns
115
252172
2252
mikor a tartalomnak semmi köze
04:26
to the attributetulajdonság that's beinglény predictedjósolt?
116
254424
2527
a kideríteni kívánt tulajdonsághoz?
04:28
And it turnsmenetek out that we have to look at
117
256951
1584
Aztán rájöttünk, hogy egy csomó
04:30
a wholeegész bunchcsokor of underlyingalapjául szolgáló theorieselméletek
118
258535
1618
idevonatkozó elméletet
kell számba vennünk,
04:32
to see why we're ableképes to do this.
119
260153
2569
ha meg szeretnénk érteni ennek okait.
04:34
One of them is a sociologicalszociológiai
theoryelmélet calledhívott homophilyhomophily,
120
262722
2913
Az egyik a homofília
szociológiai elmélete,
04:37
whichmelyik basicallyalapvetően saysmondja people are
friendsbarátok with people like them.
121
265635
3092
mely szerint főként
a hozzánk hasonlóakkal barátkozunk.
04:40
So if you're smartOkos, you tendhajlamosak to
be friendsbarátok with smartOkos people,
122
268727
2014
Ha okos vagy,
inkább az okosokkal barátkozol,
04:42
and if you're youngfiatal, you tendhajlamosak
to be friendsbarátok with youngfiatal people,
123
270741
2630
ha fiatal vagy,
inkább a fiatalokkal barátkozol.
04:45
and this is well establishedalapított
124
273371
1627
Ez már évszázadok óta
04:46
for hundredsszáz of yearsévek.
125
274998
1745
ismert jelenség.
04:48
We alsois know a lot
126
276743
1232
Arról is sokat tudunk,
hogy az információ
miként terjed a hálózatokon keresztül.
04:49
about how informationinformáció spreadskenhető throughkeresztül networkshálózatok.
127
277975
2550
04:52
It turnsmenetek out things like viralvírusos videosvideók
128
280525
1754
Kiderült, hogy a vírusvideók,
04:54
or FacebookFacebook likeskedvel or other informationinformáció
129
282279
2406
a lájkok a Facebookon
vagy más információk
04:56
spreadskenhető in exactlypontosan the sameazonos way
130
284685
1888
pont úgy terjednek,
04:58
that diseasesbetegségek spreadterjedését throughkeresztül socialtársadalmi networkshálózatok.
131
286573
2454
mint a betegségek
a társadalmi hálózatokban.
05:01
So this is something we'vevoltunk studiedtanult for a long time.
132
289027
1791
Szóval már hosszú ideje
foglalkozunk ezzel.
05:02
We have good modelsmodellek of it.
133
290818
1576
Jó modelljeink vannak.
05:04
And so you can put those things togetheregyütt
134
292394
2157
Így összerakhatjuk a dolgokat,
05:06
and startRajt seeinglátás why things like this happentörténik.
135
294551
3088
és elkezdhetjük megfigyelni,
hogy miért történnek ezek a dolgok.
05:09
So if I were to give you a hypothesishipotézis,
136
297639
1814
Feltevésem szerint lehetséges,
05:11
it would be that a smartOkos guy startedindult this pageoldal,
137
299453
3227
hogy egy intelligens fickó
indította az oldalt,
05:14
or maybe one of the first people who likedtetszett it
138
302680
1939
vagy hogy valamelyik legelső lájkolónak
volt magas az IQ-ja.
05:16
would have scoredgól highmagas on that testteszt.
139
304619
1736
05:18
And they likedtetszett it, and theirazok friendsbarátok saw it,
140
306355
2288
És ők lájkolták,
ezt látták az ismerőseik,
05:20
and by homophilyhomophily, we know that
he probablyvalószínűleg had smartOkos friendsbarátok,
141
308643
3122
akik a homofília elve szerint
bizonyára szintén okosak voltak,
05:23
and so it spreadterjedését to them,
and some of them likedtetszett it,
142
311765
3056
így az eljutott hozzájuk,
majd közülük szintén lájkolták páran,
05:26
and they had smartOkos friendsbarátok,
143
314821
1189
szintén okos ismerősökkel,
05:28
and so it spreadterjedését to them,
144
316010
807
így továbbjutott.
05:28
and so it propagatedpropagált throughkeresztül the networkhálózat
145
316817
1973
Aztán szétterjedt a hálón
05:30
to a hostházigazda of smartOkos people,
146
318790
2569
egy sor okos ember közvetítésével.
05:33
so that by the endvég, the actionakció
147
321359
2056
Míg végül
a kunkori sült krumpli
rajongói oldalának a kedvelése
05:35
of likingszeretet the curlygöndör friessültkrumpli pageoldal
148
323415
2544
05:37
is indicativeindikatív of highmagas intelligenceintelligencia,
149
325959
1615
a magas intelligenciaszint jele lett.
05:39
not because of the contenttartalom,
150
327574
1803
Nem a tartalom miatt,
hanem mert a lájkolásból
05:41
but because the actualtényleges actionakció of likingszeretet
151
329377
2522
05:43
reflectstükrözi back the commonközös attributesattribútumok
152
331899
1900
a többi lájkolóval közös
05:45
of other people who have doneKész it.
153
333799
2468
tulajdonságok létezését mutatja.
05:48
So this is prettyszép complicatedbonyolult stuffdolog, right?
154
336267
2897
Ugye milyen bonyolultan hangzik?
05:51
It's a hardkemény thing to sitül down and explainmegmagyarázni
155
339164
2199
Nehéz csak úgy leülni, és elmagyarázni
05:53
to an averageátlagos userhasználó, and even if you do,
156
341363
2848
egy átlagos felhasználónak.
De, ha sikerül is, mit kezdhet ezzel
egy átlagos felhasználó?
05:56
what can the averageátlagos userhasználó do about it?
157
344211
2188
05:58
How do you know that
you've likedtetszett something
158
346399
2048
Miből tudható, hogy olyat lájkoltunk,
06:00
that indicatesazt jelzi a traittulajdonság for you
159
348447
1492
ami egy olyan tulajdonságunkról árulkodik,
06:01
that's totallyteljesen irrelevantirreleváns to the
contenttartalom of what you've likedtetszett?
160
349939
3545
melynek semmi köze a lájkolt tartalomhoz?
06:05
There's a lot of powererő that usersfelhasználók don't have
161
353484
2546
Sok lehetőség van az adatok
felhasználásának ellenőrzésére,
06:08
to controlellenőrzés how this dataadat is used.
162
356030
2230
amivel a felhasználók nem rendelkeznek.
06:10
And I see that as a realigazi
problemprobléma going forwardelőre.
163
358260
3112
A jövőre vonatkozóan
ezt komoly problémának látom.
06:13
So I think there's a couplepárosít pathsutak
164
361372
1977
Úgy vélem, van egy pár irány,
06:15
that we want to look at
165
363349
1001
ami felé indulhatunk,
06:16
if we want to give usersfelhasználók some controlellenőrzés
166
364350
1910
ha a felhasználóknak
ellenőrzést akarunk biztosítani,
06:18
over how this dataadat is used,
167
366260
1740
hogyan használják fel ezeket az adatokat.
06:20
because it's not always going to be used
168
368000
1940
Mert ezeket nem mindig
06:21
for theirazok benefithaszon.
169
369940
1381
az ő érdekükben használják.
06:23
An examplepélda I oftengyakran give is that,
170
371321
1422
Gyakran hozom fel példaként,
06:24
if I ever get boredunott beinglény a professorEgyetemi tanár,
171
372743
1646
hogy ha majd megunom a tanítást,
06:26
I'm going to go startRajt a companyvállalat
172
374389
1653
indítani fogok egy céget,
amely meghatározza a tulajdonságokat:
06:28
that predictsazt jósolja all of these attributesattribútumok
173
376042
1454
06:29
and things like how well you work in teamscsapat
174
377496
1602
milyen hatékonyak csapatban,
06:31
and if you're a drugdrog userhasználó, if you're an alcoholicalkohol függő.
175
379098
2671
fogyasztanak-e kábítószert,
alkoholisták-e.
06:33
We know how to predictmegjósolni all that.
176
381769
1440
Ismerjük a módját.
06:35
And I'm going to sellelad reportsjelentések
177
383209
1761
Az elemzéseket olyan HR cégeknek
06:36
to H.R. companiesvállalatok and bignagy businessesvállalkozások
178
384970
2100
és nagyvállalatoknak fogom eladni,
06:39
that want to hirebérel you.
179
387070
2273
melyek Önöket szeretnék alkalmazni.
06:41
We totallyteljesen can do that now.
180
389343
1177
Akár ma is megtehetnénk.
06:42
I could startRajt that businessüzleti tomorrowholnap,
181
390520
1788
Akár holnap indíthatnám a boltot,
06:44
and you would have
absolutelyteljesen no controlellenőrzés
182
392308
2052
és Önöknek semmi beleszólása nem lenne,
06:46
over me usinghasználva your dataadat like that.
183
394360
2138
hogyan használnám az adataikat.
06:48
That seemsÚgy tűnik, to me to be a problemprobléma.
184
396498
2292
Ezt problémának érzem.
06:50
So one of the pathsutak we can go down
185
398790
1910
Az egyik lehetséges irány
06:52
is the policyirányelv and lawtörvény pathpálya.
186
400700
2032
a politika és a jog útja.
06:54
And in some respectstekintetben, I think
that that would be mosta legtöbb effectivehatékony,
187
402732
3046
Szerintem sok szempontból
ez lenne a leghatékonyabb,
06:57
but the problemprobléma is we'dHázasodik
actuallytulajdonképpen have to do it.
188
405778
2756
ám a gond, hogy ezt
tényleg végre kell hajtani.
07:00
ObservingMegfigyelése our politicalpolitikai processfolyamat in actionakció
189
408534
2780
A politikai folyamatok
alakulását figyelve
07:03
makesgyártmányú me think it's highlymagasan unlikelyvalószínűtlen
190
411314
2379
azt hiszem, nagyon valószínűtlen,
07:05
that we're going to get a bunchcsokor of representativesképviselői
191
413693
1597
hogy jó pár képviselőt rávegyünk,
07:07
to sitül down, learntanul about this,
192
415290
1986
üljenek le, tájékozódjanak minderről,
07:09
and then enactmeghozza sweepingsodró changesváltoztatások
193
417276
2106
majd gyökeresen változtassanak az USA
07:11
to intellectualszellemi propertyingatlan lawtörvény in the U.S.
194
419382
2157
szellemi tulajdonra vonatkozó
szabályozásán,
07:13
so usersfelhasználók controlellenőrzés theirazok dataadat.
195
421539
2461
hogy a felhasználók
rendelkezzenek az adataikkal.
07:16
We could go the policyirányelv routeútvonal,
196
424000
1304
Követhetjük a politikai utat, és
07:17
where socialtársadalmi mediamédia companiesvállalatok say,
197
425304
1479
a közösségi média cégek azt mondják:
"Rendben, Ön rendelkezik az adataival.
07:18
you know what? You ownsaját your dataadat.
198
426783
1402
07:20
You have totalteljes controlellenőrzés over how it's used.
199
428185
2489
Teljes beleszólása van
a felhasználásukba."
07:22
The problemprobléma is that the revenuejövedelem modelsmodellek
200
430674
1848
A probléma, hogy a legtöbb szolgáltató
07:24
for mosta legtöbb socialtársadalmi mediamédia companiesvállalatok
201
432522
1724
üzleti modellje valamilyen módon
07:26
relytámaszkodni on sharingmegosztás or exploitingkiaknázása
users'felhasználók dataadat in some way.
202
434246
4031
a felhasználók adatainak a megosztásán
vagy felhasználásán alapul.
07:30
It's sometimesnéha said of FacebookFacebook that the usersfelhasználók
203
438277
1833
Néha mondják a Facebookról,
07:32
aren'tnem the customervevő, they're the producttermék.
204
440110
2528
hogy a felhasználó nem vásárló,
hanem ő a termék.
07:34
And so how do you get a companyvállalat
205
442638
2714
Hogyan lehet akkor rávenni egy céget arra,
07:37
to cedefeladni controlellenőrzés of theirazok mainfő- assetvagyontárgy
206
445352
2558
hogy a fő bevételi forrása
feletti rendelkezést
visszaadja a felhasználóknak?
07:39
back to the usersfelhasználók?
207
447910
1249
07:41
It's possiblelehetséges, but I don't think it's something
208
449159
1701
Lehetséges, de nem hiszem,
07:42
that we're going to see changeváltozás quicklygyorsan.
209
450860
2320
hogy ez gyorsan fog változni.
07:45
So I think the other pathpálya
210
453180
1500
Úgy vélem, a másik irány,
07:46
that we can go down that's
going to be more effectivehatékony
211
454680
2288
ami célravezetőbb lehet,
07:48
is one of more sciencetudomány.
212
456968
1508
a több tudomány.
07:50
It's doing sciencetudomány that allowedengedélyezett us to developfejleszt
213
458476
2510
A tudomány, mellyel
fejleszthetővé váltak ezek az,
07:52
all these mechanismsmechanizmusok for computingszámítástechnika
214
460986
1750
elsősorban személyes adatokat
07:54
this personalszemélyes dataadat in the first placehely.
215
462736
2052
használó eljárások.
07:56
And it's actuallytulajdonképpen very similarhasonló researchkutatás
216
464788
2106
Ez pedig nagyon hasonló kutatás,
07:58
that we'dHázasodik have to do
217
466894
1438
amit el kellene végeznünk
08:00
if we want to developfejleszt mechanismsmechanizmusok
218
468332
2386
az olyan eszközök kifejlesztéséhez,
08:02
that can say to a userhasználó,
219
470718
1421
melyek felhívhatják
a felhasználó figyelmét
tevékenységének kockázataira.
08:04
"Here'sItt van the riskkockázat of that actionakció you just tookvett."
220
472139
2229
08:06
By likingszeretet that FacebookFacebook pageoldal,
221
474368
2080
Egy Facebook-oldal lájkolásával
08:08
or by sharingmegosztás this piecedarab of personalszemélyes informationinformáció,
222
476448
2535
vagy egy személyes információ
megosztásával
08:10
you've now improvedjavított my abilityképesség
223
478983
1502
most növelik annak az esélyét,
08:12
to predictmegjósolni whetherakár or not you're usinghasználva drugsgyógyszerek
224
480485
2086
hogy megmondhassam,
használnak-e drogokat,
08:14
or whetherakár or not you get
alongmentén well in the workplacemunkahely.
225
482571
2862
vagy jól érzik-e magukat a munkahelyükön.
Ez pedig hatással lehet annak eldöntésére,
08:17
And that, I think, can affectérint whetherakár or not
226
485433
1848
08:19
people want to shareOssza meg something,
227
487281
1510
hogy megosztunk-e valamit vagy sem,
08:20
keep it privatemagán, or just keep it offlinenem elérhető altogetherösszesen.
228
488791
3239
nyilvánossá tesszük-e,
vagy fel se rakjuk a netre.
08:24
We can alsois look at things like
229
492030
1563
Foglalkozhatunk a feltöltött adatok
08:25
allowinglehetővé téve people to encryptbeavatkozik dataadat that they uploadfeltölt,
230
493593
2728
titkosításának a lehetőségével is,
hisz azok így láthatatlanná
és értéktelenné válnak
08:28
so it's kindkedves of invisibleláthatatlan and worthlessértéktelen
231
496321
1855
08:30
to sitesoldalak like FacebookFacebook
232
498176
1431
a velük rendelkező,
Facebookhoz hasonló oldalak
08:31
or thirdharmadik partyparty servicesszolgáltatások that accesshozzáférés it,
233
499607
2629
vagy egy harmadik fél
szolgáltatásai számára,
08:34
but that selectválaszt usersfelhasználók who the personszemély who postedhozzászóló it
234
502236
3247
de a felhasználó által
kiválasztott személyek
08:37
want to see it have accesshozzáférés to see it.
235
505483
2670
láthatják őket.
08:40
This is all superszuper excitingizgalmas researchkutatás
236
508153
2166
Ezek nagyon izgalmas kutatások
08:42
from an intellectualszellemi perspectivetávlati,
237
510319
1620
intellektuális szemszögből nézve,
08:43
and so scientiststudósok are going to be willinghajlandó to do it.
238
511939
1859
épp ezért foglalkoznak velük
szívesen a tudósok,
08:45
So that givesad us an advantageelőny over the lawtörvény sideoldal.
239
513798
3610
ami előnyt jelent számunkra
a jogi lehetőséghez képest.
08:49
One of the problemsproblémák that people bringhoz up
240
517408
1725
Az egyik gyakran felmerülő kérdés,
08:51
when I talk about this is, they say,
241
519133
1595
hogy mi történne,
08:52
you know, if people startRajt
keepingtartás all this dataadat privatemagán,
242
520728
2646
ha az emberek elkezdenék
titokban tartani az adataikat.
08:55
all those methodsmód that you've been developingfejlesztés
243
523374
2113
A tulajdonságaik beazonosítására
kidolgozott eljárásaim befuccsolnának.
08:57
to predictmegjósolni theirazok traitsvonások are going to failnem sikerül.
244
525487
2653
09:00
And I say, absolutelyteljesen, and for me, that's successsiker,
245
528140
3520
Valóban. És én ezt sikernek tartom.
09:03
because as a scientisttudós,
246
531660
1786
Mert tudósként,
09:05
my goalcél is not to inferkövetkeztetni informationinformáció about usersfelhasználók,
247
533446
3688
nem a felhasználókról akarok
információkra következtetni,
09:09
it's to improvejavul the way people interactegymásra hat onlineonline.
248
537134
2767
hanem az online kommunikációs módokat
szeretném fejleszteni.
09:11
And sometimesnéha that involvesjár
inferringkövetkeztetett things about them,
249
539901
3218
Ehhez persze sokszor rájuk vonatkozó
dolgokra kell következtetnem,
09:15
but if usersfelhasználók don't want me to use that dataadat,
250
543119
3022
de ha a felhasználók nem akarják,
hogy használjam az adatokat,
09:18
I think they should have the right to do that.
251
546141
2038
szerintem ehhez joguk kell, hogy legyen.
09:20
I want usersfelhasználók to be informedtájékozott and consentingbeleegyezik
252
548179
2651
Szeretném, hogy a felhasználók
tájékozottak legyenek,
09:22
usersfelhasználók of the toolsszerszámok that we developfejleszt.
253
550830
2112
és elfogadnák
a kifejlesztett eszközeinket.
09:24
And so I think encouragingbátorító this kindkedves of sciencetudomány
254
552942
2952
Úgy gondolom tehát,
hogy ösztönözni kell ezeket a kutatásokat,
09:27
and supportingtámogatása researcherskutatók
255
555894
1346
és támogatni azokat a kutatókat,
09:29
who want to cedefeladni some of that controlellenőrzés back to usersfelhasználók
256
557240
3023
akik több ellenőrzést
adnának vissza a felhasználóknak
09:32
and away from the socialtársadalmi mediamédia companiesvállalatok
257
560263
2311
és kevesebbet
a közösségi média cégeinek.
09:34
meanseszközök that going forwardelőre, as these toolsszerszámok evolvefejlődik
258
562574
2671
Ahogy ezek az eszközök a jövőben fejlődni
09:37
and advanceelőleg,
259
565245
1476
és tökéletesedni fognak,
09:38
meanseszközök that we're going to have an educatedművelt
260
566721
1414
úgy egy képzett és kompetens
felhasználói bázis is kialakul majd.
09:40
and empoweredfelhatalmazott userhasználó basebázis,
261
568135
1694
09:41
and I think all of us can agreeegyetért
262
569829
1100
Azt hiszem, egyetérthetünk abban,
09:42
that that's a prettyszép idealideál way to go forwardelőre.
263
570929
2564
hogy ez egy egész elfogadható jövőkép.
09:45
Thank you.
264
573493
2184
Köszönöm!
09:47
(ApplauseTaps)
265
575677
3080
(Taps)
Translated by Gergő Nagy
Reviewed by Patay Ágnes

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com