ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Дженифър Голдбек: Главоблъсканицата на къдравите пържени картофи: Защо харесванията в социалните медии казва много повече, отколкото предполагате.

Filmed:
2,366,837 views

Харесвате ли къдрави пържени картофи? Харесали ли сте ги във Фейсбук? Гледайте това представяне за да откриете изненадващи неща, които Фейсбук (и други) могат да отгатнат за вас от произволни харесвания и споделяния. Компютърният специалист Дженифър Голдбек обяснява как някои приложения на технологиите не са чак толкова симпатични -- и защо тя смята, че контрола върху информацията трябва да се върне на законните собственици
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberпомня that first decadeдесетилетие of the webмрежа,
0
738
1997
Ако си спомнята първото
десетилетие на интернета,
00:14
it was really a staticстатични placeмясто.
1
2735
2255
това беше много статично място.
00:16
You could go onlineна линия, you could look at pagesстраници,
2
4990
2245
Можеше да отидеш онлайн, да разгледаш страници,
00:19
and they were put up eitherедин by organizationsорганизации
3
7235
2513
които са качени от организации,
00:21
who had teamsотбори to do it
4
9748
1521
направени от техните екипи,
00:23
or by individualsиндивиди who were really tech-savvyTech разбирам
5
11269
2229
или от хора, които са много технически грамотни
00:25
for the time.
6
13498
1737
за времето си.
00:27
And with the riseиздигам се of socialсоциален mediaсредства
7
15235
1575
С появата на социалните медии
00:28
and socialсоциален networksмрежи in the earlyрано 2000s,
8
16810
2399
и социалните мрежи в началото на 21 век,
00:31
the webмрежа was completelyнапълно changedпроменен
9
19209
2149
мрежата напълно се промени
00:33
to a placeмясто where now the vastобширен majorityмнозинство of contentсъдържание
10
21358
3608
и стана място, където по-голямата
част от съдържанието,
00:36
we interactвзаимодействат with is put up by averageсредно аритметично usersпотребители,
11
24966
3312
с което се сблъскваме, е качено от
обикновените потребители,
00:40
eitherедин in YouTubeYouTube videosвидеоклипове or blogблог postsПостове
12
28278
2697
или под формата на видеа в YouTube,
или блог постове,
00:42
or productпродукт reviewsотзива or socialсоциален mediaсредства postingsпубликации.
13
30975
3315
или отзиви за продукт, или постове
в социалните медии.
00:46
And it's alsoсъщо becomeда стане a much more interactiveинтерактивен placeмясто,
14
34290
2347
Тя стана много по-интерактивно място,
00:48
where people are interactingвзаимодействащи with othersдруги,
15
36637
2637
където хората общуват помежду си,
00:51
they're commentingКоментирайки, they're sharingсподеляне,
16
39274
1696
коментират, споделят,
00:52
they're not just readingчетене.
17
40970
1614
не само четат.
00:54
So FacebookFacebook is not the only placeмясто you can do this,
18
42584
1866
Facebook не е единственото място,
където можете да правите това,
00:56
but it's the biggestНай-големият,
19
44450
1098
но е най-голямото,
00:57
and it servesслужи to illustrateилюстрирам the numbersчисленост.
20
45548
1784
и служи като пример за бройката.
00:59
FacebookFacebook has 1.2 billionмилиард usersпотребители perна monthмесец.
21
47332
3477
Facebook има 1,2 милиарда потребители
всеки месец.
01:02
So halfнаполовина the Earth'sНа земята InternetИнтернет populationнаселение
22
50809
1930
Половината от интернет населението на Земята
01:04
is usingизползвайки FacebookFacebook.
23
52739
1653
използва Facebook.
01:06
They are a siteмясто, alongзаедно with othersдруги,
24
54392
1932
Това е сайт, който както някои други,
01:08
that has allowedпозволен people to createсъздавам an onlineна линия personaперсона
25
56324
3219
позволява на хората да създадат
онлайн персонаж
01:11
with very little technicalтехнически skillумение,
26
59543
1782
с много малко технически умения,
01:13
and people respondedотговори by puttingпускането hugeогромен amountsсуми
27
61325
2476
и хората реагираха като качиха
огромни количества
01:15
of personalперсонален dataданни onlineна линия.
28
63801
1983
лични данни онлайн.
01:17
So the resultрезултат is that we have behavioralповеденчески,
29
65784
2543
В резултат имаме поведенчески,
01:20
preferenceпредпочитание, demographicдемографски dataданни
30
68327
1986
преференциални и демографски данни
01:22
for hundredsстотици of millionsмилиони of people,
31
70313
2101
на хиляди милиони хора,
01:24
whichкойто is unprecedentedбезпрецедентен in historyистория.
32
72414
2026
което е без прецедент в историята.
01:26
And as a computerкомпютър scientistучен,
what this meansсредства is that
33
74440
2560
Като компютърен специалист,
това означава, че
01:29
I've been ableспособен to buildпострои modelsмодели
34
77000
1664
имам възможността да изградя модели,
01:30
that can predictпредскаже all sortsвидове of hiddenскрит attributesатрибути
35
78664
2322
които могат да предскажат всякакви
видове скрити атрибути
01:32
for all of you that you don't even know
36
80986
2284
за всички вас, за които дори не знаете,
01:35
you're sharingсподеляне informationинформация about.
37
83270
2202
че споделяте информация.
01:37
As scientistsучени, we use that to help
38
85472
2382
Като учени, ние използваме това
за да подпомогнем
01:39
the way people interactвзаимодействат onlineна линия,
39
87854
2114
начина, по който хората общуват онлайн,
01:41
but there's lessпо-малко altruisticалтруистично applicationsприложения,
40
89968
2499
но има и не толкова алтруистични приложения.
01:44
and there's a problemпроблем in that usersпотребители don't really
41
92467
2381
Това е проблем, тъй като потребителите
01:46
understandразбирам these techniquesтехники and how they work,
42
94848
2470
не разбират напълно тези техники
и как те работят,
01:49
and even if they did, they don't
have a lot of controlконтрол over it.
43
97318
3128
дори и да разбираха, те нямат
особено голям контрол върху тях.
01:52
So what I want to talk to you about todayднес
44
100446
1490
Така че това, за което искам да говоря,
01:53
is some of these things that we're ableспособен to do,
45
101936
2702
са нещата, които сме способни да направим,
01:56
and then give us some ideasидеи
of how we mightбиха могли, може go forwardнапред
46
104638
2763
и да ви дам няколко идеи
как да подходим,
01:59
to moveход some controlконтрол back into the handsръце of usersпотребители.
47
107401
2769
така че да върнем част от контрола
в ръцете на потребителите.
02:02
So this is TargetЦелта, the companyкомпания.
48
110170
1586
Това е Target, компанията.
02:03
I didn't just put that logoлого
49
111756
1324
Не случайно сложих логото
02:05
on this poorбеден, pregnantбременна woman'sжена bellyкорем.
50
113080
2170
на корема на горката бременна жена.
02:07
You mayможе have seenвидян this anecdoteвиц that was printedпечатен
51
115250
1840
Може да знаете за този анекдот,
който беше публикуван
02:09
in Forbes"Форбс" magazineсписание where TargetЦелта
52
117090
2061
в списание Forbes, в който Target
02:11
sentизпратен a flyerФлаер to this 15-year-old-годишен girlмомиче
53
119151
2361
изпратили на едно 15-годишно момиче брошура
02:13
with advertisementsреклами and couponsкупони
54
121512
1710
с реклами и купони за намаление
02:15
for babyбебе bottlesбутилки and diapersпелени and cribsясли
55
123222
2554
на бебешки бутилки, памперси и детски креватчета
02:17
two weeksседмици before she told her parentsродители
56
125776
1684
две седмици преди да каже на родителите си,
02:19
that she was pregnantбременна.
57
127460
1864
че е бременна.
02:21
Yeah, the dadтатко was really upsetразстроен.
58
129324
2704
Да, бащата бил много разстроен.
02:24
He said, "How did TargetЦелта figureфигура out
59
132028
1716
Той казал: "Как Target могат да знаят,
02:25
that this highВисоко schoolучилище girlмомиче was pregnantбременна
60
133744
1824
че една ученичка е бременна,
02:27
before she told her parentsродители?"
61
135568
1960
преди тя да е казала на родителите си?"
02:29
It turnsзавои out that they have the purchaseпокупка historyистория
62
137528
2621
Оказва се, че те имат историята на покупките
02:32
for hundredsстотици of thousandsхиляди of customersклиенти
63
140149
2301
на стотици хиляди клиенти
02:34
and they computeпресмятам what they
call a pregnancyбременност scoreрезултат,
64
142450
2730
и изчисляват нещо, което наричат
резултат на бременност,
02:37
whichкойто is not just whetherдали or
not a woman'sжена pregnantбременна,
65
145180
2332
което не е просто дали
жената е бременна или не.
02:39
but what her dueв следствие dateдата is.
66
147512
1730
а кога е терминът й.
02:41
And they computeпресмятам that
67
149242
1304
Изчисляват това
02:42
not by looking at the obviousочевиден things,
68
150546
1768
не като гледат очевидните неща,
02:44
like, she's buyingкупуване a cribдетско креватче or babyбебе clothesдрехи,
69
152314
2512
като това, че е купила детско
креватче или бебешки дрехи,
02:46
but things like, she boughtкупих more vitaminsвитамини
70
154826
2943
а неща като това дали е купила повече витамини,
02:49
than she normallyнормално had,
71
157769
1717
отколкото по принцип,
02:51
or she boughtкупих a handbagчанта
72
159486
1464
или си е купила чанта,
02:52
that's bigголям enoughдостатъчно to holdдържа diapersпелени.
73
160950
1711
достатъчно голяма за да събере памперси.
02:54
And by themselvesсебе си, those purchasesпокупките don't seemИзглежда
74
162661
1910
Сами по себе си тези покупки не изглеждат
02:56
like they mightбиха могли, може revealразкрие a lot,
75
164571
2469
да разкриват особено много,
02:59
but it's a patternмодел of behaviorповедение that,
76
167040
1978
но това е модел на поведение, който
03:01
when you take it in the contextконтекст
of thousandsхиляди of other people,
77
169018
3117
сложен в контекста на хиляди хора,
03:04
startsзапочва to actuallyвсъщност revealразкрие some insightsпрозрения.
78
172135
2757
разкрива определена информация.
03:06
So that's the kindмил of thing that we do
79
174892
1793
Това е видът на нещата, които правим,
03:08
when we're predictingпредсказване stuffматерия
about you on socialсоциален mediaсредства.
80
176685
2567
когато предсказваме неща
за вас, чрез социалните медии.
03:11
We're looking for little
patternsмодели of behaviorповедение that,
81
179252
2796
Търсим малки модели на поведение, които
03:14
when you detectоткриване them amongсред millionsмилиони of people,
82
182048
2682
когато са засечени сред милиони хора,
03:16
letsНека да us find out all kindsвидове of things.
83
184730
2706
ни позволяват да открием всякакви неща.
03:19
So in my labлаборатория and with colleaguesколеги,
84
187436
1747
В моята лаборатория с колегите
03:21
we'veние имаме developedразвита mechanismsмеханизми where we can
85
189183
1777
разработихме механизъм, при който
03:22
quiteсъвсем accuratelyакуратно predictпредскаже things
86
190960
1560
с точност можем да определим неща
03:24
like your politicalполитически preferenceпредпочитание,
87
192520
1725
като политическите ви предпочитания,
03:26
your personalityиндивидуалност scoreрезултат, genderпол, sexualсексуален orientationориентация,
88
194245
3752
характера, пола, сексуалната ориентация,
03:29
religionрелигия, ageвъзраст, intelligenceинтелигентност,
89
197997
2873
религията, възрастта, интелекта
03:32
alongзаедно with things like
90
200870
1394
както и други неща като
03:34
how much you trustДоверие the people you know
91
202264
1937
колко вярвате на хората, които познавате,
03:36
and how strongсилен those relationshipsвзаимоотношения are.
92
204201
1804
и колко са силни връзките ви с тях.
03:38
We can do all of this really well.
93
206005
1785
Можем да правим това много добре.
03:39
And again, it doesn't come from what you mightбиха могли, може
94
207790
2197
И отново, това не произлиза
03:41
think of as obviousочевиден informationинформация.
95
209987
2102
от очевидната информация.
03:44
So my favoriteлюбим exampleпример is from this studyуча
96
212089
2281
Любимият ми пример е от проучване
03:46
that was publishedпубликувано this yearгодина
97
214370
1240
публикувано тази година
03:47
in the ProceedingsПроизводства of the NationalНационалните AcademiesАкадемии.
98
215610
1795
в Бюлетина на националните академии.
03:49
If you GoogleGoogle this, you'llти ще find it.
99
217405
1285
Ако потърсите в Google, ще го намерите.
03:50
It's fourчетирима pagesстраници, easyлесно to readПрочети.
100
218690
1872
Четири страници е, лесно за четене.
03:52
And they lookedпогледнах at just people'sнародната FacebookFacebook likesхаресвания,
101
220562
3003
Разгледали какво хората харесват във Facebook,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
само нещата, които харесвате във Facebook,
03:57
and used that to predictпредскаже all these attributesатрибути,
103
225485
2138
и използвали това за да предскажат
всички тези атрибути,
03:59
alongзаедно with some other onesтакива.
104
227623
1645
както и някои други.
04:01
And in theirтехен paperхартия they listedизброени the fiveпет likesхаресвания
105
229268
2961
В проучването те описват петте харесвания,
04:04
that were mostнай-много indicativeиндикативните of highВисоко intelligenceинтелигентност.
106
232229
2787
които най-добре показват висок интелект.
04:07
And amongсред those was likingхареса a pageстраница
107
235016
2324
Сред тях е това да харесаш страница
04:09
for curlyкъдрава friesкартофки. (LaughterСмях)
108
237340
1905
за къдрави пържени картофки. (Смях)
04:11
CurlyКъдрава friesкартофки are deliciousвкусни,
109
239245
2093
Къдравите пържени картофки са вкусни,
04:13
but likingхареса them does not necessarilyнепременно mean
110
241338
2530
но това да ги харесваш не значи непременно,
04:15
that you're smarterпо-умни than the averageсредно аритметично personчовек.
111
243868
2080
че си по-умен от средностатистическия човек.
04:17
So how is it that one of the strongest-силната indicatorsиндикатори
112
245948
3207
Тогава как така един от най-силните показатели
04:21
of your intelligenceинтелигентност
113
249155
1570
за вашия интелект
04:22
is likingхареса this pageстраница
114
250725
1447
е да харесате страница,
04:24
when the contentсъдържание is totallyнапълно irrelevantнеуместен
115
252172
2252
в която съдържанието е абсолютно несвързано
04:26
to the attributeатрибут that's beingсъщество predictedпрогнозира,?
116
254424
2527
с атрибута, който е предсказан?
04:28
And it turnsзавои out that we have to look at
117
256951
1584
Оказва се, че трябва да разгледам
04:30
a wholeцяло bunchкуп of underlyingосновните theoriesтеории
118
258535
1618
голям брой свързани теории
04:32
to see why we're ableспособен to do this.
119
260153
2569
за да разберем как е възможно това.
04:34
One of them is a sociologicalсоциологически
theoryтеория calledНаречен homophilyhomophily,
120
262722
2913
Една от тях е социологическа
теория наречена хомофилия,
04:37
whichкойто basicallyв основата си saysказва people are
friendsприятели with people like them.
121
265635
3092
която твърди, че хората са
приятели с хора, с които си приличат.
04:40
So if you're smartумен, you tendсклонен to
be friendsприятели with smartумен people,
122
268727
2014
Така че ако сте умни, имате склонност
да сте приятели с умни хора,
04:42
and if you're youngмлад, you tendсклонен
to be friendsприятели with youngмлад people,
123
270741
2630
ако сте млади, имате склонност
да сте приятели с млади хора,
04:45
and this is well establishedустановен
124
273371
1627
и това е силно утвърдено
04:46
for hundredsстотици of yearsгодини.
125
274998
1745
от стотици години насам.
04:48
We alsoсъщо know a lot
126
276743
1232
Също така знаем много
04:49
about how informationинформация spreadsспредове throughпрез networksмрежи.
127
277975
2550
за това как информацията
се разпространява в общностите.
04:52
It turnsзавои out things like viralвирусни videosвидеоклипове
128
280525
1754
Оказва се, че неща като "вирусни" видеоклипове,
04:54
or FacebookFacebook likesхаресвания or other informationинформация
129
282279
2406
Facebook харесвания и друга информация,
04:56
spreadsспредове in exactlyточно the sameедин и същ way
130
284685
1888
се разпространява точно по същия начин,
04:58
that diseasesзаболявания spreadразпространение throughпрез socialсоциален networksмрежи.
131
286573
2454
както болестите се разпространяват
в социалните общностни.
05:01
So this is something we'veние имаме studiedучи for a long time.
132
289027
1791
Така че това е нещо, което изучаваме от много време.
05:02
We have good modelsмодели of it.
133
290818
1576
Имаме добри модели за него.
05:04
And so you can put those things togetherзаедно
134
292394
2157
Така че може да съберем тези неща заедно
05:06
and startначало seeingвиждане why things like this happenстава.
135
294551
3088
и да разберем защо се случват такива неща.
05:09
So if I were to give you a hypothesisхипотеза,
136
297639
1814
Ако трябва да изложа хипотеза,
05:11
it would be that a smartумен guy startedзапочна this pageстраница,
137
299453
3227
тя би била, че някой умен човек е създал страницата,
05:14
or maybe one of the first people who likedхаресали it
138
302680
1939
или някой от първите хора, които са я харесали
05:16
would have scoredвкара highВисоко on that testтест.
139
304619
1736
би получил висок резултат на този тест.
05:18
And they likedхаресали it, and theirтехен friendsприятели saw it,
140
306355
2288
Те са я харесали и техните приятели са видяли,
05:20
and by homophilyhomophily, we know that
he probablyвероятно had smartумен friendsприятели,
141
308643
3122
заради хомофилията знаем, че вероятно
той е имал умни приятели,
05:23
and so it spreadразпространение to them,
and some of them likedхаресали it,
142
311765
3056
тя се е разпространила между тях,
някои от тях са я харесали,
05:26
and they had smartумен friendsприятели,
143
314821
1189
те са имали умни приятели,
05:28
and so it spreadразпространение to them,
144
316010
807
стигнала е и до тях,
05:28
and so it propagatedразмножени throughпрез the networkмрежа
145
316817
1973
и така се е разпространила в мрежата
05:30
to a hostдомакин of smartумен people,
146
318790
2569
до цял куп умни хора,
05:33
so that by the endкрай, the actionдействие
147
321359
2056
и накрая, действието
05:35
of likingхареса the curlyкъдрава friesкартофки pageстраница
148
323415
2544
на харесване на страницата за къдрави картофки,
05:37
is indicativeиндикативните of highВисоко intelligenceинтелигентност,
149
325959
1615
става показателна за висок интелект,
05:39
not because of the contentсъдържание,
150
327574
1803
не заради съдържанието,
05:41
but because the actualдействителен actionдействие of likingхареса
151
329377
2522
а защото самото действие на харесване
05:43
reflectsотразява back the commonчесто срещани attributesатрибути
152
331899
1900
отразява съвместните атрибути
05:45
of other people who have doneСвършен it.
153
333799
2468
на други хора, които са го направили.
05:48
So this is prettyкрасива complicatedсложен stuffматерия, right?
154
336267
2897
Доста сложно, нали?
05:51
It's a hardтвърд thing to sitседя down and explainобяснявам
155
339164
2199
Трудно е да го обясниш
05:53
to an averageсредно аритметично userпотребител, and even if you do,
156
341363
2848
на средностатистическия потребител,
и дори да го направиш,
05:56
what can the averageсредно аритметично userпотребител do about it?
157
344211
2188
какво може да направи той по въпроса?
05:58
How do you know that
you've likedхаресали something
158
346399
2048
Как може да знаеш, че си харесал нещо,
06:00
that indicatesпоказва, a traitбелег for you
159
348447
1492
което показва твоя отличителна черта,
06:01
that's totallyнапълно irrelevantнеуместен to the
contentсъдържание of what you've likedхаресали?
160
349939
3545
когато то няма нищо общо със
съдържанието на това, което си харесал?
06:05
There's a lot of powerмощност that usersпотребители don't have
161
353484
2546
Има много власт, която потребители не притежават,
06:08
to controlконтрол how this dataданни is used.
162
356030
2230
за контролирането на това как
се използват тези данни.
06:10
And I see that as a realреален
problemпроблем going forwardнапред.
163
358260
3112
За мен това е сериозен нарастващ проблем.
06:13
So I think there's a coupleдвойка pathsпътеки
164
361372
1977
Така че мисля, че има няколко варианта,
06:15
that we want to look at
165
363349
1001
които можем да разгледаме,
06:16
if we want to give usersпотребители some controlконтрол
166
364350
1910
ако искаме да дадем на потребителите
част от контрола
06:18
over how this dataданни is used,
167
366260
1740
върху използването на тези данни,
06:20
because it's not always going to be used
168
368000
1940
защото те не винаги ще бъдат използвани
06:21
for theirтехен benefitоблага.
169
369940
1381
в тяхна полза.
06:23
An exampleпример I oftenчесто give is that,
170
371321
1422
Пример, който често давам,
06:24
if I ever get boredотегчен beingсъщество a professorпрофесор,
171
372743
1646
е, че ако някога се отегча от това да съм професор,
06:26
I'm going to go startначало a companyкомпания
172
374389
1653
ще основа компания,
06:28
that predictsпрогнозира all of these attributesатрибути
173
376042
1454
която предсказва всички тези атрибути
06:29
and things like how well you work in teamsотбори
174
377496
1602
и неща като това колко добре работиш в екип,
06:31
and if you're a drugлекарство userпотребител, if you're an alcoholicалкохолик.
175
379098
2671
дали ползваш наркотици, дали си алкохолик.
06:33
We know how to predictпредскаже all that.
176
381769
1440
Знаем как да предскажем всичко това.
06:35
And I'm going to sellпродажба reportsдоклади
177
383209
1761
И ще продавам доклади
06:36
to H.R. companiesкомпании and bigголям businessesбизнеса
178
384970
2100
на компаниите за набиране на персонал
и големите бизнеси,
06:39
that want to hireнаем you.
179
387070
2273
които искат да ви назначат.
06:41
We totallyнапълно can do that now.
180
389343
1177
В момента това е абсолютно постижимо.
06:42
I could startначало that businessбизнес tomorrowутре,
181
390520
1788
Мога да започна този бизнес още утре,
06:44
and you would have
absolutelyабсолютно no controlконтрол
182
392308
2052
а вие няма да имате абсолютно никакъв контрол,
06:46
over me usingизползвайки your dataданни like that.
183
394360
2138
върху използването на вашите данни.
06:48
That seemsИзглежда to me to be a problemпроблем.
184
396498
2292
На мен това ми изглежда като проблем.
06:50
So one of the pathsпътеки we can go down
185
398790
1910
Така че единият вариант е,
06:52
is the policyполитика and lawзакон pathпът.
186
400700
2032
вариантът на политиката и закона.
06:54
And in some respectsотношения, I think
that that would be mostнай-много effectiveефективен,
187
402732
3046
До някаква степен смятам, че той ще е най-ефективен,
06:57
but the problemпроблем is we'dние искаме
actuallyвсъщност have to do it.
188
405778
2756
но проблемът е, че ще трябва да го изпълним.
07:00
ObservingСпазване our politicalполитически processпроцес in actionдействие
189
408534
2780
Наблюдавайки политическите ни процеси в действие,
07:03
makesправи me think it's highlyсилно unlikelyмалко вероятно
190
411314
2379
си мисля, че е малко вероятно
07:05
that we're going to get a bunchкуп of representativesпредставители
191
413693
1597
да накараме група представители
07:07
to sitседя down, learnуча about this,
192
415290
1986
да седнат, да се запознаят с това
07:09
and then enactприемат sweepingметене changesпромени
193
417276
2106
и да вкарат в действие радикални промени
07:11
to intellectualинтелектуален propertyИмот lawзакон in the U.S.
194
419382
2157
в закона за интелектуалната собственост в САЩ,
07:13
so usersпотребители controlконтрол theirтехен dataданни.
195
421539
2461
така че потребителите да контролират данните си.
07:16
We could go the policyполитика routeмаршрут,
196
424000
1304
Можем да тръгнем по пътя на политиката,
07:17
where socialсоциален mediaсредства companiesкомпании say,
197
425304
1479
при която социалните медии да кажат:
07:18
you know what? You ownсобствен your dataданни.
198
426783
1402
"Знаете ли какво, вие притежавате данните си.
07:20
You have totalобща сума controlконтрол over how it's used.
199
428185
2489
Имате контрол върху това как се използват."
07:22
The problemпроблем is that the revenueприход modelsмодели
200
430674
1848
Проблемът е, че приходите
07:24
for mostнай-много socialсоциален mediaсредства companiesкомпании
201
432522
1724
на повечето социални медии
07:26
relyразчитам on sharingсподеляне or exploitingизползване на
users'Потребителите dataданни in some way.
202
434246
4031
зависят от някакъв вид споделяне
и експлоатирането на потребителски данни.
07:30
It's sometimesпонякога said of FacebookFacebook that the usersпотребители
203
438277
1833
Понякога казват за Facebook, че потребителите
07:32
aren'tне са the customerклиент, they're the productпродукт.
204
440110
2528
не са клиентите, а са продуктът.
07:34
And so how do you get a companyкомпания
205
442638
2714
Тогава как да накараме една компания
07:37
to cedeотстъпи controlконтрол of theirтехен mainосновен assetактив
206
445352
2558
да даде контрола върху основните си активи
07:39
back to the usersпотребители?
207
447910
1249
обратно на потребителите?
07:41
It's possibleвъзможен, but I don't think it's something
208
449159
1701
Възможно е, но не мисля, че това е нещо,
07:42
that we're going to see changeпромяна quicklyбързо.
209
450860
2320
което ще видим да се случи скоро.
07:45
So I think the other pathпът
210
453180
1500
Така че мисля, че другият вариант,
07:46
that we can go down that's
going to be more effectiveефективен
211
454680
2288
който ще бъде по-ефективен,
07:48
is one of more scienceнаука.
212
456968
1508
е този на повечето наука.
07:50
It's doing scienceнаука that allowedпозволен us to developразвият
213
458476
2510
Да се занимаваме с науката,
която ни е позволила да развием
07:52
all these mechanismsмеханизми for computingизчислителен
214
460986
1750
всички тези механизми за изчисляване
07:54
this personalперсонален dataданни in the first placeмясто.
215
462736
2052
на личните данни.
07:56
And it's actuallyвсъщност very similarподобен researchизследване
216
464788
2106
Всъщност е много подобно проучване,
07:58
that we'dние искаме have to do
217
466894
1438
на това което трябва да направим,
08:00
if we want to developразвият mechanismsмеханизми
218
468332
2386
за да разработим механизми,
08:02
that can say to a userпотребител,
219
470718
1421
които могат да кажат на потребителя
08:04
"Here'sТук е the riskриск of that actionдействие you just tookвзеха."
220
472139
2229
"Ето това е рискът, от действието,
което току що предприе."
08:06
By likingхареса that FacebookFacebook pageстраница,
221
474368
2080
Харесвайки тази Фейсбук страница
08:08
or by sharingсподеляне this pieceпарче of personalперсонален informationинформация,
222
476448
2535
или споделяйки тази лична информация,
08:10
you've now improvedподобрен my abilityспособност
223
478983
1502
ти току що подобри способността ми
08:12
to predictпредскаже whetherдали or not you're usingизползвайки drugsнаркотици
224
480485
2086
да предскажа дали използваш наркотици или не
08:14
or whetherдали or not you get
alongзаедно well in the workplaceработно място.
225
482571
2862
или дали се разбираш добре или не
с колегите на работа.
08:17
And that, I think, can affectзасегне whetherдали or not
226
485433
1848
Това смятам, че може да повлияе върху решението
08:19
people want to shareдял something,
227
487281
1510
на хората дали искат да споделят нещо,
08:20
keep it privateчастен, or just keep it offlineизвън линия altogetherобщо.
228
488791
3239
да го запазят лично или въобще да не го качват.
08:24
We can alsoсъщо look at things like
229
492030
1563
Можем да разгледаме и варианти, които
08:25
allowingпозволявайки people to encryptшифроване dataданни that they uploadкачване,
230
493593
2728
биха позволили на хората да криптират данните,
които качват,
08:28
so it's kindмил of invisibleневидим and worthlessбезполезен
231
496321
1855
така че да са един вид невидими и безполезни
08:30
to sitesсайтове like FacebookFacebook
232
498176
1431
за страници като Фейсбук
08:31
or thirdтрета partyстрана servicesуслуги that accessдостъп it,
233
499607
2629
или допълнителни услуги, които ги достъпват,
08:34
but that selectизберете usersпотребители who the personчовек who postedе публикувал it
234
502236
3247
но да са видими за избрани потребители,
за които този, който е публикувал информацията,
08:37
want to see it have accessдостъп to see it.
235
505483
2670
иска тя да бъде видима.
08:40
This is all superсупер excitingвълнуващ researchизследване
236
508153
2166
Това е изключително проучване
08:42
from an intellectualинтелектуален perspectiveперспектива,
237
510319
1620
от интелектуална гледна точка
08:43
and so scientistsучени are going to be willingсклонен to do it.
238
511939
1859
и учените са склонни да го направят.
08:45
So that givesдава us an advantageпредимство over the lawзакон sideстрана.
239
513798
3610
Това му дава предимство пред законовият подход.
08:49
One of the problemsпроблеми that people bringвъвеждат up
240
517408
1725
Един от проблемите, които се повдигат,
08:51
when I talk about this is, they say,
241
519133
1595
когато говоря за това е следният:
08:52
you know, if people startначало
keepingсъхраняемост all this dataданни privateчастен,
242
520728
2646
Знаеш ли, когато хората започнат да
пазят цялата информация като лична,
08:55
all those methodsметоди that you've been developingразработване
243
523374
2113
тогава всички тези методи, които си разработил
08:57
to predictпредскаже theirтехен traitsчерти are going to failпровали.
244
525487
2653
за да предсказваш заплахите, ще се провалят.
09:00
And I say, absolutelyабсолютно, and for me, that's successуспех,
245
528140
3520
А аз отговарям: Абсолютно! И аз мен, това е успех,
09:03
because as a scientistучен,
246
531660
1786
защото като учен,
09:05
my goalцел is not to inferподразбирам informationинформация about usersпотребители,
247
533446
3688
моята цел не е да разбирам информация
за потребителите,
09:09
it's to improveподобряване на the way people interactвзаимодействат onlineна линия.
248
537134
2767
а да подобря начина, по който
взаимодействат онлайн.
09:11
And sometimesпонякога that involvesвключва
inferringправи извода things about them,
249
539901
3218
Понякога това включва събиране
на информация за тях,
09:15
but if usersпотребители don't want me to use that dataданни,
250
543119
3022
но ако потребителите не искат да
използвам тази информация,
09:18
I think they should have the right to do that.
251
546141
2038
смятам, че трябва да имат правото да ми забранят.
09:20
I want usersпотребители to be informedинформиран and consentingсъгласие
252
548179
2651
Искам потребителите да бъдат
информирани и осъзнати
09:22
usersпотребители of the toolsинструменти that we developразвият.
253
550830
2112
потребители на механизмите, които разработваме.
09:24
And so I think encouragingобнадеждаващ this kindмил of scienceнаука
254
552942
2952
Смятам, че окуражавайки този вид наука
09:27
and supportingподкрепа researchersизследователи
255
555894
1346
и подкрепяйки изследователите,
09:29
who want to cedeотстъпи some of that controlконтрол back to usersпотребители
256
557240
3023
които искат да върнат част от контрола
обратно на потребителите
09:32
and away from the socialсоциален mediaсредства companiesкомпании
257
560263
2311
и далеч от компаниите за социални медии,
09:34
meansсредства that going forwardнапред, as these toolsинструменти evolveсе развива
258
562574
2671
означава да вървим напред и докато
тези механизми се развиват
09:37
and advanceнапредък,
259
565245
1476
и напредват,
09:38
meansсредства that we're going to have an educatedобразован
260
566721
1414
това означава, че ние ще имаме образована
09:40
and empoweredупълномощено userпотребител baseбаза,
261
568135
1694
и упълномощена потребителска база
09:41
and I think all of us can agreeСъгласен
262
569829
1100
и смятам, че всеки от нас би се съгласил,
09:42
that that's a prettyкрасива idealидеален way to go forwardнапред.
263
570929
2564
че това е съвсем идеален начин да вървим напред.
09:45
Thank you.
264
573493
2184
Благодаря ви.
09:47
(ApplauseАплодисменти)
265
575677
3080
(Аплодисменти)
Translated by Boyana Hristova
Reviewed by Anton Hikov

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com