ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Дженнифер Голбек: Загадка спиральной картошки фри: Почему лайки в соцсетях говорят больше, чем вы думаете

Filmed:
2,366,837 views

Вам нравится спиральная картошка фри? Вы ставили ей лайк в «Фэйсбук»? Посмотрите этот доклад, чтобы узнать о поразительных вещах, которые «Фэйсбук» (и другие) могут угадать о вас на основе того, что вам нравится и чем вы делитесь. Учёный в области вычислительной техники, Дженнифер Голбек объясняет, как это стало возможным, почему некоторые приложения данной технологии не такие уж и милые и почему она считает, что управление информацией следует передать в руки её законных владельцев.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberзапомнить that first decadeдесятилетие of the webWeb,
0
738
1997
Если вы помните первое десятилетие
всемирной паутины,
00:14
it was really a staticстатический placeместо.
1
2735
2255
это было неподвижное пространство.
00:16
You could go onlineонлайн, you could look at pagesстраницы,
2
4990
2245
Вы могли подключиться,
вы могли просматривать страницы,
00:19
and they were put up eitherили by organizationsорганизации
3
7235
2513
которые создавались либо организациями,
00:21
who had teamsкоманды to do it
4
9748
1521
у которых были специалисты,
00:23
or by individualsиндивидуумы who were really tech-savvyтехнически подкованные
5
11269
2229
либо пользователями,
00:25
for the time.
6
13498
1737
технически подкованными
для того времени.
00:27
And with the riseподъем of socialСоциальное mediaСМИ
7
15235
1575
С появлением социальных медиа
00:28
and socialСоциальное networksсети in the earlyрано 2000s,
8
16810
2399
и социальных сетей в начале 2000-х
00:31
the webWeb was completelyполностью changedизменено
9
19209
2149
паутина полностью изменилась
и стала местом,
00:33
to a placeместо where now the vastогромный majorityбольшинство of contentсодержание
10
21358
3608
где подавляющее большинство содержимого,
00:36
we interactвзаимодействовать with is put up by averageв среднем usersпользователи,
11
24966
3312
с которым мы взаимодействуем,
загружено обычными пользователями,
00:40
eitherили in YouTubeYouTube videosвидео or blogблог postsсообщений
12
28278
2697
например, видео в YouTube,
записи в блогах,
00:42
or productпродукт reviewsотзывы or socialСоциальное mediaСМИ postingsпроводки.
13
30975
3315
обзоры товаров или записи в соцсетях.
00:46
And it's alsoтакже becomeстали a much more interactiveинтерактивный placeместо,
14
34290
2347
Также она стала
куда более интерактивной:
00:48
where people are interactingвзаимодействующий with othersдругие,
15
36637
2637
люди взаимодействуют друг с другом,
00:51
they're commentingкомментирование, they're sharingразделение,
16
39274
1696
они комментируют, они делятся,
00:52
they're not just readingчтение.
17
40970
1614
а не просто читают.
00:54
So Facebookfacebook is not the only placeместо you can do this,
18
42584
1866
«Фэйсбук» — не единственное место,
где вы можете это делать,
00:56
but it's the biggestсамый большой,
19
44450
1098
но самое крупное
00:57
and it servesслужит to illustrateиллюстрировать the numbersчисел.
20
45548
1784
и оно даёт представление о цифрах.
00:59
Facebookfacebook has 1.2 billionмиллиард usersпользователи perв monthмесяц.
21
47332
3477
«Фэйсбуком» пользуются
1,2 миллиарда человек в месяц.
01:02
So halfполовина the Earth'sЗемли Internetинтернет populationНаселение
22
50809
1930
Половина Интернет-населения Земли
01:04
is usingс помощью Facebookfacebook.
23
52739
1653
использует «Фэйсбук».
01:06
They are a siteсайт, alongвдоль with othersдругие,
24
54392
1932
Это сайт, который, как и многие другие,
01:08
that has allowedпозволил people to createСоздайте an onlineонлайн personaперсона
25
56324
3219
позволяет людям создавать онлайн образ
01:11
with very little technicalтехнический skillумение,
26
59543
1782
почти без технических знаний,
01:13
and people respondedответил by puttingсдачи hugeогромный amountsсуммы
27
61325
2476
и люди пользуются этим, размещая онлайн
01:15
of personalличный dataданные onlineонлайн.
28
63801
1983
огромные массивы персональных данных.
01:17
So the resultрезультат is that we have behavioralповеденческий,
29
65784
2543
В результате у нас есть поведенческие,
01:20
preferenceпредпочтение, demographicдемографический dataданные
30
68327
1986
демографические данные,
данные о предпочтениях
01:22
for hundredsсотни of millionsмиллионы of people,
31
70313
2101
для сотен миллионов людей,
01:24
whichкоторый is unprecedentedбеспрецедентный in historyистория.
32
72414
2026
что беспрецедентно в истории.
01:26
And as a computerкомпьютер scientistученый,
what this meansозначает is that
33
74440
2560
Как учёному
в области вычислительной техники,
01:29
I've been ableв состоянии to buildстроить modelsмодели
34
77000
1664
мне это дало возможность
построить модели,
01:30
that can predictпрогнозировать all sortsвиды of hiddenскрытый attributesатрибуты
35
78664
2322
которые могут предсказывать все виды
скрытых атрибутов для всех вас,
01:32
for all of you that you don't even know
36
80986
2284
информацию о которых вы раскрываете,
01:35
you're sharingразделение informationИнформация about.
37
83270
2202
даже не догадываясь об этом.
01:37
As scientistsученые, we use that to help
38
85472
2382
Как учёные,
мы используем это, чтобы улучшить
01:39
the way people interactвзаимодействовать onlineонлайн,
39
87854
2114
онлайн взаимодействие людей,
01:41
but there's lessМеньше altruisticальтруистический applicationsПриложения,
40
89968
2499
однако существуют менее
альтруистические приложения,
01:44
and there's a problemпроблема in that usersпользователи don't really
41
92467
2381
и проблема в том, что пользователи
01:46
understandПонимаю these techniquesметоды and how they work,
42
94848
2470
не понимают эти методики
и как они работают.
01:49
and even if they did, they don't
have a lot of controlконтроль over it.
43
97318
3128
И даже если бы понимали,
они не могут ими полностью управлять.
01:52
So what I want to talk to you about todayCегодня
44
100446
1490
Сегодня я хочу поговорить с вами
01:53
is some of these things that we're ableв состоянии to do,
45
101936
2702
о некоторых из тех вещей,
что мы способны делать,
01:56
and then give us some ideasидеи
of how we mightмог бы go forwardвперед
46
104638
2763
и затем поделиться несколькими идеями
того, как мы могли бы
01:59
to moveпереехать some controlконтроль back into the handsРуки of usersпользователи.
47
107401
2769
передать управление частично
обратно в руки пользователей.
02:02
So this is Targetцель, the companyКомпания.
48
110170
1586
Это «Таргет», компания.
02:03
I didn't just put that logoлоготип
49
111756
1324
Я не просто так
разместила их логотип
02:05
on this poorбедные, pregnantбеременная woman'sбабий bellyживот.
50
113080
2170
на животе этой беременной женщины.
02:07
You mayмай have seenвидели this anecdoteанекдот that was printedпечатные
51
115250
1840
Вы могли видеть эту забавную историю,
02:09
in ForbesForbes magazineжурнал where Targetцель
52
117090
2061
напечатанную в журнале «Форбс»,
когда «Таргет»
02:11
sentпослал a flyerлистовка to this 15-year-old-лет girlдевушка
53
119151
2361
отправил 15-летней девушке флаер
02:13
with advertisementsобъявления and couponsкупоны
54
121512
1710
с рекламой и купонами
02:15
for babyдетка bottlesбутылки and diapersподгузники and cribsдетские кроватки
55
123222
2554
бутылочек, подгузников
и детских кроваток
02:17
two weeksнедель before she told her parentsродители
56
125776
1684
за две недели до того,
как она сказала родителям
02:19
that she was pregnantбеременная.
57
127460
1864
о своей беременности.
02:21
Yeah, the dadпапа was really upsetрассториться.
58
129324
2704
Да, папа был сильно расстроен.
02:24
He said, "How did Targetцель figureфигура out
59
132028
1716
Он сказал: «Как “Таргет” узнал,
02:25
that this highвысокая schoolшкола girlдевушка was pregnantбеременная
60
133744
1824
что эта старшеклассница беременна
02:27
before she told her parentsродители?"
61
135568
1960
до того, как она сказала родителям?»
02:29
It turnsвитки out that they have the purchaseпокупка historyистория
62
137528
2621
Оказывается, у них есть история покупок
02:32
for hundredsсотни of thousandsтысячи of customersклиенты
63
140149
2301
сотен тысяч потребителей,
и они рассчитывают
02:34
and they computeвычисление what they
call a pregnancyбеременность scoreГол,
64
142450
2730
так называемый индекс беременности,
02:37
whichкоторый is not just whetherбудь то or
not a woman'sбабий pregnantбеременная,
65
145180
2332
который не просто показывает,
беременна женщина или нет,
02:39
but what her dueв связи dateДата is.
66
147512
1730
а когда ей предстоит рожать.
02:41
And they computeвычисление that
67
149242
1304
Они не вычисляют его,
02:42
not by looking at the obviousочевидный things,
68
150546
1768
глядя на очевидные вещи
02:44
like, she's buyingпокупка a cribдетская кроватка or babyдетка clothesодежда,
69
152314
2512
типа покупки
детской кроватки или одежды.
02:46
but things like, she boughtкупил more vitaminsвитамины
70
154826
2943
Они видят, что девушка купила витаминов
02:49
than she normallyкак обычно had,
71
157769
1717
больше, чем обычно,
02:51
or she boughtкупил a handbagсумка
72
159486
1464
или купила сумку,
02:52
that's bigбольшой enoughдостаточно to holdдержать diapersподгузники.
73
160950
1711
в которую помещаются подгузники.
02:54
And by themselvesсамих себя, those purchasesпокупки don't seemказаться
74
162661
1910
Сами по себе эти покупки вроде бы
02:56
like they mightмог бы revealвыявить a lot,
75
164571
2469
и не говорят о многом,
02:59
but it's a patternшаблон of behaviorповедение that,
76
167040
1978
однако существует поведенческий шаблон,
03:01
when you take it in the contextконтекст
of thousandsтысячи of other people,
77
169018
3117
который можно применить в контексте
тысяч других людей,
03:04
startsначинается to actuallyна самом деле revealвыявить some insightsпонимание.
78
172135
2757
и уже он начинает показывать кое-что.
03:06
So that's the kindсвоего рода of thing that we do
79
174892
1793
Так что же именно мы делаем,
03:08
when we're predictingпрогнозирования stuffматериал
about you on socialСоциальное mediaСМИ.
80
176685
2567
когда предсказываем вещи
о вас в соцсетях.
03:11
We're looking for little
patternsузоры of behaviorповедение that,
81
179252
2796
Мы ищем крошечные поведенческие шаблоны,
03:14
when you detectобнаружить them amongсреди millionsмиллионы of people,
82
182048
2682
которые, если обнаружить их
среди миллионов людей,
03:16
letsДавайте us find out all kindsвиды of things.
83
184730
2706
позволяют нам узнать буквально всё.
03:19
So in my labлаборатория and with colleaguesколлеги,
84
187436
1747
В моей лаборатории мы с коллегами
03:21
we'veмы в developedразвитая mechanismsмеханизмы where we can
85
189183
1777
разработали механизмы,
которые позволяют нам
03:22
quiteдовольно accuratelyточно predictпрогнозировать things
86
190960
1560
достаточно точно предсказывать
03:24
like your politicalполитическая preferenceпредпочтение,
87
192520
1725
ваши политические предпочтения,
03:26
your personalityличность scoreГол, genderПол, sexualполовой orientationориентация,
88
194245
3752
ваш индекс личности,
пол, сексуальную ориентацию,
03:29
religionрелигия, ageвозраст, intelligenceинтеллект,
89
197997
2873
религию, возраст, интеллект,
03:32
alongвдоль with things like
90
200870
1394
а также
03:34
how much you trustдоверять the people you know
91
202264
1937
насколько вы доверяете людям,
которых вы знаете,
03:36
and how strongсильный those relationshipsотношения are.
92
204201
1804
и насколько сильны эти взаимоотношения.
03:38
We can do all of this really well.
93
206005
1785
Мы можем делать всё это очень хорошо.
03:39
And again, it doesn't come from what you mightмог бы
94
207790
2197
Ещё раз, это всё не возникает из данных,
03:41
think of as obviousочевидный informationИнформация.
95
209987
2102
которые вы привыкли считать очевидными.
03:44
So my favoriteлюбимый exampleпример is from this studyизучение
96
212089
2281
Мой любимый пример можно найти в работе,
03:46
that was publishedопубликованный this yearгод
97
214370
1240
опубликованной в этом году
03:47
in the Proceedingsпроизводство of the Nationalнациональный AcademiesАкадемии.
98
215610
1795
в Известиях Национальных Академий.
03:49
If you GoogleGoogle this, you'llВы будете find it.
99
217405
1285
Если вы погуглите, то найдёте её.
03:50
It's four4 pagesстраницы, easyлегко to readчитать.
100
218690
1872
Всего четыре страницы, легко читать.
03:52
And they lookedсмотрел at just people'sнародный Facebookfacebook likesнравится,
101
220562
3003
Они исследовали
только лайки людей в «Фэйсбуке»,
03:55
so just the things you like on Facebookfacebook,
102
223565
1920
только те вещи,
которые вам понравились в «Фэйсбуке»,
03:57
and used that to predictпрогнозировать all these attributesатрибуты,
103
225485
2138
и использовали эти данные для предсказания
всех перечисленных атрибутов,
03:59
alongвдоль with some other onesте,.
104
227623
1645
а также некоторых других.
04:01
And in theirих paperбумага they listedперечисленных the five5 likesнравится
105
229268
2961
В своей работе
они перечислили пять лайков,
04:04
that were mostбольшинство indicativeориентировочный of highвысокая intelligenceинтеллект.
106
232229
2787
которые больше всего служили признаком
высокого интеллекта.
04:07
And amongсреди those was likingсимпатия a pageстраница
107
235016
2324
Одним из этих лайков была страница
04:09
for curlyкудрявый friesкартофель фри. (LaughterСмех)
108
237340
1905
спирального картофеля фри. (Смех)
04:11
CurlyКудрявый friesкартофель фри are deliciousвкусно,
109
239245
2093
Спиральный картофель фри прелестен,
04:13
but likingсимпатия them does not necessarilyобязательно mean
110
241338
2530
но если он вам нравится,
это ещё не означает
04:15
that you're smarterумнее than the averageв среднем personчеловек.
111
243868
2080
что вы умнее среднего.
04:17
So how is it that one of the strongestсамый сильный indicatorsпоказатели
112
245948
3207
Как же так вышло,
что одним из сильнейших
04:21
of your intelligenceинтеллект
113
249155
1570
индикаторов вашего интеллекта
04:22
is likingсимпатия this pageстраница
114
250725
1447
является лайк этой страницы,
04:24
when the contentсодержание is totallyполностью irrelevantне имеет значения
115
252172
2252
в то время как её содержимое
абсолютно не соответствует
04:26
to the attributeатрибут that's beingявляющийся predictedпредсказанный?
116
254424
2527
предсказываемому атрибуту?
04:28
And it turnsвитки out that we have to look at
117
256951
1584
Оказывается, необходимо рассмотреть
04:30
a wholeвсе bunchгроздь of underlyingлежащий в основе theoriesтеории
118
258535
1618
целый ряд основополагающих теорий,
04:32
to see why we're ableв состоянии to do this.
119
260153
2569
чтобы увидеть,
почему мы можем это сделать.
04:34
One of them is a sociologicalсоциологический
theoryтеория calledназывается homophilyгомофилии,
120
262722
2913
Одной из них является социологическая
теория под названием гемофильность,
04:37
whichкоторый basicallyв основном saysговорит people are
friendsдрузья with people like them.
121
265635
3092
которая гласит, что люди дружат
с людьми, похожими на них.
04:40
So if you're smartумная, you tendиметь тенденцию to
be friendsдрузья with smartумная people,
122
268727
2014
Если вы умны, то стремитесь
дружить с умными людьми,
04:42
and if you're youngмолодой, you tendиметь тенденцию
to be friendsдрузья with youngмолодой people,
123
270741
2630
если вы юны, то стремитесь
дружить с молодыми людьми,
04:45
and this is well establishedустановленный
124
273371
1627
и это хорошо установлено
04:46
for hundredsсотни of yearsлет.
125
274998
1745
на протяжении столетий.
04:48
We alsoтакже know a lot
126
276743
1232
Мы также много знаем о том,
04:49
about how informationИнформация spreadsспреды throughчерез networksсети.
127
277975
2550
как информация
распространяется по сетям.
04:52
It turnsвитки out things like viralвирусный videosвидео
128
280525
1754
Оказывается, что такие вещи,
как вирусные видео
04:54
or Facebookfacebook likesнравится or other informationИнформация
129
282279
2406
или лайки в Фэйсбук,
или другая информация,
04:56
spreadsспреды in exactlyв точку the sameодна и та же way
130
284685
1888
распространяются в точности так же,
04:58
that diseasesболезни spreadраспространение throughчерез socialСоциальное networksсети.
131
286573
2454
как болезни распространяются в соцсетях.
05:01
So this is something we'veмы в studiedизучал for a long time.
132
289027
1791
Мы изучали это
на протяжении длительного времени.
05:02
We have good modelsмодели of it.
133
290818
1576
У нас есть хорошие модели.
05:04
And so you can put those things togetherвместе
134
292394
2157
Вы можете соединить эти вещи
05:06
and startНачало seeingвидя why things like this happenслучаться.
135
294551
3088
и начать видеть,
почему происходят такие штуки.
05:09
So if I were to give you a hypothesisгипотеза,
136
297639
1814
В качестве гипотезы я бы предложила вам,
05:11
it would be that a smartумная guy startedначал this pageстраница,
137
299453
3227
что некто умный создал эту страницу,
05:14
or maybe one of the first people who likedпонравилось it
138
302680
1939
или может быть один из тех,
кому она понравилась первой,
05:16
would have scoredзабил highвысокая on that testконтрольная работа.
139
304619
1736
имел высокий интеллект.
05:18
And they likedпонравилось it, and theirих friendsдрузья saw it,
140
306355
2288
Она понравилась им,
их друзья увидели это,
05:20
and by homophilyгомофилии, we know that
he probablyвероятно had smartумная friendsдрузья,
141
308643
3122
из гемофильности мы знаем, что
у него, вероятно, умные друзья.
05:23
and so it spreadраспространение to them,
and some of them likedпонравилось it,
142
311765
3056
Это распространилось на них,
некоторым из них понравилось,
05:26
and they had smartумная friendsдрузья,
143
314821
1189
у них тоже умные друзья.
05:28
and so it spreadраспространение to them,
144
316010
807
Это распространилось на них,
05:28
and so it propagatedразмножают throughчерез the networkсеть
145
316817
1973
и распространялось по сети
05:30
to a hostхозяин of smartумная people,
146
318790
2569
массе умных людей,
05:33
so that by the endконец, the actionдействие
147
321359
2056
в результате чего лайк
05:35
of likingсимпатия the curlyкудрявый friesкартофель фри pageстраница
148
323415
2544
страницы со спиральным картофелем фри
05:37
is indicativeориентировочный of highвысокая intelligenceинтеллект,
149
325959
1615
является индикатором
высокого интеллекта,
05:39
not because of the contentсодержание,
150
327574
1803
не из-за содержимого,
05:41
but because the actualфактический actionдействие of likingсимпатия
151
329377
2522
но из-за того, что это действие, лайк,
05:43
reflectsотражает back the commonобщий attributesатрибуты
152
331899
1900
отражает общие атрибуты
05:45
of other people who have doneсделанный it.
153
333799
2468
других людей,
которые тоже совершили его.
05:48
So this is prettyСимпатичная complicatedсложно stuffматериал, right?
154
336267
2897
Довольно сложно, да?
05:51
It's a hardжесткий thing to sitсидеть down and explainобъяснять
155
339164
2199
Тяжело сесть и объяснить это
05:53
to an averageв среднем userпользователь, and even if you do,
156
341363
2848
среднему пользователю,
и даже если это сделать,
05:56
what can the averageв среднем userпользователь do about it?
157
344211
2188
что сможет сделать средний пользователь?
05:58
How do you know that
you've likedпонравилось something
158
346399
2048
Как вы узнаете,
что вам понравилось что-то,
06:00
that indicatesуказывает a traitчерта for you
159
348447
1492
что указывает
на свойство вашей личности,
06:01
that's totallyполностью irrelevantне имеет значения to the
contentсодержание of what you've likedпонравилось?
160
349939
3545
которое совершенно не имеет отношения
к содержимому того, что вам понравилось?
06:05
There's a lot of powerмощность that usersпользователи don't have
161
353484
2546
У пользователей почти нет возможности
06:08
to controlконтроль how this dataданные is used.
162
356030
2230
управлять использованием этих данных.
06:10
And I see that as a realреальный
problemпроблема going forwardвперед.
163
358260
3112
Мне это видится
большой проблемой в будущем.
06:13
So I think there's a coupleпара pathsпути
164
361372
1977
Я думаю, есть пара решений,
06:15
that we want to look at
165
363349
1001
которые следует рассмотреть,
06:16
if we want to give usersпользователи some controlконтроль
166
364350
1910
если мы хотим дать пользователям
возможность частично управлять
06:18
over how this dataданные is used,
167
366260
1740
тем, как используются эти данные,
06:20
because it's not always going to be used
168
368000
1940
потому что не во всех случаях они будут
06:21
for theirих benefitвыгода.
169
369940
1381
использоваться для их выгоды.
06:23
An exampleпример I oftenдовольно часто give is that,
170
371321
1422
Я часто привожу такой пример:
06:24
if I ever get boredскучающий beingявляющийся a professorпрофессор,
171
372743
1646
если мне когда-нибудь
надоест быть профессором,
06:26
I'm going to go startНачало a companyКомпания
172
374389
1653
я создам компанию,
06:28
that predictsпредсказывает all of these attributesатрибуты
173
376042
1454
которая предсказывает все эти атрибуты
06:29
and things like how well you work in teamsкоманды
174
377496
1602
и вещи типа того, насколько хорошо
вы работаете в командах,
06:31
and if you're a drugлекарственное средство userпользователь, if you're an alcoholicалкоголик.
175
379098
2671
являетесь ли вы
наркоманом или алкоголиком.
06:33
We know how to predictпрогнозировать all that.
176
381769
1440
Мы знаем, как всё это предсказать.
06:35
And I'm going to sellпродавать reportsотчеты
177
383209
1761
Я буду продавать отчёты
06:36
to H.R. companiesкомпании and bigбольшой businessesбизнес
178
384970
2100
компаниям по найму персонала
и большим корпорациям,
06:39
that want to hireНаем you.
179
387070
2273
которые хотят вас нанять.
06:41
We totallyполностью can do that now.
180
389343
1177
Мы безусловно можем делать это сейчас.
06:42
I could startНачало that businessбизнес tomorrowзавтра,
181
390520
1788
Я могла бы начать этот бизнес завтра,
06:44
and you would have
absolutelyабсолютно no controlконтроль
182
392308
2052
и у вас не было бы абсолютно
никакого контроля за мной
06:46
over me usingс помощью your dataданные like that.
183
394360
2138
в плане подобного
использования ваших данных.
06:48
That seemsкажется to me to be a problemпроблема.
184
396498
2292
Для меня это выглядит как проблема.
06:50
So one of the pathsпути we can go down
185
398790
1910
Одно из решений,
которое мы можем использовать,
06:52
is the policyполитика and lawзакон pathдорожка.
186
400700
2032
это путь политики и закона.
06:54
And in some respectsпочтение, I think
that that would be mostбольшинство effectiveэффективный,
187
402732
3046
В некотором отношении, я думаю,
он был бы наиболее эффективным,
06:57
but the problemпроблема is we'dмы б
actuallyна самом деле have to do it.
188
405778
2756
но проблема в том, что мы
фактически должны сделать это.
07:00
ObservingНаблюдение our politicalполитическая processобработать in actionдействие
189
408534
2780
Наблюдение за нашим
политическим процессом в действии
07:03
makesмарки me think it's highlyвысоко unlikelyвряд ли
190
411314
2379
заставляет меня думать,
что крайне маловероятно
07:05
that we're going to get a bunchгроздь of representativesпредставители
191
413693
1597
собрать вместе группу представителей
07:07
to sitсидеть down, learnучить about this,
192
415290
1986
для изучения данной проблемы
07:09
and then enactпредписывать sweepingподметание changesизменения
193
417276
2106
и затем кардинально поменять
07:11
to intellectualинтеллектуальной propertyимущество lawзакон in the U.S.
194
419382
2157
законы США
об интеллектуальной собственности,
07:13
so usersпользователи controlконтроль theirих dataданные.
195
421539
2461
чтобы пользователи
управляли своими данными.
07:16
We could go the policyполитика routeмаршрут,
196
424000
1304
Мы могли бы пойти путём
норм использования данных,
07:17
where socialСоциальное mediaСМИ companiesкомпании say,
197
425304
1479
когда компании-владельцы соцсетей
говорят:
07:18
you know what? You ownсвоя your dataданные.
198
426783
1402
«Знаете что? Вы владеете своими данными.
07:20
You have totalВсего controlконтроль over how it's used.
199
428185
2489
У вас полный контроль
за тем, как они используются».
07:22
The problemпроблема is that the revenueдоход modelsмодели
200
430674
1848
Проблема в том, что модели доходов
07:24
for mostбольшинство socialСоциальное mediaСМИ companiesкомпании
201
432522
1724
большинства этих компаний
07:26
relyполагаться on sharingразделение or exploitingэксплуатации
users'пользователей dataданные in some way.
202
434246
4031
основываются на совместном использовании
или эксплуатации данных пользователей.
07:30
It's sometimesиногда said of Facebookfacebook that the usersпользователи
203
438277
1833
Иногда в «Фэйсбук»
говорят, что пользователи
07:32
aren'tне the customerклиент, they're the productпродукт.
204
440110
2528
не являются потребителем,
они являются товаром.
07:34
And so how do you get a companyКомпания
205
442638
2714
Как вы заставите компанию
07:37
to cedeуступать controlконтроль of theirих mainглавный assetактив
206
445352
2558
передать права на их основное имущество
07:39
back to the usersпользователи?
207
447910
1249
обратно пользователям?
07:41
It's possibleвозможное, but I don't think it's something
208
449159
1701
Это возможно, но я не думаю, что
07:42
that we're going to see changeизменение quicklyбыстро.
209
450860
2320
мы увидим это изменение быстро.
07:45
So I think the other pathдорожка
210
453180
1500
Я думаю, что другой способ,
07:46
that we can go down that's
going to be more effectiveэффективный
211
454680
2288
который мы можем использовать
и который будет более эффективным,
07:48
is one of more scienceнаука.
212
456968
1508
это — больше науки.
07:50
It's doing scienceнаука that allowedпозволил us to developразвивать
213
458476
2510
Во-первых,
именно занятие наукой позволило нам
07:52
all these mechanismsмеханизмы for computingвычисления
214
460986
1750
создать все эти механизмы для расчёта
07:54
this personalличный dataданные in the first placeместо.
215
462736
2052
персональных данных.
07:56
And it's actuallyна самом деле very similarаналогичный researchисследование
216
464788
2106
Очень похожие исследования
07:58
that we'dмы б have to do
217
466894
1438
необходимо провести
08:00
if we want to developразвивать mechanismsмеханизмы
218
468332
2386
для разработки механизмов,
08:02
that can say to a userпользователь,
219
470718
1421
которые могут сказать пользователю:
08:04
"Here'sВот the riskриск of that actionдействие you just tookвзял."
220
472139
2229
«Вот риск от действия, которое вы
только что предприняли».
08:06
By likingсимпатия that Facebookfacebook pageстраница,
221
474368
2080
Поставив лайк этой странице «Фэйсбук»,
08:08
or by sharingразделение this pieceкусок of personalличный informationИнформация,
222
476448
2535
раскрыв этот кусочек
персональных данных,
08:10
you've now improvedулучшен my abilityспособность
223
478983
1502
вы улучшили мою возможность
08:12
to predictпрогнозировать whetherбудь то or not you're usingс помощью drugsнаркотики
224
480485
2086
предсказать, используете ли вы наркотики
08:14
or whetherбудь то or not you get
alongвдоль well in the workplaceрабочее место.
225
482571
2862
или насколько хорошо вы ладите
с коллегами на рабочем месте.
08:17
And that, I think, can affectаффект whetherбудь то or not
226
485433
1848
Это, я полагаю, может повлиять на то,
08:19
people want to shareдоля something,
227
487281
1510
захотят ли пользователи делиться чем-то,
08:20
keep it privateчастный, or just keep it offlineне в сети altogetherв целом.
228
488791
3239
скрыть от публики
или вообще не размещать в сети.
08:24
We can alsoтакже look at things like
229
492030
1563
Мы также можем
посмотреть на такие вещи, как
08:25
allowingпозволяющий people to encryptшифровать dataданные that they uploadзагружать,
230
493593
2728
предоставление пользователям возможности
шифрования загружаемых ими данных,
08:28
so it's kindсвоего рода of invisibleневидимый and worthlessбесполезный
231
496321
1855
чтобы они были, своего рода, невидимыми
и бесполезными
08:30
to sitesместа like Facebookfacebook
232
498176
1431
для сайтов типа «Фэйсбук»
08:31
or thirdв третьих partyвечеринка servicesСервисы that accessдоступ it,
233
499607
2629
или сторонних служб,
которые имеют доступ к ним,
08:34
but that selectВыбрать usersпользователи who the personчеловек who postedотправил it
234
502236
3247
но чтобы при этом избранные пользователи,
которых добавил человек,
08:37
want to see it have accessдоступ to see it.
235
505483
2670
разместивший информацию,
могли её видеть.
08:40
This is all superсупер excitingзахватывающе researchисследование
236
508153
2166
Это очень увлекательное исследование
08:42
from an intellectualинтеллектуальной perspectiveперспективы,
237
510319
1620
с интеллектуальной точки зрения,
08:43
and so scientistsученые are going to be willingготовы to do it.
238
511939
1859
поэтому учёные
захотят выполнить его.
08:45
So that givesдает us an advantageпреимущество over the lawзакон sideбоковая сторона.
239
513798
3610
Это даёт нам преимущество
над стороной закона.
08:49
One of the problemsпроблемы that people bringприносить up
240
517408
1725
Одна из проблем,
о которой люди заявляют,
08:51
when I talk about this is, they say,
241
519133
1595
когда я рассказываю об этом —
они говорят:
08:52
you know, if people startНачало
keepingхранение all this dataданные privateчастный,
242
520728
2646
«Если люди начнут
прятать все эти данные,
08:55
all those methodsметоды that you've been developingразвивающийся
243
523374
2113
все эти методы,
которые вы разрабатываете
08:57
to predictпрогнозировать theirих traitsчерты are going to failпотерпеть неудачу.
244
525487
2653
для предсказания их черт характера,
не будут работать».
09:00
And I say, absolutelyабсолютно, and for me, that's successуспех,
245
528140
3520
Я отвечаю: «Совершенно верно,
и для меня — это успех».
09:03
because as a scientistученый,
246
531660
1786
Поскольку, как у учёного, моей целью
09:05
my goalЦель is not to inferделать вывод informationИнформация about usersпользователи,
247
533446
3688
не является
строить догадки о пользователях,
09:09
it's to improveулучшать the way people interactвзаимодействовать onlineонлайн.
248
537134
2767
а является улучшение того,
как люди взаимодействуют онлайн.
09:11
And sometimesиногда that involvesвключает в себя
inferringвыводя things about them,
249
539901
3218
Иногда это включает в себя
построение догадок о них,
09:15
but if usersпользователи don't want me to use that dataданные,
250
543119
3022
но если пользователи не хотят,
чтобы я использовала эти данные,
09:18
I think they should have the right to do that.
251
546141
2038
я думаю, у них должно быть
право отказать мне.
09:20
I want usersпользователи to be informedпроинформировал and consentingсоглашаясь
252
548179
2651
Я хочу, чтобы пользователи
знали и были согласны
09:22
usersпользователи of the toolsинструменты that we developразвивать.
253
550830
2112
на использование инструментов,
которые мы разрабатываем.
09:24
And so I think encouragingобнадеживающий this kindсвоего рода of scienceнаука
254
552942
2952
Я думаю, что поощрение этого типа науки
09:27
and supportingподдержки researchersисследователи
255
555894
1346
и поддержка исследователей,
09:29
who want to cedeуступать some of that controlконтроль back to usersпользователи
256
557240
3023
которые хотят передать часть управления
обратно пользователям
09:32
and away from the socialСоциальное mediaСМИ companiesкомпании
257
560263
2311
от компаний-владельцев соцсетей,
09:34
meansозначает that going forwardвперед, as these toolsинструменты evolveэволюционировать
258
562574
2671
означает, что в будущем,
по мере развития
09:37
and advanceпродвижение,
259
565245
1476
и усложнения этих инструментов,
09:38
meansозначает that we're going to have an educatedобразованный
260
566721
1414
у нас будут образованные
09:40
and empoweredуполномоченный userпользователь baseбаза,
261
568135
1694
и правомочные пользователи.
09:41
and I think all of us can agreeдать согласие
262
569829
1100
И я думаю, что все мы согласимся,
09:42
that that's a prettyСимпатичная idealидеальный way to go forwardвперед.
263
570929
2564
что это идеальный путь в будущее.
09:45
Thank you.
264
573493
2184
Спасибо.
09:47
(ApplauseАплодисменты)
265
575677
3080
(Аплодисменты)
Translated by Stanislav Korotygin
Reviewed by Aliaksandr Autayeu

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com