ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Goldbeck: Teka-teki kentang goreng keriting: Kenapa "suka" di media sosial mengatakan lebih banyak dari yang Anda kira

Filmed:
2,366,837 views

Apakah Anda suka kentang goreng keriting? Apakah Anda pernah memilih "suka" untuk gambarnya di Facebook? Tontonlah pembicaraan ini untuk mengetahui hal-hal yang mengejutkan tentang bagaimana Facebook (dan media sosial lainnya) dapat memprediksi tentang diri Anda dari aktivitas acak "suka" dan berbagi yang Anda lakukan. Ilmuwan komputer, Jennifer Golbeck, menjelaskan bagaimana hal ini terjadi, bagaimana sejumlah bentuk pemanfaatan dari teknologi tidak selalu untuk hal yang baik -- dan kenapa ia berpikir bahwa kita sebaiknya mengembalikan kontrol terhadap informasi kepada pemilik yang semestinya.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberingat that first decadedasawarsa of the webweb,
0
738
1997
Jika Anda ingat dekade pertama dari web
00:14
it was really a staticstatis placetempat.
1
2735
2255
ia merupakan tempat yang sangat statis
00:16
You could go onlineon line, you could look at pageshalaman,
2
4990
2245
Anda bisa online, melihat-lihat laman,
00:19
and they were put up eitherantara by organizationsorganisasi
3
7235
2513
dan laman-laman ini milik organisasi besar
yang memiliki tim untuk membuatnya
00:21
who had teamstim to do it
4
9748
1521
00:23
or by individualsindividu who were really tech-savvytech-savvy
5
11269
2229
atau oleh individu yang sangat
mahfum teknologi
00:25
for the time.
6
13498
1737
saat itu.
00:27
And with the risenaik of socialsosial mediamedia
7
15235
1575
Dan dengan munculnya media sosial
00:28
and socialsosial networksjaringan in the earlyawal 2000s,
8
16810
2399
dan jejaring sosial di awal tahun 2000-an,
00:31
the webweb was completelysama sekali changedberubah
9
19209
2149
web berubah secara drastis
00:33
to a placetempat where now the vastluas majoritymayoritas of contentkonten
10
21358
3608
kini menjadi tempat dimana
mayoritas konten
00:36
we interactberinteraksi with is put up by averagerata-rata userspengguna,
11
24966
3312
yang berinteraksi dengan kita
dimiliki oleh pengguna biasa,
00:40
eitherantara in YouTubeYouTube videosvideo or blogblog postsposting
12
28278
2697
baik video di Youtube atau posting blog
00:42
or productproduk reviewsUlasan or socialsosial mediamedia postingsposting.
13
30975
3315
atau ulasan produk atau
posting media sosial.
00:46
And it's alsojuga becomemenjadi a much more interactiveinteraktif placetempat,
14
34290
2347
Dan menjadi tempat yang sangat interaktif
00:48
where people are interactingberinteraksi with otherslainnya,
15
36637
2637
dimana orang dapat berinteraksi
satu sama lain
00:51
they're commentingKomentar, they're sharingberbagi,
16
39274
1696
saling memberi komentar, berbagi,
00:52
they're not just readingbacaan.
17
40970
1614
orang tidak lagi hanya membaca.
Facebook bukan satu-satunya,
00:54
So FacebookFacebook is not the only placetempat you can do this,
18
42584
1866
00:56
but it's the biggestterbesar,
19
44450
1098
tapi ia yang terbesar,
00:57
and it servesmelayani to illustratemenjelaskan the numbersangka.
20
45548
1784
dan cukup untuk memberi gambaran.
00:59
FacebookFacebook has 1.2 billionmilyar userspengguna perper monthbulan.
21
47332
3477
Facebook memiliki 1,2 miliar pengguna
setiap bulannya
01:02
So halfsetengah the Earth'sBumi InternetInternet populationpopulasi
22
50809
1930
Jadi separuh dari populasi internet Bumi
01:04
is usingmenggunakan FacebookFacebook.
23
52739
1653
menggunakan Facebook.
01:06
They are a sitesitus, alongsepanjang with otherslainnya,
24
54392
1932
Mereka adalah laman, seperti lainnya,
01:08
that has alloweddiizinkan people to createmembuat an onlineon line personapersona
25
56324
3219
yang memungkinkan orang untuk
menciptakan profil online
01:11
with very little technicalteknis skillketrampilan,
26
59543
1782
dengan kemampuan teknis yang minim,
01:13
and people respondedmenanggapi by puttingmenempatkan hugebesar amountsjumlah
27
61325
2476
dan orang meresponnya dengan
menaruh sejumlah besar
01:15
of personalpribadi datadata onlineon line.
28
63801
1983
data-data pribadi secara online
01:17
So the resulthasil is that we have behavioralperilaku,
29
65784
2543
Sebagai hasilnya,
kami memiliki data tentang
01:20
preferencepreferensi, demographicdemografis datadata
30
68327
1986
kebiasaan, preferensi, demografis
01:22
for hundredsratusan of millionsjutaan of people,
31
70313
2101
dari ratusan juta orang,
01:24
whichyang is unprecedentedbelum pernah terjadi sebelumnya in historysejarah.
32
72414
2026
hal yang tidak pernah terjadi sebelumnya.
01:26
And as a computerkomputer scientistilmuwan,
what this meanscara is that
33
74440
2560
Bagi saya sebagai ilmuwan komputer,
ini berarti
01:29
I've been ablesanggup to buildmembangun modelsmodel
34
77000
1664
saya dapat membuat model-model
01:30
that can predictmeramalkan all sortsmacam of hiddentersembunyi attributesatribut
35
78664
2322
yang bisa memprediksi segala atribut tersembunyi
01:32
for all of you that you don't even know
36
80986
2284
dari Anda semua, bahkan tidak mengetahui
01:35
you're sharingberbagi informationinformasi about.
37
83270
2202
bahwa informasi ini telah Anda berikan.
01:37
As scientistsilmuwan, we use that to help
38
85472
2382
Sebagai ilmuwan, kami menggunakannya untuk
01:39
the way people interactberinteraksi onlineon line,
39
87854
2114
membantu orang berinteraksi secara online
01:41
but there's lesskurang altruisticaltruistik applicationsaplikasi,
40
89968
2499
tapi ada aplikasi yang kurang altruistik,
01:44
and there's a problemmasalah in that userspengguna don't really
41
92467
2381
dan akan menjadi masalah jika pengguna
tidak begitu
01:46
understandmemahami these techniquesteknik and how they work,
42
94848
2470
memahami teknik ini dan
bagaimana cara kerjanya
01:49
and even if they did, they don't
have a lot of controlkontrol over it.
43
97318
3128
dan walau mereka paham,
mereka tidak punya kontrol atas hal ini.
01:52
So what I want to talk to you about todayhari ini
44
100446
1490
Jadi yang ingin saya sampaikan
01:53
is some of these things that we're ablesanggup to do,
45
101936
2702
adalah hal-hal yang dapat kami lakukan
01:56
and then give us some ideaside ide
of how we mightmungkin go forwardmeneruskan
46
104638
2763
yang kemudian memberi ide
bagaimana ke langkah berikutnya
01:59
to movepindah some controlkontrol back into the handstangan of userspengguna.
47
107401
2769
untuk mengembalikan kontrol
ke tangan para pengguna.
02:02
So this is TargetTarget, the companyperusahaan.
48
110170
1586
Ini adalah perusahaan Target
02:03
I didn't just put that logologo
49
111756
1324
Saya tidak menaruh logo begitu saja
02:05
on this poormiskin, pregnanthamil woman'swanita bellyperut.
50
113080
2170
di atas perut wanita hamil ini
02:07
You maymungkin have seenterlihat this anecdoteanekdot that was printeddicetak
51
115250
1840
Anda mungkin pernah melihat anekdot
02:09
in ForbesForbes magazinemajalah where TargetTarget
52
117090
2061
yang dicetak majalah Forbes
dimana Target
02:11
sentdikirim a flyerFlyer to this 15-year-old-tahun girlgadis
53
119151
2361
mengirimkan brosur kepada gadis
berumur 15 tahun
02:13
with advertisementsiklan and couponskupon
54
121512
1710
beserta iklan dan kupon belanja
02:15
for babybayi bottlesbotol and diaperspopok and cribstempat tidur bayi
55
123222
2554
untuk botol bayi, popok dan tempat tidur
02:17
two weeksminggu before she told her parentsorangtua
56
125776
1684
2 minggu sebelum ia memberitahu
orang tuanya
02:19
that she was pregnanthamil.
57
127460
1864
bahwa ia sedang hamil.
02:21
Yeah, the dadayah was really upsetkecewa.
58
129324
2704
Yah, bapak anak ini tentu sangat marah.
02:24
He said, "How did TargetTarget figureangka out
59
132028
1716
Ia berkata, "Bagaimana Target tahu
02:25
that this hightinggi schoolsekolah girlgadis was pregnanthamil
60
133744
1824
bahwa anak SMA ini sedang hamil
02:27
before she told her parentsorangtua?"
61
135568
1960
sebelum dia memberitahu orang tuanya?"
02:29
It turnsberubah out that they have the purchasemembeli historysejarah
62
137528
2621
Ternyata Target memiliki sejarah belanja
02:32
for hundredsratusan of thousandsribuan of customerspelanggan
63
140149
2301
ratusan ribu pelanggannya
02:34
and they computemenghitung what they
call a pregnancykehamilan scoreskor,
64
142450
2730
dan mereka menghitung skor kehamilan,
02:37
whichyang is not just whetherapakah or
not a woman'swanita pregnanthamil,
65
145180
2332
bukan hanya apakah hamil tidaknya
seorang wanita
02:39
but what her duekarena datetanggal is.
66
147512
1730
tapi juga kapan ia melahirkan.
02:41
And they computemenghitung that
67
149242
1304
Dan mereka menghitung
02:42
not by looking at the obviousjelas things,
68
150546
1768
tidak berdasarkan hal-hal yang kentara
02:44
like, she's buyingpembelian a cribboks bayi or babybayi clothespakaian,
69
152314
2512
seperti membeli tempat tidur
atau baju bayi,
02:46
but things like, she boughtmembeli more vitaminsVitamin
70
154826
2943
tapi hal-hal seperti belanja lebih
banyak vitamin
02:49
than she normallybiasanya had,
71
157769
1717
dari kebiasaan normalnya,
02:51
or she boughtmembeli a handbagtas tangan
72
159486
1464
atau membeli tas tangan yang
02:52
that's bigbesar enoughcukup to holdmemegang diaperspopok.
73
160950
1711
cukup besar untuk menyimpan popok
02:54
And by themselvesdiri, those purchasespembelian don't seemterlihat
74
162661
1910
Dan mereka, aktivitas belanja ini
02:56
like they mightmungkin revealmengungkapkan a lot,
75
164571
2469
tidak tampak dapat mengungkapkan banyak
02:59
but it's a patternpola of behaviortingkah laku that,
76
167040
1978
tapi ini adalah pola tingkah laku
03:01
when you take it in the contextkonteks
of thousandsribuan of other people,
77
169018
3117
dimana ketika Anda mengambil
konteksnya dari ribuan orang lainnya
03:04
startsdimulai to actuallysebenarnya revealmengungkapkan some insightswawasan.
78
172135
2757
mulai memunculkan informasi ini.
03:06
So that's the kindjenis of thing that we do
79
174892
1793
Jadi hal-hal yang kami lakukan
03:08
when we're predictingmemprediksi stuffbarang
about you on socialsosial mediamedia.
80
176685
2567
ketika kami memprediksi tentang Anda
dari media sosial
03:11
We're looking for little
patternspola of behaviortingkah laku that,
81
179252
2796
Kami mencari dari pola tingkah laku
yang kecil dimana
03:14
when you detectmendeteksi them amongantara millionsjutaan of people,
82
182048
2682
ketika Anda mendeteksinya dari
jutaan orang
03:16
letsmari kita us find out all kindsmacam of things.
83
184730
2706
memungkinkan kami untuk
menemukan banyak hal.
Di laboratorium saya dan beberapa kolega,
03:19
So in my lablaboratorium and with colleaguesrekan kerja,
84
187436
1747
03:21
we'vekita sudah developeddikembangkan mechanismsmekanisme where we can
85
189183
1777
membangun mekanisme dimana kami dapat
03:22
quitecukup accuratelysecara akurat predictmeramalkan things
86
190960
1560
memprediksi sesuatu dengan tepat
03:24
like your politicalpolitik preferencepreferensi,
87
192520
1725
seperti pilihan politik Anda,
03:26
your personalitykepribadian scoreskor, genderjenis kelamin, sexualseksual orientationorientasi,
88
194245
3752
skor kepribadian, jenis kelamin, orientasi seksual Anda
03:29
religionagama, ageusia, intelligenceintelijen,
89
197997
2873
agama, usia, kecerdasan
03:32
alongsepanjang with things like
90
200870
1394
dan juga hal-hal seperti
seberapa Anda mempercayai
orang yang Anda kenal
03:34
how much you trustkepercayaan the people you know
91
202264
1937
03:36
and how strongkuat those relationshipshubungan are.
92
204201
1804
dan seberapa kuat hubungan tersebut.
03:38
We can do all of this really well.
93
206005
1785
Kami dapat melakukannya dengan baik.
03:39
And again, it doesn't come from what you mightmungkin
94
207790
2197
Dan lagi, ini tidak datang dari
03:41
think of as obviousjelas informationinformasi.
95
209987
2102
informasi yang Anda anggap gamblang.
03:44
So my favoritefavorit examplecontoh is from this studybelajar
96
212089
2281
Contoh penelitian favorit saya
tentang hal ini
03:46
that was publishedditerbitkan this yeartahun
97
214370
1240
dipublikasikan tahun ini
di Proceedings of the National Academies
03:47
in the ProceedingsProses of the NationalNasional AcademiesAkademi.
98
215610
1795
03:49
If you GoogleGoogle this, you'llAnda akan find it.
99
217405
1285
Bisa didapatkan dari Google
03:50
It's fourempat pageshalaman, easymudah to readBaca baca.
100
218690
1872
Hanya 4 halaman, mudah untuk dibaca.
03:52
And they lookedtampak at just people'sorang-orang FacebookFacebook likessuka,
101
220562
3003
Mereka hanya melihat hal yang
orang "suka" di Facebook,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
jadi hanya dengan hal yang Anda sukai
di Facebook,
03:57
and used that to predictmeramalkan all these attributesatribut,
103
225485
2138
memakainya memprediksi semua atribut
03:59
alongsepanjang with some other onesyang.
104
227623
1645
bersama dengan yang lainnya.
04:01
And in theirmereka paperkertas they listedterdaftar the fivelima likessuka
105
229268
2961
Di makalahnya mereka memdaftar
lima hal yang disukai
04:04
that were mostpaling indicativeindikasi of hightinggi intelligenceintelijen.
106
232229
2787
yang mengindikasikan tingkat
kecerdasan tinggi.
04:07
And amongantara those was likingkeinginan a pagehalaman
107
235016
2324
Dan diantaranya adalah
menyukai sebuah laman
04:09
for curlykeriting frieskentang goreng. (LaughterTawa)
108
237340
1905
tentang kentang goreng keriting. (tertawa)
04:11
CurlyKeriting frieskentang goreng are deliciouslezat,
109
239245
2093
Kentang goreng keriting memang enak,
04:13
but likingkeinginan them does not necessarilyperlu mean
110
241338
2530
tapi menyukainya tidak berarti
bahwa Anda lebih cerdas dari
orang pada umumnya.
04:15
that you're smarterlebih pintar than the averagerata-rata personorang.
111
243868
2080
04:17
So how is it that one of the strongestterkuat indicatorsindikator
112
245948
3207
Jadi bagaimana kentang menjadi
salah satu indikator terkuat
04:21
of your intelligenceintelijen
113
249155
1570
dari tingkat kecerdasaan Anda
04:22
is likingkeinginan this pagehalaman
114
250725
1447
adalah dengan menyukai laman
04:24
when the contentkonten is totallysama sekali irrelevanttidak relevan
115
252172
2252
ketika kontennya tidak relevan sama sekali
04:26
to the attributeatribut that's beingmakhluk predicteddiprediksi?
116
254424
2527
dengan atribut yang diprediksikan?
04:28
And it turnsberubah out that we have to look at
117
256951
1584
Pada kenyataannya kami harus melihat
04:30
a wholeseluruh bunchbanyak of underlyingmendasari theoriesteori
118
258535
1618
sejumlah besar teori pendukung
04:32
to see why we're ablesanggup to do this.
119
260153
2569
untuk mengetahui kenapa kami bisa melakukan hal ini.
04:34
One of them is a sociologicalSosiologi
theoryteori calledbernama homophilyhomophily,
120
262722
2913
Salah satu diantaranya adalah
teori sosiologi, homofili
04:37
whichyang basicallypada dasarnya saysmengatakan people are
friendsteman with people like them.
121
265635
3092
mengatakan bahwa orang berteman
dengan orang yang mirip mereka.
Orang cerdas umumnya berteman
dengan orang cerdas,
04:40
So if you're smartpintar, you tendcenderung to
be friendsteman with smartpintar people,
122
268727
2014
04:42
and if you're youngmuda, you tendcenderung
to be friendsteman with youngmuda people,
123
270741
2630
dan orang muda umumnya berteman
dengan orang muda,
04:45
and this is well establishedmapan
124
273371
1627
dan teori ini sudah terbukti
04:46
for hundredsratusan of yearstahun.
125
274998
1745
selama ratusan tahun.
04:48
We alsojuga know a lot
126
276743
1232
Kami juga tahu banyak
04:49
about how informationinformasi spreadsmenyebar throughmelalui networksjaringan.
127
277975
2550
tentang bagaimana informasi
tersebar lewat jaringan.
04:52
It turnsberubah out things like viralvirus videosvideo
128
280525
1754
Seperti video-video viral
04:54
or FacebookFacebook likessuka or other informationinformasi
129
282279
2406
atau "suka" di Facebook atau
informasi lainnya
04:56
spreadsmenyebar in exactlypersis the samesama way
130
284685
1888
menyebar dengan cara yang sama persis
04:58
that diseasespenyakit spreadpenyebaran throughmelalui socialsosial networksjaringan.
131
286573
2454
menyebar seperti penyakit menular
di media sosial.
05:01
So this is something we'vekita sudah studiedbelajar for a long time.
132
289027
1791
Inilah yang kami pelajari sejak lama.
05:02
We have good modelsmodel of it.
133
290818
1576
Kami punya model yang bagus untuk itu.
05:04
And so you can put those things togetherbersama
134
292394
2157
Sehingga Anda dapat memahami
05:06
and startmulai seeingmelihat why things like this happenterjadi.
135
294551
3088
dan mulai melihat kenapa hal ini
bisa terjadi.
05:09
So if I were to give you a hypothesishipotesa,
136
297639
1814
Jika saya boleh memberikan hipotesa,
05:11
it would be that a smartpintar guy starteddimulai this pagehalaman,
137
299453
3227
bahwa seorang pemuda cerdas yang
memulai laman ini,
atau salah satu orang pertama
yang menyukainya
05:14
or maybe one of the first people who likedmenyukai it
138
302680
1939
05:16
would have scoredmencetak hightinggi on that testuji.
139
304619
1736
mempunyai skor tinggi di tes itu.
05:18
And they likedmenyukai it, and theirmereka friendsteman saw it,
140
306355
2288
Dan mereka menyukainya, lalu
temannya melihat,
05:20
and by homophilyhomophily, we know that
he probablymungkin had smartpintar friendsteman,
141
308643
3122
dan menurut homofili, dia kemungkinan
punya teman yang cerdas,
05:23
and so it spreadpenyebaran to them,
and some of them likedmenyukai it,
142
311765
3056
kemudian menyebar di antara mereka,
dan beberapa menyukainya
mereka punya teman cerdas,
05:26
and they had smartpintar friendsteman,
143
314821
1189
05:28
and so it spreadpenyebaran to them,
144
316010
807
dan meluas ke mereka,
05:28
and so it propagateddisebarkan throughmelalui the networkjaringan
145
316817
1973
dan juga tersebar melalui jejaring
05:30
to a hosttuan rumah of smartpintar people,
146
318790
2569
sampai ke orang-orang cerdas,
05:33
so that by the endakhir, the actiontindakan
147
321359
2056
hingga pada akhirnya, tindakan
05:35
of likingkeinginan the curlykeriting frieskentang goreng pagehalaman
148
323415
2544
menyukai laman kentang goreng keriting
05:37
is indicativeindikasi of hightinggi intelligenceintelijen,
149
325959
1615
mengindikasikan kecedasan tinggi,
05:39
not because of the contentkonten,
150
327574
1803
bukan karena materi kontennya,
05:41
but because the actualsebenarnya actiontindakan of likingkeinginan
151
329377
2522
tetapi karena tindakan menyukai
05:43
reflectsmencerminkan back the commonumum attributesatribut
152
331899
1900
merefleksikan kembali atribut umum dari
05:45
of other people who have doneselesai it.
153
333799
2468
orang lain yang juga melakukannya.
05:48
So this is prettycantik complicatedrumit stuffbarang, right?
154
336267
2897
Jadi lumayan rumit bukan?
05:51
It's a hardkeras thing to sitduduk down and explainmenjelaskan
155
339164
2199
Sulit untuk duduk dan menjelaskan
05:53
to an averagerata-rata userpengguna, and even if you do,
156
341363
2848
kepada pengguna biasa, dan bahkan jika
Anda lakukan ini,
05:56
what can the averagerata-rata userpengguna do about it?
157
344211
2188
apa yang bisa mereka lakukan
terhadap hal ini?
05:58
How do you know that
you've likedmenyukai something
158
346399
2048
Bagaimana Anda tahu ketika
menyukai sesuatu
06:00
that indicatesmenunjukkan a traitsifat for you
159
348447
1492
yang mengindikasikan sifat Anda
06:01
that's totallysama sekali irrelevanttidak relevan to the
contentkonten of what you've likedmenyukai?
160
349939
3545
yang benar-benar tidak relevan dengan
konten yang Anda "suka" ?
06:05
There's a lot of powerkekuasaan that userspengguna don't have
161
353484
2546
Pengguna tidak memiliki kekuasaan untuk
06:08
to controlkontrol how this datadata is used.
162
356030
2230
mengendalikan bagaimana
datanya digunakan.
06:10
And I see that as a realnyata
problemmasalah going forwardmeneruskan.
163
358260
3112
Dan saya melihatnya sebagai masalah
nyata di masa datang.
06:13
So I think there's a couplepasangan pathsjalan
164
361372
1977
Jadi saya pikir ada dua jalur
06:15
that we want to look at
165
363349
1001
yang ingin kami lihat
06:16
if we want to give userspengguna some controlkontrol
166
364350
1910
jika kami ingin memberi kendali
ke pengguna
06:18
over how this datadata is used,
167
366260
1740
terhadap bagaimana data digunakan,
06:20
because it's not always going to be used
168
368000
1940
karena tidak selalu akan digunakan
06:21
for theirmereka benefitmanfaat.
169
369940
1381
untuk keuntungan mereka.
Contoh yang sering saya berikan,
06:23
An examplecontoh I oftensering give is that,
170
371321
1422
06:24
if I ever get boredbosan beingmakhluk a professorprofesor,
171
372743
1646
jika saya bosan menjadi profesor,
06:26
I'm going to go startmulai a companyperusahaan
172
374389
1653
saya akan memulai satu perusahaan
06:28
that predictsmemprediksi all of these attributesatribut
173
376042
1454
memprediksi semua atribut ini
seperti kemampuan Anda bekerja
dalam tim
06:29
and things like how well you work in teamstim
174
377496
1602
06:31
and if you're a drugobat userpengguna, if you're an alcoholicberalkohol.
175
379098
2671
apakah Anda pengguna narkotika,
atau pecandu alkohol.
Kami bisa memprediksi semua itu.
06:33
We know how to predictmeramalkan all that.
176
381769
1440
06:35
And I'm going to sellmenjual reportslaporan
177
383209
1761
Lalu saya akan menjual laporannya
06:36
to H.R. companiesperusahaan and bigbesar businessesbisnis
178
384970
2100
ke perusahaan HR dan bisnis-bisnis besar
06:39
that want to hiremempekerjakan you.
179
387070
2273
yang ingin mempekerjakan Anda.
Kami bisa melakukannya sekarang.
06:41
We totallysama sekali can do that now.
180
389343
1177
06:42
I could startmulai that businessbisnis tomorrowbesok,
181
390520
1788
Saya bisa memulai bisnis itu besok,
06:44
and you would have
absolutelybenar no controlkontrol
182
392308
2052
dan Anda sama sekali tidak
mempunyai kendali
06:46
over me usingmenggunakan your datadata like that.
183
394360
2138
atas penggunaan data yang saya lakukan.
06:48
That seemsSepertinya to me to be a problemmasalah.
184
396498
2292
Bagi saya, itu menjadi masalahnya.
06:50
So one of the pathsjalan we can go down
185
398790
1910
Salah satu jalur yang dapat kita tempuh
06:52
is the policykebijakan and lawhukum pathjalan.
186
400700
2032
adalah jalur kebijakan dan hukum.
06:54
And in some respectsmenghormati, I think
that that would be mostpaling effectiveefektif,
187
402732
3046
Dan dengan hormat, saya rasa
merupakan jalur yang paling efektif,
06:57
but the problemmasalah is we'dmengawinkan
actuallysebenarnya have to do it.
188
405778
2756
tapi masalahnya adalah kita harus
benar-benar melakukannya.
07:00
ObservingMengamati our politicalpolitik processproses in actiontindakan
189
408534
2780
Memantau proses aksi politik
07:03
makesmembuat me think it's highlysangat unlikelytidak sepertinya
190
411314
2379
membuat saya berpikir sangat tidak mungkin
07:05
that we're going to get a bunchbanyak of representativesperwakilan
191
413693
1597
untuk mendapat sekelompok perwakilan
07:07
to sitduduk down, learnbelajar about this,
192
415290
1986
duduk dan mempelajari hal ini,
07:09
and then enactmemberlakukan sweepingluas changesperubahan
193
417276
2106
dan mempertimbangkan perubahan terhadap
07:11
to intellectualintelektual propertymilik lawhukum in the U.S.
194
419382
2157
hukum properti intelektual di AS
07:13
so userspengguna controlkontrol theirmereka datadata.
195
421539
2461
sehingga pengguna dapat
mengendalikan data mereka.
07:16
We could go the policykebijakan routerute,
196
424000
1304
Kita bisa memilih rute kebijakan
07:17
where socialsosial mediamedia companiesperusahaan say,
197
425304
1479
dimana perusahaan berkata,
07:18
you know what? You ownsendiri your datadata.
198
426783
1402
Anda memiliki data Anda
07:20
You have totaltotal controlkontrol over how it's used.
199
428185
2489
Anda memiliki kendali penuh terhadap
penggunaannya.
07:22
The problemmasalah is that the revenuependapatan modelsmodel
200
430674
1848
Masalahnya adalah model pendapatan
07:24
for mostpaling socialsosial mediamedia companiesperusahaan
201
432522
1724
kebanyakan perusahaan media sosial
07:26
relymengandalkan on sharingberbagi or exploitingmengeksploitasi
users'pengguna datadata in some way.
202
434246
4031
bergantung pada membagikan atau
mengeksploitasi data pengguna.
07:30
It's sometimesterkadang said of FacebookFacebook that the userspengguna
203
438277
1833
Kerap dikatakan bahwa pengguna Facebook
07:32
aren'ttidak the customerpelanggan, they're the productproduk.
204
440110
2528
bukanlah pelanggan,
melainkan sebagai produk.
07:34
And so how do you get a companyperusahaan
205
442638
2714
Jadi bagaimana kamu membuat perusahaan
07:37
to cedemenyerahkan controlkontrol of theirmereka mainutama assetaset
206
445352
2558
memberikan hak kendali atas
aset utama mereka
07:39
back to the userspengguna?
207
447910
1249
kembali ke penggunanya?
07:41
It's possiblemungkin, but I don't think it's something
208
449159
1701
Itu mungkin, tapi saya rasa itu bukan hal
07:42
that we're going to see changeperubahan quicklysegera.
209
450860
2320
yang akan segera terlihat hasilnya.
07:45
So I think the other pathjalan
210
453180
1500
Jadi, saya memikirkan jalur lain
07:46
that we can go down that's
going to be more effectiveefektif
211
454680
2288
yang dapat kita lakukan dan akan
lebih efektif
07:48
is one of more scienceilmu.
212
456968
1508
satu jalur yang lebih ilmiah.
07:50
It's doing scienceilmu that alloweddiizinkan us to developmengembangkan
213
458476
2510
Dengan mengandalkan sains yang
memungkinkan kami
mengembangkan semua mekanisme
perhitungan
07:52
all these mechanismsmekanisme for computingkomputasi
214
460986
1750
07:54
this personalpribadi datadata in the first placetempat.
215
462736
2052
data personal ini di awalnya.
07:56
And it's actuallysebenarnya very similarserupa researchpenelitian
216
464788
2106
And sebenarnya, penelitian yang sama
07:58
that we'dmengawinkan have to do
217
466894
1438
yang harus kami lakukan
08:00
if we want to developmengembangkan mechanismsmekanisme
218
468332
2386
jika kita ingin mengembangkan mekanisme
08:02
that can say to a userpengguna,
219
470718
1421
yang bisa memberitahu si pengguna,
08:04
"Here'sBerikut adalah the riskrisiko of that actiontindakan you just tookmengambil."
220
472139
2229
"Inilah risiko dari tindakan yang Anda ambil."
08:06
By likingkeinginan that FacebookFacebook pagehalaman,
221
474368
2080
Dengan 'menyukai' halaman di Facebook,
08:08
or by sharingberbagi this piecebagian of personalpribadi informationinformasi,
222
476448
2535
atau dengan membagi sepotong
informasi pribadi ini,
Anda meningkatkan kemampuan saya
08:10
you've now improvedmembaik my abilitykemampuan
223
478983
1502
08:12
to predictmeramalkan whetherapakah or not you're usingmenggunakan drugsnarkoba
224
480485
2086
memprediksi apakah Anda pengguna narkotika
08:14
or whetherapakah or not you get
alongsepanjang well in the workplacetempat kerja.
225
482571
2862
atau apakah Anda betah di
tempat kerja Anda.
08:17
And that, I think, can affectmempengaruhi whetherapakah or not
226
485433
1848
Hal ini, menurut saya, dapat berdampak
08:19
people want to shareBagikan something,
227
487281
1510
pada apakah orang mau berbagi,
08:20
keep it privatepribadi, or just keep it offlineoffline altogethersama sekali.
228
488791
3239
menyimpannya untuk diri sendiri, atau
menyimpannya secara offline.
08:24
We can alsojuga look at things like
229
492030
1563
Kita juga bisa melihat hal-hal seperti
08:25
allowingmemungkinkan people to encryptmengenkripsi datadata that they uploadupload,
230
493593
2728
memungkinkan orang
mengenkripsi data yang diunggah
jadi data tak tampak
dan tidak berarti
08:28
so it's kindjenis of invisibletak terlihat and worthlesstak berguna
231
496321
1855
08:30
to sitessitus like FacebookFacebook
232
498176
1431
bagi laman seperti Facebook
08:31
or thirdketiga partypesta servicesjasa that accessmengakses it,
233
499607
2629
atau layanan pihak ketiga yang
mengaksesnya,
08:34
but that selectmemilih userspengguna who the personorang who posteddiposting it
234
502236
3247
melainkan hanya para pengguna yang
diseleksi oleh si pemilik data
08:37
want to see it have accessmengakses to see it.
235
505483
2670
diberi akses untuk melihat informasi ini.
08:40
This is all supersuper excitingseru researchpenelitian
236
508153
2166
Ini merupakan penelitian yang
sangat menarik
08:42
from an intellectualintelektual perspectiveperspektif,
237
510319
1620
dari sudut pandang intelektual,
08:43
and so scientistsilmuwan are going to be willingrela to do it.
238
511939
1859
maka ilmuwan bersedia melakukannya.
08:45
So that givesmemberi us an advantagekeuntungan over the lawhukum sidesisi.
239
513798
3610
Jadi hal ini memberikan kita keuntungan
di sisi hukum.
08:49
One of the problemsmasalah that people bringmembawa up
240
517408
1725
Salah satu masalah yang dikemukakan
saat saya bicara tentang ini,
kata mereka
08:51
when I talk about this is, they say,
241
519133
1595
08:52
you know, if people startmulai
keepingpenyimpanan all this datadata privatepribadi,
242
520728
2646
jika orang mulai menyimpan
datanya secara pribadi
08:55
all those methodsmetode that you've been developingmengembangkan
243
523374
2113
semua metode yang telah kamu kembangkan
08:57
to predictmeramalkan theirmereka traitssifat are going to failgagal.
244
525487
2653
untuk memprediksi karakteristik mereka
akan gagal.
09:00
And I say, absolutelybenar, and for me, that's successkeberhasilan,
245
528140
3520
Dan saya berkata, tentu saja, bagi saya
itu merupakan kesuksesan,
09:03
because as a scientistilmuwan,
246
531660
1786
karena sebagai ilmuwan,
09:05
my goaltujuan is not to infermenyimpulkan informationinformasi about userspengguna,
247
533446
3688
gol saya adalah bukan menyimpulkan
informasi tentang pengguna,
09:09
it's to improvememperbaiki the way people interactberinteraksi onlineon line.
248
537134
2767
melainkan untuk meningkatkan cara
berinteraksi online
09:11
And sometimesterkadang that involvesmelibatkan
inferringdalam menyimpulkan things about them,
249
539901
3218
Dan terkadang melibatkan penyimpulan
tentang mereka,
09:15
but if userspengguna don't want me to use that datadata,
250
543119
3022
tetapi jika pengguna tidak mau saya
menggunakan data tersebut,
09:18
I think they should have the right to do that.
251
546141
2038
menurut saya, mereka berhak memutuskannya.
09:20
I want userspengguna to be informeddiberitahukan and consentingmenyetujui
252
548179
2651
Saya ingin para pengguna mengetahui
dan menyetujui
09:22
userspengguna of the toolsalat that we developmengembangkan.
253
550830
2112
penggunaan dari alat yang
kami kembangkan.
09:24
And so I think encouragingmendorong this kindjenis of scienceilmu
254
552942
2952
Jadi saya mendukung bentuk ilmu
seperti ini
09:27
and supportingmendukung researcherspeneliti
255
555894
1346
dan mendukung para peneliti
09:29
who want to cedemenyerahkan some of that controlkontrol back to userspengguna
256
557240
3023
yang mau mengembalikan kendali
kepada para pengguna
09:32
and away from the socialsosial mediamedia companiesperusahaan
257
560263
2311
dari perusahaan-perusahaan media sosial
09:34
meanscara that going forwardmeneruskan, as these toolsalat evolveberkembang
258
562574
2671
berarti kedepannya, seiring
berkembangnya alat-alat ini
09:37
and advancemuka,
259
565245
1476
dan semakin canggih,
09:38
meanscara that we're going to have an educatedberpendidikan
260
566721
1414
berarti kita akan memiliki basis pengguna
09:40
and empowereddiberdayakan userpengguna basemendasarkan,
261
568135
1694
yang terdidik
09:41
and I think all of us can agreesetuju
262
569829
1100
saya rasa kita semua setuju
09:42
that that's a prettycantik idealideal way to go forwardmeneruskan.
263
570929
2564
bahwa hal ini cukup ideal di masa datang.
09:45
Thank you.
264
573493
2184
Terima kasih.
09:47
(ApplauseTepuk tangan)
265
575677
3080
(Tepuk tangan)
Translated by Indriani S
Reviewed by Elizabeth Kwan

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com