ABOUT THE SPEAKER
Johanna Blakley - Media maven
Johanna Blakley studies the impact of mass media and entertainment on our world.

Why you should listen

As the Deputy Director of the Norman Lear Center (a media-focused think tank at the University of Southern California) Johanna Blakley spends much of her time exploring how our entertainment interacts with our political, commercial and social habits. She is especially interested in the surprising impact of intellectual property rights on innovation, organizing conferences around the lack of creative ownership in fashion as well as technology and the ownership of creative content.

Blakley has worked across a huge variety of media platforms -- producing for the web on a large scale, conducting gaming research, coordinating events for film festivals and executing consumer research on entertainment and politics. Drawing on this vast body of experience, she also lectures at USC and helped develop their masters program in Public Diplomacy.

More profile about the speaker
Johanna Blakley | Speaker | TED.com
TEDWomen 2010

Johanna Blakley: Social media and the end of gender

Johanna Blakley: Mediat sociale dhe fundi i gjinisë

Filmed:
1,490,974 views

Mediat dhe kompanitë reklamuese ende përdorin demografitë e njëjta të vjetra për të kuptuar audiencat, por ata janë duke u bërë gjithnjë e më vështirë për t'u gjetur në internet, thotë studiuesja e mediave Johanna Blakley. Derisa mediat sociale po rriten më shumë se mediat tradicionale, dhe gratë përdoruese tejkalojnë burrat, Blakley shpjegon se çfarë ndryshime priten në të ardhmen për mediat.
- Media maven
Johanna Blakley studies the impact of mass media and entertainment on our world. Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to make an argument today
0
0
2000
Sot do ta bëj një diskutim
00:17
that may seem a little bit crazy:
1
2000
3000
që mund të duket pakëz i çmendur:
00:20
social media and the end of gender.
2
5000
3000
mediat sociale dhe fundi i gjinisë.
00:23
Let me connect the dots.
3
8000
2000
Më lejoni të bëj lidhjen e tyre.
00:26
I'm going to argue today
4
11000
2000
Sot do të argumentoj
00:28
that the social media applications
5
13000
2000
se aplikacionet e mediave sociale
00:30
that we all know and love, or love to hate,
6
15000
3000
të cilat të gjithë i dimë dhe i duam, apo duam t'i urrejmë,
00:33
are actually going to help free us
7
18000
2000
realisht do të na lirojnë
00:35
from some of the absurd assumptions
8
20000
2000
nga disa prej supozimeve absurde
00:37
that we have as a society about gender.
9
22000
3000
që kemi në shoqërinë tonë sa i përket gjinisë.
00:40
I think that social media
10
25000
2000
Mendoj se mediat sociale
00:42
is actually going to help us dismantle
11
27000
2000
do të na ndihmojnë të zhvishemi
00:44
some of the silly and demeaning stereotypes
12
29000
3000
nga disa stereotipe poshtëruese
00:47
that we see in media and advertising
13
32000
3000
që i shohim në media dhe reklama
00:50
about gender.
14
35000
2000
lidhur me gjininë.
00:52
If you hadn't noticed,
15
37000
2000
Nëse nuk keni vënë re,
00:54
our media climate generally provides
16
39000
2000
mediat tona në përgjithësi paraqesin
00:56
a very distorted mirror
17
41000
2000
një pasqyrë shumë të shtrembëruar
00:58
of our lives and of our gender,
18
43000
2000
të jetëve tona dhe gjinisë tonë,
01:00
and I think that's going to change.
19
45000
2000
dhe mendoj se kjo do të ndryshojë.
01:02
Now most media companies --
20
47000
2000
Tani shumica e kompanive mediale --
01:04
television, radio, publishing, games, you name it --
21
49000
3000
televizioni, radio, gazeta, lojërat, çfarëdo --
01:07
they use very rigid segmentation methods
22
52000
3000
përdorin metoda segmentuese shumë rigoroze
01:10
in order to understand their audiences.
23
55000
2000
në mënyrë që të kuptojnë audiencat e tyre.
01:12
It's old-school demographics.
24
57000
2000
Janë demografi të vjetëruara.
01:14
They come up with these very restrictive labels to define us.
25
59000
4000
Ata vijnë me etiketime shumë kufizuese për të na definuar.
01:19
Now the crazy thing
26
64000
2000
Tani gjëja më e çmendur
01:21
is that media companies believe
27
66000
2000
është se kompanitë mediale besojnë se
01:23
that if you fall within a certain demographic category
28
68000
3000
nëse ti i takon ndonjerës nga kategoritë demografike
01:26
then you are predictable in certain ways --
29
71000
2000
atëherë ti je i parashikueshëm në disa mënyra --
01:28
you have certain taste,
30
73000
2000
ke shije të caktuar,
01:30
that you like certain things.
31
75000
2000
të pëlqejnë gjëra të caktuara.
01:32
And so the bizarre result of this
32
77000
2000
Dhe rezultati i çuditshëm i kësaj
01:34
is that most of our popular culture
33
79000
2000
është se pjesa më e madhe e kulturës tonë
01:36
is actually based on these presumptions
34
81000
2000
faktikisht bazohet në këto supozime
01:38
about our demographics.
35
83000
2000
rreth demografisë tonë.
01:41
Age demographics:
36
86000
2000
Mosha e demografisë:
01:43
the 18 to 49 demo
37
88000
2000
group i moshës 18-49
01:45
has had a huge impact
38
90000
2000
ka pasur ndikim të madh
01:47
on all mass media programming in this country
39
92000
2000
në gjithë programet e mediave masive në këtë vend
01:49
since the 1960s,
40
94000
2000
që nga 1960-tat,
01:51
when the baby boomers were still young.
41
96000
3000
kur "baby boomers" ishin akoma të rinjë.
01:54
Now they've aged out of that demographic,
42
99000
3000
Tani kjo demografi është plakur,
01:57
but it's still the case
43
102000
2000
por ende ndodh
01:59
that powerful ratings companies like Nielson
44
104000
2000
që kompanitë e fuqishme vlerësuese si Nielson
02:01
don't even take into account
45
106000
2000
as nuk marrin parasysh
02:03
viewers of television shows over age 54.
46
108000
3000
shikuesit e televizionit të moshës mbi 54 vjeç.
02:06
In our media environment,
47
111000
2000
Në mjedisin tonë medial,
02:08
it's as if they don't even exist.
48
113000
2000
është sikur ata nuk ekzistojnë.
02:10
Now, if you watch "Mad Men," like I do --
49
115000
2000
Tani, nëse shikoni "Mad Man" si unë --
02:12
it's a popular TV show in the States --
50
117000
3000
është një serial i famshëm në Amerikë --
02:15
Dr. Faye Miller does something called psychographics,
51
120000
3000
Dr. Faye Miller bën diçka që quhet psikografi,
02:18
which first came about in the 1960s,
52
123000
3000
që së pari u shfaq në vitet 60-ta,
02:21
where you create these complex psychological profiles
53
126000
2000
ku krijon këto profile komplekse psikologjike
02:23
of consumers.
54
128000
2000
të konsumatorëve.
02:25
But psychographics really haven't had a huge impact on the media business.
55
130000
3000
Por psikografikët nuk kanë pasur ndikim të madh në biznesin e mediave.
02:28
It's really just been basic demographics.
56
133000
3000
Në fakt ka qenë vetëm demografi bazike.
02:32
So I'm at the Norman Lear Center at USC,
57
137000
3000
Unë jam në qendrën Normal Lear tek USC,
02:35
and we've done a lot of research over the last seven, eight years
58
140000
3000
dhe kemi bërë shumë hulumtime gjatë 7-8 viteve të fundit
02:38
on demographics
59
143000
2000
rreth demografisë
02:40
and how they affect media and entertainment
60
145000
2000
dhe si ndikon ajo tek mediat dhe argëtimi
02:42
in this country and abroad.
61
147000
2000
në këtë vend dhe jashtë.
02:44
And in the last three years,
62
149000
2000
Në tre vitet e fundit,
02:46
we've been looking specifically at social media to see what has changed,
63
151000
3000
në mënyrë specifike kemi shikuar mediat sociale për të parë çfarë ka ndryshuar,
02:49
and we've discovered some very interesting things.
64
154000
3000
dhe kemi zbuluar disa gjëra interesante.
02:53
All the people who participate in social media networks
65
158000
2000
Të gjithë njerëzit që marrin pjesë në rrjetet e mediave sociale
02:55
belong to the same old demographic categories
66
160000
3000
i takojnë të njejtës kategori të vjetër demografike
02:58
that media companies and advertisers
67
163000
2000
të cilën kompanitë e mediave dhe reklamuesit
03:00
have used in order to understand them.
68
165000
2000
e kanë përdorur për ta kuptuar.
03:02
But those categories mean even less now
69
167000
3000
Por ato kategori kanë më pak kuptim tani
03:05
than they did before,
70
170000
2000
se që kanë pasur më parë,
03:07
because with online networking tools,
71
172000
2000
sepse me mjetet e rrjeteve në internet
03:09
it's much easier for us
72
174000
2000
është shumë më e lehtë për ne
03:11
to escape some of our demographic boxes.
73
176000
2000
t'i ikim disa nga kutitë tona demografike.
03:13
We're able to connect with people quite freely
74
178000
3000
Jemi në gjendje të lidhemi me njerëz mjaft lirshëm,
03:16
and to redefine ourselves online.
75
181000
2000
dhe të ridefinojmë veten në internet.
03:18
And we can lie about our age online, too, pretty easily.
76
183000
3000
Dhe mund të gënjejmë për moshën tonë, shumë lehtë.
03:22
We can also connect with people
77
187000
3000
Poashtu, mund të lidhemi me njerëz
03:25
based on our very specific interests.
78
190000
2000
duke u bazuar tek interesat tona specifike.
03:27
We don't need a media company
79
192000
2000
Nuk ka nevojitet një kompani e mediave
03:29
to help do this for us.
80
194000
2000
që të na ndihmojë ta bëjë këtë për ne.
03:31
So the traditional media companies, of course,
81
196000
3000
Kështu kompanitë e mediave tradicionale, natyrisht,
03:34
are paying very close attention to these online communities.
82
199000
3000
janë duke i kushtuar vëmendje të veçantë këtyre komuniteteve në internet.
03:37
They know this is the mass audience of the future;
83
202000
3000
Ata e dinë se kjo është audienca masive e të ardhmes;
03:40
they need to figure it out.
84
205000
2000
ata duhet ta kuptojnë atë.
03:42
But they're having a hard time doing it
85
207000
2000
Por janë duke e pasur të vështirë
03:44
because they're still trying to use demographics in order to understand them,
86
209000
3000
sepse ende janë duke përdorur demografikat për ta kuptuar atë,
03:47
because that's how ad rates are still determined.
87
212000
3000
sepse ashtu ende përcaktohen vlerat e reklamave.
03:50
When they're monitoring your clickstream --
88
215000
2000
Kur ata janë duke kontrolluar klikimet tua --
03:52
and you know they are --
89
217000
2000
dhe ju e dini se ata e bëjnë këtë --
03:54
they have a really hard time
90
219000
2000
ata e kanë shumë të vështirë
03:56
figuring out your age, your gender and your income.
91
221000
2000
të kuptojnë moshën tuaj, gjininë dhe të ardhurat tuaja.
03:58
They can make some educated guesses.
92
223000
2000
Ata mund të bëjnë supozime
04:00
But they get a lot more information
93
225000
2000
por atyre ju nevojitet më shumë informacion
04:02
about what you do online,
94
227000
2000
se çfarë bëni në internet,
04:04
what you like, what interests you.
95
229000
2000
çfarë ju pëlqen, çfarë ju intereson.
04:06
That's easier for them to find out than who you are.
96
231000
3000
Ajo është më e lehtë për ata që ta zbulojnë, sesa kush je ti.
04:09
And even though that's still sort of creepy,
97
234000
3000
Edhe pse kjo është disi e frikshme,
04:12
there is an upside
98
237000
2000
ka një përparësi
04:14
to having your taste monitored.
99
239000
3000
të të monitorojnë gjërat që të pëlqejnë.
04:17
Suddenly our taste is being respected
100
242000
2000
Papritur shija jonë po respektohet
04:19
in a way that it hasn't been before.
101
244000
2000
në një mënyrë që nuk është bërë më herët.
04:21
It had been presumed before.
102
246000
2000
Më parë është supozuar.
04:24
So when you look online at the way people aggregate,
103
249000
3000
Kështu, kur shikon se si mblidhen njerëzit,
04:27
they don't aggregate
104
252000
2000
ata nuk mblidhen
04:29
around age, gender and income.
105
254000
2000
sipas moshës, gjinisë, dhe të ardhurave.
04:31
They aggregate around the things they love,
106
256000
2000
Ata lidhen përmes gjërave që duan,
04:33
the things that they like,
107
258000
2000
gjërave që pëlqejnë,
04:35
and if you think about it, shared interests and values
108
260000
2000
dhe nëse mendon për këtë, interesat dhe vlerat që ndan me të tjerët
04:37
are a far more powerful aggregator of human beings
109
262000
3000
janë lidhje shumë më e fuqishme e qenieve njerëzore
04:40
than demographic categories.
110
265000
2000
sesa kategoritë demografike.
04:42
I'd much rather know
111
267000
2000
Më parë do doja të dija
04:44
whether you like "Buffy the Vampire Slayer"
112
269000
3000
nëse të pëlqen "Buffy the Vampire Slayer"
04:47
rather than how old you are.
113
272000
2000
më shumë sesa moshën tënde.
04:49
That would tell me something more substantial about you.
114
274000
3000
Kjo do të më tregonte diçka më të rëndësishme për ty.
04:53
Now there's something else that we've discovered about social media
115
278000
2000
Tani diçka interesant çfarë kam zbuluar për mediat sociale
04:55
that's actually quite surprising.
116
280000
2000
që është mjaft befasuese.
04:57
It turns out that women
117
282000
2000
Del se femrat
04:59
are really driving the social media revolution.
118
284000
3000
po udhëheqin revolucionin e mediave sociale.
05:03
If you look at the statistics --
119
288000
2000
Nëse shikon statistikat --
05:05
these are worldwide statistics --
120
290000
2000
këto janë statistika nga tërë bota --
05:07
in every single age category,
121
292000
3000
në secilën kategori të moshave,
05:10
women actually outnumber men
122
295000
2000
numri i femrave është më i madh se i mashkujve
05:12
in their use of social networking technologies.
123
297000
3000
në përdorimin e teknologjive të rrjeteve sociale.
05:16
And then if you look at the amount of time
124
301000
2000
Dhe pastaj nëse shikon kohën
05:18
that they spend on these sites,
125
303000
2000
sa kalojnë në këto adresa interneti,
05:20
they truly dominate the social media space,
126
305000
3000
ato me të vërtetë dominojnë hapësirën mediale,
05:23
which is a space that's having a huge impact
127
308000
3000
që është një hapësirë që është duke pasur ndikim
05:26
on old media.
128
311000
2000
të madh tek mediat e vjetra.
05:28
The question is: what sort of impact
129
313000
2000
Pyetja është: çfarë ndikimi
05:30
is this going to have on our culture,
130
315000
3000
do të ketë kjo në kulturën tonë,
05:33
and what's it going to mean for women?
131
318000
2000
dhe çfarë do të thotë kjo për femrat?
05:35
If the case is that social media
132
320000
2000
Nëse mediat sociale
05:37
is dominating old media
133
322000
2000
janë duke dominuar mediat e vjetra
05:39
and women are dominating social media,
134
324000
3000
dhe femrat po dominojnë mediat sociale,
05:42
then does that mean that women
135
327000
2000
atëherë a do të thotë kjo se femrat
05:44
are going to take over global media?
136
329000
2000
do të marrin kontrollin e mediave globale?
05:46
Are we suddenly going to see
137
331000
2000
A do të shohim papritur
05:48
a lot more female characters in cartoons
138
333000
2000
më shumë femra personazhe në filma vizatimorë
05:50
and in games and on TV shows?
139
335000
3000
në lojëra dhe seriale televizive?
05:53
Will the next big-budget blockbuster movies
140
338000
4000
A do të jenë filmat e ardhshëm më të shitur
05:57
actually be chick flicks?
141
342000
3000
filmat për femrat?
06:00
Could this be possible,
142
345000
2000
A është e mundur,
06:02
that suddenly our media landscape
143
347000
2000
që papritur imazhi i mediave
06:04
will become a feminist landscape?
144
349000
3000
do të bëhet imazh feminist?
06:08
Well, I actually don't think that's going to be the case.
145
353000
3000
Në fakt, nuk mendoj se kjo do ndodhë.
06:11
I think that media companies are going to hire a lot more women,
146
356000
3000
Mendoj se kompanise e mediave do të punësojnë më shumë femra,
06:14
because they realize this is important for their business,
147
359000
2000
sepse e kuptojnë se është shumë me rëndësi për ata.
06:16
and I think that women
148
361000
2000
Dhe mendoj se femrat
06:18
are also going to continue to dominate
149
363000
2000
do vazhdojnë të dominojnë
06:20
the social media sphere.
150
365000
2000
sferën e mediave sociale.
06:22
But I think women are actually going to be -- ironically enough --
151
367000
3000
Por mendoj se femrat do të jenë - ironikisht -
06:25
responsible for driving a stake through the heart
152
370000
3000
përgjegjëse për largimin e filmave
06:28
of cheesy genre categories
153
373000
4000
të zhanrit
06:32
like the "chick flick"
154
377000
2000
si 'chick flick"
06:34
and all these other genre categories
155
379000
2000
dhe gjithë këtyre zhanreve tjera
06:36
that presume that certain demographic groups
156
381000
3000
që supozojnë se një group i caktuar demografik
06:39
like certain things --
157
384000
2000
pëlqen gjëra specifike --
06:41
that Hispanics like certain things,
158
386000
2000
se Hispanikët pëlqejnë gjëra specifike,
06:43
that young people like certain things.
159
388000
2000
se të rinjët pëlqejnë gjëra specifike.
06:45
This is far too simplistic.
160
390000
2000
Kjo është shumë e thjeshtë.
06:47
The future entertainment media that we're going to see
161
392000
3000
Media argëtuese që do ta shohim në të ardhmen
06:50
is going to be very data-driven,
162
395000
2000
do të drejtohet nga të dhëna
06:52
and it's going to be based on the information
163
397000
2000
dhe do to të bazohet në informacionin
06:54
that we ascertain from taste communities online,
164
399000
3000
që e nxjerrim nga shijet e komuniteteve në internet,
06:57
where women are really driving the action.
165
402000
3000
ku femrat janë duke udhëhequr.
07:00
So you may be asking, well why is it important
166
405000
3000
Ndoshta po pyesni, pse është kjo e rëndësishme
07:03
that I know what entertains people?
167
408000
2000
që di çfarë i argëton njerëzit?
07:05
Why should I know this?
168
410000
2000
Pse do ta dija këtë?
07:07
Of course, old media companies and advertisers
169
412000
2000
Natyrisht, kompanitë e mediave të vjetra dhe reklamuesit
07:09
need to know this.
170
414000
2000
duhet ta dinë këtë.
07:11
But my argument is that,
171
416000
2000
Por argumenti im është se,
07:13
if you want to understand the global village,
172
418000
2000
nëse do ta kuptosh fshatin global,
07:15
it's probably a good idea that you figure out
173
420000
2000
ndoshta do ishte ide e mirë ta kuptoje
07:17
what they're passionate about, what amuses them,
174
422000
3000
cilat janë pasionet e tyre, çfarë i argëton ata,
07:20
what they choose to do in their free time.
175
425000
3000
çfarë bëjnë në kohën e lirë.
07:23
This is a very important thing to know about people.
176
428000
3000
Kjo është shumë e rëndësishme të dimë për njerëzit.
07:26
I've spent most of my professional life
177
431000
3000
Kam kaluar pjesën më të madhe të jetës time profesionale
07:29
researching media and entertainment
178
434000
2000
duke hulumtuar mediat dhe argëtimin
07:31
and its impact on people's lives.
179
436000
2000
dhe ndikimin që kanë në jetën e njerëzve.
07:33
And I do it not just because it's fun --
180
438000
3000
Dhe e bëj jo pse është kënaqësi --
07:36
though actually, it is really fun --
181
441000
2000
edhe pse është kënaqësi për mua --
07:38
but also because
182
443000
2000
por edhe pse
07:40
our research has shown over and over again
183
445000
2000
hulumtimet tona kanë treguar pandërprerë
07:42
that entertainment and play
184
447000
2000
se argëtimi dhe loja
07:44
have a huge impact on people's lives --
185
449000
3000
kanë ndikim shumë të madh në jetën e njerëzve --
07:47
for instance, on their political beliefs
186
452000
2000
për shembull, në besimet e tyre politike
07:49
and on their health.
187
454000
2000
dhe shëndetin e tyre.
07:51
And so, if you have any interest in understanding the world,
188
456000
3000
Kështu, nëse të intereson të kuptosh botën,
07:54
looking at how people amuse themselves
189
459000
2000
të shikosh si njerëzit e kënaqin veten
07:56
is a really good way to start.
190
461000
3000
është mënyrë e mirë për të filluar.
07:59
So imagine a media atmosphere
191
464000
3000
Imagjinoni një atmosferë mediale
08:02
that isn't dominated by lame stereotypes
192
467000
3000
që nuk është e dominuar nga stereotipe të këqija
08:05
about gender
193
470000
2000
rreth gjinisë
08:07
and other demographic characteristics.
194
472000
2000
dhe karakteristikave tjera demografike.
08:09
Can you even imagine what that looks like?
195
474000
2000
A mund ta imagjinoni se si duket kjo?
08:11
I can't wait to find out what it looks like.
196
476000
2000
Unë mezi pres ta kuptoj se si duket.
08:13
Thank you so much.
197
478000
2000
Shumë faleminderit.
08:15
(Applause)
198
480000
6000
(Duartrokitje)
Translated by Dita Bytyci
Reviewed by Helena Bedalli

▲Back to top

ABOUT THE SPEAKER
Johanna Blakley - Media maven
Johanna Blakley studies the impact of mass media and entertainment on our world.

Why you should listen

As the Deputy Director of the Norman Lear Center (a media-focused think tank at the University of Southern California) Johanna Blakley spends much of her time exploring how our entertainment interacts with our political, commercial and social habits. She is especially interested in the surprising impact of intellectual property rights on innovation, organizing conferences around the lack of creative ownership in fashion as well as technology and the ownership of creative content.

Blakley has worked across a huge variety of media platforms -- producing for the web on a large scale, conducting gaming research, coordinating events for film festivals and executing consumer research on entertainment and politics. Drawing on this vast body of experience, she also lectures at USC and helped develop their masters program in Public Diplomacy.

More profile about the speaker
Johanna Blakley | Speaker | TED.com