ABOUT THE SPEAKER
Johanna Blakley - Media maven
Johanna Blakley studies the impact of mass media and entertainment on our world.

Why you should listen

As the Deputy Director of the Norman Lear Center (a media-focused think tank at the University of Southern California) Johanna Blakley spends much of her time exploring how our entertainment interacts with our political, commercial and social habits. She is especially interested in the surprising impact of intellectual property rights on innovation, organizing conferences around the lack of creative ownership in fashion as well as technology and the ownership of creative content.

Blakley has worked across a huge variety of media platforms -- producing for the web on a large scale, conducting gaming research, coordinating events for film festivals and executing consumer research on entertainment and politics. Drawing on this vast body of experience, she also lectures at USC and helped develop their masters program in Public Diplomacy.

More profile about the speaker
Johanna Blakley | Speaker | TED.com
TEDWomen 2010

Johanna Blakley: Social media and the end of gender

Johanna Blakley: A mídia social e o fim do gênero

Filmed:
1,490,974 views

As companhias de mídia e propaganda ainda usam velhos dados demográficos para entender as audiências, mas elas estão ficando cada vez mais difíceis de se rastrear online, diz a pesquisadora de mídia Johanna Blakley. Enquanto a mídia social ultrapassa a mídia tradicional, e as mulheres superam os homens, Blakley explica quais serão as mudanças para o futuro da mídia.
- Media maven
Johanna Blakley studies the impact of mass media and entertainment on our world. Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to make an argument today
0
0
2000
Eu vou apresentar um argumento hoje
00:17
that may seem a little bit crazy:
1
2000
3000
que pode parecer meio maluco:
00:20
social media and the end of gender.
2
5000
3000
a mídia social e o fim do gênero.
00:23
Let me connect the dots.
3
8000
2000
Deixem-me ligar os pontos.
00:26
I'm going to argue today
4
11000
2000
Eu vou explicar hoje
00:28
that the social media applications
5
13000
2000
que as aplicações da mídia social
00:30
that we all know and love, or love to hate,
6
15000
3000
que todos conhecemos e amamos, ou amamos odiar,
00:33
are actually going to help free us
7
18000
2000
vão na verdade nos ajudar a nos libertar
00:35
from some of the absurd assumptions
8
20000
2000
de alguns conceitos absurdos
00:37
that we have as a society about gender.
9
22000
3000
que temos, enquanto sociedade, sobre gênero.
00:40
I think that social media
10
25000
2000
Eu acho que a mídia social
00:42
is actually going to help us dismantle
11
27000
2000
vai na verdade nos ajudar a desmantelar
00:44
some of the silly and demeaning stereotypes
12
29000
3000
alguns dos estereótipos bobos e degradantes
00:47
that we see in media and advertising
13
32000
3000
que vemos na mídia e propaganda
00:50
about gender.
14
35000
2000
sobre gênero.
00:52
If you hadn't noticed,
15
37000
2000
Se vocês não perceberam,
00:54
our media climate generally provides
16
39000
2000
nosso clima midiático mostra geralmente
00:56
a very distorted mirror
17
41000
2000
um espelho muito distorcido
00:58
of our lives and of our gender,
18
43000
2000
de nossas vidas e nosso gênero.
01:00
and I think that's going to change.
19
45000
2000
E acho que isso vai mudar.
01:02
Now most media companies --
20
47000
2000
Agora a maioria das companhias de mídia –
01:04
television, radio, publishing, games, you name it --
21
49000
3000
televisão, rádio, publicidade, jogos, etc. –
01:07
they use very rigid segmentation methods
22
52000
3000
elas usam métodos muito rígidos de segmentação
01:10
in order to understand their audiences.
23
55000
2000
para compreender suas audiências.
01:12
It's old-school demographics.
24
57000
2000
Isso é a demografia tradicional.
01:14
They come up with these very restrictive labels to define us.
25
59000
4000
Eles vêm com esses rótulos muito restritivos para nos definir.
01:19
Now the crazy thing
26
64000
2000
Agora uma coisa bizarra
01:21
is that media companies believe
27
66000
2000
é que as companhias de mídia acreditam
01:23
that if you fall within a certain demographic category
28
68000
3000
que se você está dentro de uma determinada categoria demográfica
01:26
then you are predictable in certain ways --
29
71000
2000
então você é previsível em algumas maneiras.
01:28
you have certain taste,
30
73000
2000
Você tem um certo gosto,
01:30
that you like certain things.
31
75000
2000
você gosta de certas coisas.
01:32
And so the bizarre result of this
32
77000
2000
E o resultado bizarro disso
01:34
is that most of our popular culture
33
79000
2000
é que a maior parte de nossa cultura popular
01:36
is actually based on these presumptions
34
81000
2000
está na verdade baseada nessas presunções
01:38
about our demographics.
35
83000
2000
sobre nossa demografia.
01:41
Age demographics:
36
86000
2000
Demografia de idade:
01:43
the 18 to 49 demo
37
88000
2000
A demografia dos 18 aos 49
01:45
has had a huge impact
38
90000
2000
tem um impacto enorme
01:47
on all mass media programming in this country
39
92000
2000
em toda programação de mídia de massa nesse país
01:49
since the 1960s,
40
94000
2000
desde os anos 60,
01:51
when the baby boomers were still young.
41
96000
3000
quando os 'baby boomers' ainda eram jovens.
01:54
Now they've aged out of that demographic,
42
99000
3000
Agora eles envelheceram além dessa demografia,
01:57
but it's still the case
43
102000
2000
mas ainda é o caso
01:59
that powerful ratings companies like Nielson
44
104000
2000
de grandes companhias de pesquisa como a Nielson
02:01
don't even take into account
45
106000
2000
não levarem em conta
02:03
viewers of television shows over age 54.
46
108000
3000
os espectadores de shows de televisão com mais de 54 anos.
02:06
In our media environment,
47
111000
2000
Em nosso meio midiático,
02:08
it's as if they don't even exist.
48
113000
2000
é como se eles nem mesmo existissem.
02:10
Now, if you watch "Mad Men," like I do --
49
115000
2000
Agora se você assistir "Mad Men" com eu –
02:12
it's a popular TV show in the States --
50
117000
3000
é um show de TV popular nos Estados Unidos –
02:15
Dr. Faye Miller does something called psychographics,
51
120000
3000
a Dra. Faye Miller faz algo chamado psicografia,
02:18
which first came about in the 1960s,
52
123000
3000
que surgiu nos anos 60,
02:21
where you create these complex psychological profiles
53
126000
2000
onde você cria esses perfis psicológicos complexos
02:23
of consumers.
54
128000
2000
de consumidores.
02:25
But psychographics really haven't had a huge impact on the media business.
55
130000
3000
Mas os psicógrafos não causaram um grande impacto no meio da mídia.
02:28
It's really just been basic demographics.
56
133000
3000
Sempre foi apenas a demografia básica.
02:32
So I'm at the Norman Lear Center at USC,
57
137000
3000
Eu estou no Norman Lear Center no USC.
02:35
and we've done a lot of research over the last seven, eight years
58
140000
3000
E fizemos um monte de pesquisas dos últimos sete, oito anos
02:38
on demographics
59
143000
2000
sobre demografia
02:40
and how they affect media and entertainment
60
145000
2000
e como ela afeta a mídia e entretenimento
02:42
in this country and abroad.
61
147000
2000
nesse país e no exterior.
02:44
And in the last three years,
62
149000
2000
E nos últimos três anos
02:46
we've been looking specifically at social media to see what has changed,
63
151000
3000
nós observamos especificamente a mídia social para ver o que mudou.
02:49
and we've discovered some very interesting things.
64
154000
3000
E descobrimos algumas coisas muito interessantes.
02:53
All the people who participate in social media networks
65
158000
2000
Todas as pessoas que participam em redes de mídia social
02:55
belong to the same old demographic categories
66
160000
3000
pertencem às mesmas categorias demográficas
02:58
that media companies and advertisers
67
163000
2000
que as companhias de mídia e propaganda
03:00
have used in order to understand them.
68
165000
2000
têm utilizado para compreendê-las.
03:02
But those categories mean even less now
69
167000
3000
Mas essas categorias significam ainda menos agora
03:05
than they did before,
70
170000
2000
do que significaram antes.
03:07
because with online networking tools,
71
172000
2000
Pois com as ferramentas de rede online
03:09
it's much easier for us
72
174000
2000
é muito mais fácil para nós
03:11
to escape some of our demographic boxes.
73
176000
2000
escapar de algumas das nossas caixas demográficas.
03:13
We're able to connect with people quite freely
74
178000
3000
Nós podemos nos conectar com pessoas livremente
03:16
and to redefine ourselves online.
75
181000
2000
e nos redefinir a nós mesmos online.
03:18
And we can lie about our age online, too, pretty easily.
76
183000
3000
E podemos mentir sobre nossa idade muito facilmente.
03:22
We can also connect with people
77
187000
3000
Nós podemos nos conectar com pessoas
03:25
based on our very specific interests.
78
190000
2000
baseados em nossos próprios interesses específicos.
03:27
We don't need a media company
79
192000
2000
Nós não precisamos de uma companhia de mídia
03:29
to help do this for us.
80
194000
2000
para ajudar a fazer isso para nós.
03:31
So the traditional media companies, of course,
81
196000
3000
Então as companhias tradicionais de mídia, claro,
03:34
are paying very close attention to these online communities.
82
199000
3000
estão prestando muita atenção a essas comunidades online.
03:37
They know this is the mass audience of the future;
83
202000
3000
Elas sabem que essa é a audiência em massa do futuro.
03:40
they need to figure it out.
84
205000
2000
Elas precisam desvendar isso.
03:42
But they're having a hard time doing it
85
207000
2000
Mas elas têm dificuldades em fazer isso
03:44
because they're still trying to use demographics in order to understand them,
86
209000
3000
porque elas ainda estão tentando usar a demografia para compreendê-los,
03:47
because that's how ad rates are still determined.
87
212000
3000
porque é assim que os parâmetros de propaganda são determinados.
03:50
When they're monitoring your clickstream --
88
215000
2000
Quando eles monitoram seu fluxo de cliques –
03:52
and you know they are --
89
217000
2000
e você sabe que eles monitoram –
03:54
they have a really hard time
90
219000
2000
eles têm dificuldades em
03:56
figuring out your age, your gender and your income.
91
221000
2000
descobrir sua idade, seu gênero e sua renda.
03:58
They can make some educated guesses.
92
223000
2000
Eles podem fazer alguns palpites educados.
04:00
But they get a lot more information
93
225000
2000
Mas eles têm muito mais informação
04:02
about what you do online,
94
227000
2000
sobre o que você faz online,
04:04
what you like, what interests you.
95
229000
2000
do que você gosta, o que lhe interessa.
04:06
That's easier for them to find out than who you are.
96
231000
3000
É mais fácil para eles descobrir isso do que quem você é.
04:09
And even though that's still sort of creepy,
97
234000
3000
E ainda que isso seja asqueroso,
04:12
there is an upside
98
237000
2000
há um lado bom
04:14
to having your taste monitored.
99
239000
3000
em ter seu gosto monitorado.
04:17
Suddenly our taste is being respected
100
242000
2000
De repente seu gosto está sendo respeitado
04:19
in a way that it hasn't been before.
101
244000
2000
de um jeito que não era antes.
04:21
It had been presumed before.
102
246000
2000
Ele era presumido antes.
04:24
So when you look online at the way people aggregate,
103
249000
3000
Quando você olha online no jeito que as pessoas se agregam,
04:27
they don't aggregate
104
252000
2000
elas não se agregam
04:29
around age, gender and income.
105
254000
2000
em idade, gênero ou renda.
04:31
They aggregate around the things they love,
106
256000
2000
Elas se agregam em coisas que elas adoram,
04:33
the things that they like,
107
258000
2000
as coisas elas gostam.
04:35
and if you think about it, shared interests and values
108
260000
2000
E se você pensar sobre isso, valores e interesses compartilhados
04:37
are a far more powerful aggregator of human beings
109
262000
3000
são um agregador muito mais poderoso de seres humanos
04:40
than demographic categories.
110
265000
2000
que categorias demográficas.
04:42
I'd much rather know
111
267000
2000
Eu prefiro saber
04:44
whether you like "Buffy the Vampire Slayer"
112
269000
3000
se você gosta de "Buffy a Caça-Vampiros"
04:47
rather than how old you are.
113
272000
2000
do que saber qual é a sua idade.
04:49
That would tell me something more substantial about you.
114
274000
3000
Isso me diria algo mais substancial sobre você.
04:53
Now there's something else that we've discovered about social media
115
278000
2000
Agora há outra coisa que nós descobrimos sobre a mídia social
04:55
that's actually quite surprising.
116
280000
2000
que é realmente surpreendente.
04:57
It turns out that women
117
282000
2000
Acontece que as mulheres
04:59
are really driving the social media revolution.
118
284000
3000
estão dirigindo a revolução da mídia social.
05:03
If you look at the statistics --
119
288000
2000
Se você olhar as estatísticas –
05:05
these are worldwide statistics --
120
290000
2000
essas são estatísticas globais –
05:07
in every single age category,
121
292000
3000
em cada categoria etária,
05:10
women actually outnumber men
122
295000
2000
as mulheres superam os homens
05:12
in their use of social networking technologies.
123
297000
3000
no uso de tecnologias de rede social.
05:16
And then if you look at the amount of time
124
301000
2000
E se você olha na quantidade de tempo
05:18
that they spend on these sites,
125
303000
2000
que elas gastam nesses sites,
05:20
they truly dominate the social media space,
126
305000
3000
elas realmente dominam o espaço da mídia social,
05:23
which is a space that's having a huge impact
127
308000
3000
que é um espaço que está tendo um grande impacto
05:26
on old media.
128
311000
2000
na velha mídia.
05:28
The question is: what sort of impact
129
313000
2000
A questão é, que tipo de impacto
05:30
is this going to have on our culture,
130
315000
3000
vai acontecer na nossa cultura
05:33
and what's it going to mean for women?
131
318000
2000
e o que isso vai significar para as mulheres?
05:35
If the case is that social media
132
320000
2000
Se for o caso da mídia social
05:37
is dominating old media
133
322000
2000
estar dominando a velha mídia
05:39
and women are dominating social media,
134
324000
3000
e as mulheres estão dominando a mídia social,
05:42
then does that mean that women
135
327000
2000
então isso quer dizer que as mulheres
05:44
are going to take over global media?
136
329000
2000
vão dominar a mídia global?
05:46
Are we suddenly going to see
137
331000
2000
De repente vamos ver
05:48
a lot more female characters in cartoons
138
333000
2000
um monte de personagens femininos em desenhos
05:50
and in games and on TV shows?
139
335000
3000
e em jogos e nos shows de TV?
05:53
Will the next big-budget blockbuster movies
140
338000
4000
Os próximos filmes arrasa-quarteirões
05:57
actually be chick flicks?
141
342000
3000
serão filmes para garotas?
06:00
Could this be possible,
142
345000
2000
Será possível
06:02
that suddenly our media landscape
143
347000
2000
que de repente nosso panorama da mídia
06:04
will become a feminist landscape?
144
349000
3000
se tornará um panorama feminino?
06:08
Well, I actually don't think that's going to be the case.
145
353000
3000
Bem, eu realmente não acho que será esse o caso,
06:11
I think that media companies are going to hire a lot more women,
146
356000
3000
eu acho que a companhias de mídia vão contratar muito mais mulheres,
06:14
because they realize this is important for their business,
147
359000
2000
pois elas perceberão que isso é importante para seu negócio.
06:16
and I think that women
148
361000
2000
E eu acho que as mulheres
06:18
are also going to continue to dominate
149
363000
2000
também vão continuar a dominar
06:20
the social media sphere.
150
365000
2000
a esfera da mídia social.
06:22
But I think women are actually going to be -- ironically enough --
151
367000
3000
Mas eu acho que as mulheres serão – ironicamente –
06:25
responsible for driving a stake through the heart
152
370000
3000
responsáveis por dar um golpe de misericórdia
06:28
of cheesy genre categories
153
373000
4000
nas categorias de gênero clichê
06:32
like the "chick flick"
154
377000
2000
como os filmes para garotas
06:34
and all these other genre categories
155
379000
2000
e todas essas outras categorias
06:36
that presume that certain demographic groups
156
381000
3000
que presumem que certos grupos demográficos
06:39
like certain things --
157
384000
2000
gostam de certas coisas,
06:41
that Hispanics like certain things,
158
386000
2000
como hispânicos gostam de certas coisas,
06:43
that young people like certain things.
159
388000
2000
que pessoas jovens gostam de certas coisas.
06:45
This is far too simplistic.
160
390000
2000
Isso é simplista demais.
06:47
The future entertainment media that we're going to see
161
392000
3000
A mídia de entretenimento do futuro que veremos
06:50
is going to be very data-driven,
162
395000
2000
vai ser muito dirigida por dados,
06:52
and it's going to be based on the information
163
397000
2000
e vai ser baseada na informação
06:54
that we ascertain from taste communities online,
164
399000
3000
que nós estabelecemos a partir do gosto de comunidades online,
06:57
where women are really driving the action.
165
402000
3000
onde as mulheres estão realmente dominando.
07:00
So you may be asking, well why is it important
166
405000
3000
Então você pode perguntar, por que é importante
07:03
that I know what entertains people?
167
408000
2000
que eu saiba o que entretem as pessoas?
07:05
Why should I know this?
168
410000
2000
Por que eu deveria saber isso?
07:07
Of course, old media companies and advertisers
169
412000
2000
É claro, as companhias da velha mídia e propaganda
07:09
need to know this.
170
414000
2000
precisam saber isso.
07:11
But my argument is that,
171
416000
2000
Mas meu argumento é que,
07:13
if you want to understand the global village,
172
418000
2000
se você quer entender a aldeia global,
07:15
it's probably a good idea that you figure out
173
420000
2000
provavelmente é uma boa idéia descobrir
07:17
what they're passionate about, what amuses them,
174
422000
3000
do que eles gostam, o que os divertem,
07:20
what they choose to do in their free time.
175
425000
3000
o que eles escolhem para fazer no tempo livre.
07:23
This is a very important thing to know about people.
176
428000
3000
Isso é uma coisa muito importante para saber sobre as pessoas.
07:26
I've spent most of my professional life
177
431000
3000
Eu gastei a maior parte da minha vida profissional
07:29
researching media and entertainment
178
434000
2000
pesquisando a mídia e entretenimento
07:31
and its impact on people's lives.
179
436000
2000
e seu impacto na vida das pessoas.
07:33
And I do it not just because it's fun --
180
438000
3000
E eu faço isso, não só porque é divertido –
07:36
though actually, it is really fun --
181
441000
2000
na verdade, é muito divertido –
07:38
but also because
182
443000
2000
mas também porque
07:40
our research has shown over and over again
183
445000
2000
nossa pesquisa tem mostrado mais de uma vez
07:42
that entertainment and play
184
447000
2000
que o entretenimento e o lazer
07:44
have a huge impact on people's lives --
185
449000
3000
têm um grande impacto na vida das pessoas –
07:47
for instance, on their political beliefs
186
452000
2000
por exemplo, em suas crenças políticas
07:49
and on their health.
187
454000
2000
e em sua saúde.
07:51
And so, if you have any interest in understanding the world,
188
456000
3000
E assim, se você tem algum interesse em entender o mundo,
07:54
looking at how people amuse themselves
189
459000
2000
observar como as pessoas se divertem
07:56
is a really good way to start.
190
461000
3000
é uma boa maneira de começar.
07:59
So imagine a media atmosphere
191
464000
3000
Então imagine uma atmosfera de mídia
08:02
that isn't dominated by lame stereotypes
192
467000
3000
que não é dominada por estereótipos incoerentes
08:05
about gender
193
470000
2000
sobre gênero
08:07
and other demographic characteristics.
194
472000
2000
e outras características demográficas.
08:09
Can you even imagine what that looks like?
195
474000
2000
Você pode imaginar como será isso?
08:11
I can't wait to find out what it looks like.
196
476000
2000
Eu não posso esperar para descobrir como será.
08:13
Thank you so much.
197
478000
2000
Muito obrigada.
08:15
(Applause)
198
480000
6000
(Aplausos)
Translated by Francisco Paulino Dubiela
Reviewed by Jeff Caponero

▲Back to top

ABOUT THE SPEAKER
Johanna Blakley - Media maven
Johanna Blakley studies the impact of mass media and entertainment on our world.

Why you should listen

As the Deputy Director of the Norman Lear Center (a media-focused think tank at the University of Southern California) Johanna Blakley spends much of her time exploring how our entertainment interacts with our political, commercial and social habits. She is especially interested in the surprising impact of intellectual property rights on innovation, organizing conferences around the lack of creative ownership in fashion as well as technology and the ownership of creative content.

Blakley has worked across a huge variety of media platforms -- producing for the web on a large scale, conducting gaming research, coordinating events for film festivals and executing consumer research on entertainment and politics. Drawing on this vast body of experience, she also lectures at USC and helped develop their masters program in Public Diplomacy.

More profile about the speaker
Johanna Blakley | Speaker | TED.com