ABOUT THE SPEAKER
Nicholas Christakis - Physician, social scientist
Nicholas Christakis explores how the large-scale, face-to-face social networks in which we are embedded affect our lives, and what we can do to take advantage of this fact.

Why you should listen

People aren't merely social animals in the usual sense, for we don't just live in groups. We live in networks -- and we have done so ever since we emerged from the African savannah. Via intricately branching paths tracing out cascading family connections, friendship ties, and work relationships, we are interconnected to hundreds or even thousands of specific people, most of whom we do not know. We affect them and they affect us.

Nicholas Christakis' work examines the biological, psychological, sociological, and mathematical rules that govern how we form these social networks, and the rules that govern how they shape our lives. His work shows how phenomena as diverse as obesity, smoking, emotions, ideas, germs, and altruism can spread through our social ties, and how genes can partially underlie our creation of social ties to begin with. His work also sheds light on how we might take advantage of an understanding of social networks to make the world a better place.

At Yale, Christakis is a Professor of Social and Natural Science, and he directs a diverse research group in the field of biosocial science, primarily investigating social networks. His popular undergraduate course "Health of the Public" is available as a podcast. His book, Connected, co-authored with James H. Fowler, appeared in 2009, and has been translated into 20 languages. In 2009, he was named by Time magazine to its annual list of the 100 most influential people in the world, and also, in 2009 and 2010, by Foreign Policy magazine to its list of 100 top global thinkers

More profile about the speaker
Nicholas Christakis | Speaker | TED.com
TED@Cannes

Nicholas Christakis: How social networks predict epidemics

Nicholas Christakis: Como as redes sociais predizem epidemias

Filmed:
669,862 views

Após mapear intrincadas redes sociais humanas, Nicholas Christakis e seu colega James Fowler começaram a investigar como essa informação poderia melhorar as nossas vidas. Agora, ele revela seus novos achados : Essas redes podem ser usadas para detectar epidemias mais cedo do que nunca, desde de idéias inovadoras até comportamentos de risco e viroses (como HN1).
- Physician, social scientist
Nicholas Christakis explores how the large-scale, face-to-face social networks in which we are embedded affect our lives, and what we can do to take advantage of this fact. Full bio

Double-click the English transcript below to play the video.

00:15
For the last 10 years, I've been spending my time trying to figure out
0
0
3000
Nos últimos 10 anos, eu tenho investido o meu tempo tentando descobrir
00:18
how and why human beings
1
3000
2000
como e por que os seres humanos
00:20
assemble themselves into social networks.
2
5000
3000
se reúnem em redes sociais.
00:23
And the kind of social network I'm talking about
3
8000
2000
E o tipo de rede social sobre a qual eu estou falando
00:25
is not the recent online variety,
4
10000
2000
não é a recente variedade online,
00:27
but rather, the kind of social networks
5
12000
2000
pelo contrário, é sobre o tipo de redes sociais
00:29
that human beings have been assembling for hundreds of thousands of years,
6
14000
3000
em que os seres humanos têm se reunido por centenas de milhares de anos,
00:32
ever since we emerged from the African savannah.
7
17000
3000
desde que emergimos da savana africana.
00:35
So, I form friendships and co-worker
8
20000
2000
Então, eu tenho relações de amizade, de colega de trabalho,
00:37
and sibling and relative relationships with other people
9
22000
3000
de irmão e relações de família com outras pessoas
00:40
who in turn have similar relationships with other people.
10
25000
2000
que, por sua vez, têm relações similares com outras pessoas.
00:42
And this spreads on out endlessly into a distance.
11
27000
3000
E isso se espalha em uma distância infinita.
00:45
And you get a network that looks like this.
12
30000
2000
E você tem uma rede parecida com essa.
00:47
Every dot is a person.
13
32000
2000
Cada ponto é uma pessoa.
00:49
Every line between them is a relationship between two people --
14
34000
2000
Cada linha entre eles é uma relação entre duas pessoas --
00:51
different kinds of relationships.
15
36000
2000
diferentes tipos de relações.
00:53
And you can get this kind of vast fabric of humanity,
16
38000
3000
E você pode obter esse vasto tipo de rede da humanidade.
00:56
in which we're all embedded.
17
41000
2000
em que nós todos estamos envolvidos.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
43000
3000
O meu colega, James Fowler, e eu temos estudado há bastante tempo
01:01
what are the mathematical, social,
19
46000
2000
quais são as regras matemáticas, sociais,
01:03
biological and psychological rules
20
48000
3000
biológicas e psicológicas
01:06
that govern how these networks are assembled
21
51000
2000
que governam como essas redes são organizadas
01:08
and what are the similar rules
22
53000
2000
e quais são as regras similares
01:10
that govern how they operate, how they affect our lives.
23
55000
3000
que governam como elas operam, como elas afetam as nossas vidas.
01:13
But recently, we've been wondering
24
58000
2000
E recentemente, nós temos questionado
01:15
whether it might be possible to take advantage of this insight,
25
60000
3000
se seria possível tirar vantagem desse entendimento,
01:18
to actually find ways to improve the world,
26
63000
2000
para realmente encontrar formas de melhorar o mundo,
01:20
to do something better,
27
65000
2000
para fazer algo melhor,
01:22
to actually fix things, not just understand things.
28
67000
3000
para, na verdade, corrigir as coisas, não apenas entendê-las.
01:25
So one of the first things we thought we would tackle
29
70000
3000
Então uma das primeiras coisas que nós pensamos que atacaríamos
01:28
would be how we go about predicting epidemics.
30
73000
3000
seria sobre como prever epidemias.
01:31
And the current state of the art in predicting an epidemic --
31
76000
2000
E o atual estado da arte em predizer uma epidemia --
01:33
if you're the CDC or some other national body --
32
78000
3000
se você é o CDC (centro de controle de doenças) ou algum outro órgão nacional --
01:36
is to sit in the middle where you are
33
81000
2000
é sentar no meio de onde você está
01:38
and collect data
34
83000
2000
e coletar dados
01:40
from physicians and laboratories in the field
35
85000
2000
de médicos e laboratórios da área
01:42
that report the prevalence or the incidence of certain conditions.
36
87000
3000
que relatam a prevalência ou a incidência de certas condições.
01:45
So, so and so patients have been diagnosed with something,
37
90000
3000
Tal, tal e tal pacientes têm sido diagnosticados com alguma coisa [por aqui],
01:48
or other patients have been diagnosed,
38
93000
2000
ou outros pacientes têm sido diagnosticados [ali],
01:50
and all these data are fed into a central repository, with some delay.
39
95000
3000
e todos esses dados alimentam um repositório central com algum atraso.
01:53
And if everything goes smoothly,
40
98000
2000
E se tudo correr bem,
01:55
one to two weeks from now
41
100000
2000
em uma ou duas semanas,
01:57
you'll know where the epidemic was today.
42
102000
3000
você saberá onde a epidemia estava hoje.
02:00
And actually, about a year or so ago,
43
105000
2000
Na verdade, cerca de um ano ou mais atrás,
02:02
there was this promulgation
44
107000
2000
houve esse tipo de propagação
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
109000
3000
dessa noção de Tendências de Gripe no Google, com relação à gripe,
02:07
where by looking at people's searching behavior today,
46
112000
3000
onde por pesquisar o comportamento de busca das pessoas hoje,
02:10
we could know where the flu --
47
115000
2000
nós poderíamos saber aonde a gripe ...
02:12
what the status of the epidemic was today,
48
117000
2000
qual o status da epidemia hoje,
02:14
what's the prevalence of the epidemic today.
49
119000
3000
qual é a prevalência da epidemia hoje.
02:17
But what I'd like to show you today
50
122000
2000
Mas o que eu gostaria de mostrar hoje
02:19
is a means by which we might get
51
124000
2000
é um meio pelo qual nós podemos chegar
02:21
not just rapid warning about an epidemic,
52
126000
3000
não apenas a um alerta rápido de uma epidemia,
02:24
but also actually
53
129000
2000
mas também
02:26
early detection of an epidemic.
54
131000
2000
à detecção precoce de uma epidemia.
02:28
And, in fact, this idea can be used
55
133000
2000
E de fato, essa ideia pode ser usada
02:30
not just to predict epidemics of germs,
56
135000
3000
não apenas para predizer epidemias de germes,
02:33
but also to predict epidemics of all sorts of kinds.
57
138000
3000
mas também para predizer epidemias de todos os tipos.
02:37
For example, anything that spreads by a form of social contagion
58
142000
3000
Por exemplo, qualquer coisa que se espalha pela forma de contágio social
02:40
could be understood in this way,
59
145000
2000
poderia ser entendida dessa forma,
02:42
from abstract ideas on the left
60
147000
2000
desde idéias abstratas sobre a esquerda,
02:44
like patriotism, or altruism, or religion
61
149000
3000
como patriotismo, ou altruísmo, ou religião,
02:47
to practices
62
152000
2000
até práticas
02:49
like dieting behavior, or book purchasing,
63
154000
2000
como comportamento alimentar ou compras de livros
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
156000
3000
ou beber ou capacete de bicicleta e outras práticas de segurança,
02:54
or products that people might buy,
65
159000
2000
ou produtos que pessoas podem comprar,
02:56
purchases of electronic goods,
66
161000
2000
compra de produtos eletrônicos,
02:58
anything in which there's kind of an interpersonal spread.
67
163000
3000
qualquer coisa em que há um tipo de propagação interpessoal.
03:01
A kind of a diffusion of innovation
68
166000
2000
Um tipo de difusão de inovação
03:03
could be understood and predicted
69
168000
2000
poderia ser entendida e prevista
03:05
by the mechanism I'm going to show you now.
70
170000
3000
pelo mecanismo que eu vou mostrar agora.
03:08
So, as all of you probably know,
71
173000
2000
Como todos vocês provavelmente sabem,
03:10
the classic way of thinking about this
72
175000
2000
a clássica forma de pensar sobre isso
03:12
is the diffusion-of-innovation,
73
177000
2000
é a difusão da inovação
03:14
or the adoption curve.
74
179000
2000
ou a "curva de adoção."
03:16
So here on the Y-axis, we have the percent of the people affected,
75
181000
2000
Aqui no eixo Y, nós temos o percentual de pessoas afetadas,
03:18
and on the X-axis, we have time.
76
183000
2000
e no eixo X, nós temos o tempo.
03:20
And at the very beginning, not too many people are affected,
77
185000
3000
E bem no começo, não muitas pessoas são afetadas,
03:23
and you get this classic sigmoidal,
78
188000
2000
e você tem essa clássica sigmoide.
03:25
or S-shaped, curve.
79
190000
2000
ou curva em forma de S.
03:27
And the reason for this shape is that at the very beginning,
80
192000
2000
E a razão para essa forma é que bem no começo,
03:29
let's say one or two people
81
194000
2000
vamos dizer uma ou duas pessoas
03:31
are infected, or affected by the thing
82
196000
2000
são afetadas, ou infectadas pela coisa,
03:33
and then they affect, or infect, two people,
83
198000
2000
e então eles afetam ou infectam duas pessoas
03:35
who in turn affect four, eight, 16 and so forth,
84
200000
3000
que, por sua vez, afetam quatro, oito, 16 e assim por diante,
03:38
and you get the epidemic growth phase of the curve.
85
203000
3000
e você tem a fase de crescimento epidêmico da curva.
03:41
And eventually, you saturate the population.
86
206000
2000
E finalmente, você satura a população.
03:43
There are fewer and fewer people
87
208000
2000
Há menos e menos pessoas
03:45
who are still available that you might infect,
88
210000
2000
que ainda estão disponíveis para você infectar,
03:47
and then you get the plateau of the curve,
89
212000
2000
e então você chega ao platô da curva,
03:49
and you get this classic sigmoidal curve.
90
214000
3000
e você tem essa clássica curva sigmoide.
03:52
And this holds for germs, ideas,
91
217000
2000
E isso vale para os germes, idéias
03:54
product adoption, behaviors,
92
219000
2000
adoção de produtos, comportamentos
03:56
and the like.
93
221000
2000
e assim por diante.
03:58
But things don't just diffuse in human populations at random.
94
223000
3000
Mas as coisas não se difundem em população humanas aleatoriamente.
04:01
They actually diffuse through networks.
95
226000
2000
Elas, na verdade, se difundem através de redes.
04:03
Because, as I said, we live our lives in networks,
96
228000
3000
Por que, como eu disse, nós vivemos nossas vidas em redes,
04:06
and these networks have a particular kind of a structure.
97
231000
3000
e essas redes têm um tipo particular de estrutura.
04:09
Now if you look at a network like this --
98
234000
2000
Agora se você olhar para uma rede como essa ...
04:11
this is 105 people.
99
236000
2000
Aqui há 105 pessoas.
04:13
And the lines represent -- the dots are the people,
100
238000
2000
E as linhas representam ... os pontos são as pessoas,
04:15
and the lines represent friendship relationships.
101
240000
2000
e as linhas representam as relações de amizade.
04:17
You might see that people occupy
102
242000
2000
Você pode ver que as pessoas ocupam
04:19
different locations within the network.
103
244000
2000
diferentes localizações dentro da rede.
04:21
And there are different kinds of relationships between the people.
104
246000
2000
E há diferentes tipos de relações entre as pessoas.
04:23
You could have friendship relationships, sibling relationships,
105
248000
3000
Você poderia ter relações de amizade, relações de irmãos,
04:26
spousal relationships, co-worker relationships,
106
251000
3000
relações conjugais, relações de trabalho,
04:29
neighbor relationships and the like.
107
254000
3000
relações de vizinhos e assim por diante.
04:32
And different sorts of things
108
257000
2000
E os diferentes tipos de coisas
04:34
spread across different sorts of ties.
109
259000
2000
se espalham através de diferentes tipos de laços.
04:36
For instance, sexually transmitted diseases
110
261000
2000
Por exemplo, doenças sexualmente transmissíveis
04:38
will spread across sexual ties.
111
263000
2000
se espalharão através de laços sexuais.
04:40
Or, for instance, people's smoking behavior
112
265000
2000
Ou por exemplo, o comportamento de fumar
04:42
might be influenced by their friends.
113
267000
2000
pode ser influenciado por amigos.
04:44
Or their altruistic or their charitable giving behavior
114
269000
2000
Ou seus comportamentos atruístas ou de caridade
04:46
might be influenced by their coworkers,
115
271000
2000
podem ser influenciados pelos seus colegas de trabalho,
04:48
or by their neighbors.
116
273000
2000
ou por seus vizinhos.
04:50
But not all positions in the network are the same.
117
275000
3000
Mas nem todas as posições na rede são as mesmas.
04:53
So if you look at this, you might immediately grasp
118
278000
2000
Se você olhar para isso, você pode imediatamente compreender
04:55
that different people have different numbers of connections.
119
280000
3000
que diferentes pessoas têm diferentes números de conexões.
04:58
Some people have one connection, some have two,
120
283000
2000
Algumas pessoas têm uma conexão, algumas têm duas,
05:00
some have six, some have 10 connections.
121
285000
3000
algumas têm seis, algumas têm 10 conexões.
05:03
And this is called the "degree" of a node,
122
288000
2000
E isso é chamado de grau de enredo,
05:05
or the number of connections that a node has.
123
290000
2000
ou o número de conexões de um nó.
05:07
But in addition, there's something else.
124
292000
2000
Mas além disso, há uma coisa também.
05:09
So, if you look at nodes A and B,
125
294000
2000
Então, se você olha para os nós A e B,
05:11
they both have six connections.
126
296000
2000
ambos têm seis conexões.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
298000
3000
Mas se você olhar para essa imagem [da rede] do ponto de vista de um pássaro,
05:16
you can appreciate that there's something very different
128
301000
2000
você pode notar que há alguma coisa muito diferente
05:18
about nodes A and B.
129
303000
2000
sobre os nós A e B.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
305000
3000
Deixa eu perguntar a vocês isso -- eu posso cultivar essa intuição fazendo uma questão --
05:23
who would you rather be
131
308000
2000
quem vocês gostariam de ser
05:25
if a deadly germ was spreading through the network, A or B?
132
310000
3000
se um germe mortal estivesse se espalhando através da rede, A ou B?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
313000
2000
(Platéia: B) Nicholas Christakis: B, é óbvio.
05:30
B is located on the edge of the network.
134
315000
2000
B está localizado na borda da rede.
05:32
Now, who would you rather be
135
317000
2000
Agora, quem vocês gostariam de ser
05:34
if a juicy piece of gossip were spreading through the network?
136
319000
3000
se fofocas estivessem se espalhando através da rede?
05:37
A. And you have an immediate appreciation
137
322000
3000
A. E você tem uma apreciação imediata
05:40
that A is going to be more likely
138
325000
2000
que A é mais provável
05:42
to get the thing that's spreading and to get it sooner
139
327000
3000
de pegar uma coisa que está se espalhando e pegá-la mais rápido
05:45
by virtue of their structural location within the network.
140
330000
3000
em função de sua localização estrutural na rede.
05:48
A, in fact, is more central,
141
333000
2000
A, de fato, é mais central,
05:50
and this can be formalized mathematically.
142
335000
3000
e isso pode ser formalizado matematicamente.
05:53
So, if we want to track something
143
338000
2000
Se nós quisermos monitorar alguma coisa
05:55
that was spreading through a network,
144
340000
3000
que estivesse se espalhando através de uma rede,
05:58
what we ideally would like to do is to set up sensors
145
343000
2000
o que nós idealmente gostaríamos de fazer é configurar os sensores
06:00
on the central individuals within the network,
146
345000
2000
sobre os indivíduos centrais dentro da rede
06:02
including node A,
147
347000
2000
incluindo o nó A,
06:04
monitor those people that are right there in the middle of the network,
148
349000
3000
monitorar aquelas pessoas que estão bem no meio da rede,
06:07
and somehow get an early detection
149
352000
2000
e de alguma forma conseguir uma detecção precoce
06:09
of whatever it is that is spreading through the network.
150
354000
3000
de tudo o que estiver se espalhando pela rede.
06:12
So if you saw them contract a germ or a piece of information,
151
357000
3000
Se vocês vissem eles contraírem um germe ou alguma informação,
06:15
you would know that, soon enough,
152
360000
2000
vocês saberiam que, breve o suficiente,
06:17
everybody was about to contract this germ
153
362000
2000
todos estariam próximos de contrair esse germe
06:19
or this piece of information.
154
364000
2000
ou essa informação.
06:21
And this would be much better
155
366000
2000
E isso seria muito melhor
06:23
than monitoring six randomly chosen people,
156
368000
2000
que monitorar seis pessoas aleatoriamente,
06:25
without reference to the structure of the population.
157
370000
3000
sem referência à estrutura da população.
06:28
And in fact, if you could do that,
158
373000
2000
E de fato, se você pudesse fazer isso,
06:30
what you would see is something like this.
159
375000
2000
o que você veria é alguma coisa como isso,
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
377000
3000
no painel do lado esquerdo, de novo, temos a curva de adoção em forma de S.
06:35
In the dotted red line, we show
161
380000
2000
Na linha vermelha pontilhada, nós mostramos
06:37
what the adoption would be in the random people,
162
382000
2000
o que seria a adoção em pessoas randômicas,
06:39
and in the left-hand line, shifted to the left,
163
384000
3000
e na linha esquerda deslocada para a esquerda,
06:42
we show what the adoption would be
164
387000
2000
nós mostramos o que a adoção seria
06:44
in the central individuals within the network.
165
389000
2000
nos indivíduos centrais à rede.
06:46
On the Y-axis is the cumulative instances of contagion,
166
391000
2000
No eixo Y, estão os casos acumulados de contágio,
06:48
and on the X-axis is the time.
167
393000
2000
e no eixo X está o tempo.
06:50
And on the right-hand side, we show the same data,
168
395000
2000
E no lado direito, nós mostramos os mesmos dados,
06:52
but here with daily incidence.
169
397000
2000
mas aqui com incidências diárias.
06:54
And what we show here is -- like, here --
170
399000
2000
E o que nós mostramos aqui é -- como, aqui --
06:56
very few people are affected, more and more and more and up to here,
171
401000
2000
muito poucas pessoas são afetadas, mais e mais e mais até aqui,
06:58
and here's the peak of the epidemic.
172
403000
2000
e aqui está o pico da epidemia.
07:00
But shifted to the left is what's occurring in the central individuals.
173
405000
2000
Mas deslocada para a esquerda nos indivíduos centrais.
07:02
And this difference in time between the two
174
407000
3000
E essa diferença em tempo entre os dois
07:05
is the early detection, the early warning we can get,
175
410000
3000
é a detecção precoce, o alarme precoce que nós podemos obter
07:08
about an impending epidemic
176
413000
2000
acerca de uma epidemia iminente
07:10
in the human population.
177
415000
2000
na população humana.
07:12
The problem, however,
178
417000
2000
O problema, porém,
07:14
is that mapping human social networks
179
419000
2000
é que mapear redes sociais humanas
07:16
is not always possible.
180
421000
2000
nem sempre é possível.
07:18
It can be expensive, not feasible,
181
423000
2000
Isso pode ser caro, [muito difícil],
07:20
unethical,
182
425000
2000
antiético,
07:22
or, frankly, just not possible to do such a thing.
183
427000
3000
ou, francamente, simplesmente poderia não ser possível fazer uma coisa dessas.
07:25
So, how can we figure out
184
430000
2000
Então, como podemos descobrir
07:27
who the central people are in a network
185
432000
2000
quem são as pessoas centrais na rede
07:29
without actually mapping the network?
186
434000
3000
sem, na verdade, mapear a rede?
07:32
What we came up with
187
437000
2000
O que surgiu
07:34
was an idea to exploit an old fact,
188
439000
2000
foi uma idéia para explorar um fato antigo,
07:36
or a known fact, about social networks,
189
441000
2000
ou um conhecido fato sobre redes sociais,
07:38
which goes like this:
190
443000
2000
que é o seguinte:
07:40
Do you know that your friends
191
445000
2000
você sabe que seus amigos
07:42
have more friends than you do?
192
447000
3000
têm mais amigos do que você?
07:45
Your friends have more friends than you do,
193
450000
3000
Seus amigos têm mais amigos do que você.
07:48
and this is known as the friendship paradox.
194
453000
2000
Esse é o conhecido paradoxo da amizade.
07:50
Imagine a very popular person in the social network --
195
455000
2000
Imagine uma pessoa muito popular na rede social --
07:52
like a party host who has hundreds of friends --
196
457000
3000
como o anfitrião de uma festa com centenas de amigos --
07:55
and a misanthrope who has just one friend,
197
460000
2000
e um misantropo que tem apenas um amigo,
07:57
and you pick someone at random from the population;
198
462000
3000
e você pega alguém aleatoriamente da população;
08:00
they were much more likely to know the party host.
199
465000
2000
é muito mais provável que eles conheçam o anfitrião da festa.
08:02
And if they nominate the party host as their friend,
200
467000
2000
E se eles mencionarem o anfitrião da festa como um amigo,
08:04
that party host has a hundred friends,
201
469000
2000
esse anfittrião tem uma centena de amigos,
08:06
therefore, has more friends than they do.
202
471000
3000
portanto, tem mais amigos que eles.
08:09
And this, in essence, is what's known as the friendship paradox.
203
474000
3000
E isso, em essência, é o que se conhece por paradoxo da amizade.
08:12
The friends of randomly chosen people
204
477000
3000
Os amigos de uma pessoa randomicamente escolhida
08:15
have higher degree, and are more central
205
480000
2000
têm maior grau e maior centralidade
08:17
than the random people themselves.
206
482000
2000
que as próprias pessoas randomicamente escolhidas.
08:19
And you can get an intuitive appreciation for this
207
484000
2000
E você pode obter uma apreciação intuitiva a partir disso
08:21
if you imagine just the people at the perimeter of the network.
208
486000
3000
se você imagina apenas as pessoas no perímetro da rede.
08:24
If you pick this person,
209
489000
2000
Se você pega essa pessoa,
08:26
the only friend they have to nominate is this person,
210
491000
3000
o único amigo que eles têm a mencionar é essa pessoa,
08:29
who, by construction, must have at least two
211
494000
2000
que, pela estrutura, deve ter pelo menos dois
08:31
and typically more friends.
212
496000
2000
e tipicamente mais amigos.
08:33
And that happens at every peripheral node.
213
498000
2000
E isso acontece com todos os nós periféricos.
08:35
And in fact, it happens throughout the network as you move in,
214
500000
3000
E de fato, isso acontece através da rede quando você se move para dentro,
08:38
everyone you pick, when they nominate a random --
215
503000
2000
cada uma que você pega, quando eles mencionarem um randômico ...
08:40
when a random person nominates a friend of theirs,
216
505000
3000
quando uma pessoa randômica mencionar um amigo seu,
08:43
you move closer to the center of the network.
217
508000
3000
você se move para mais perto do centro da rede.
08:46
So, we thought we would exploit this idea
218
511000
3000
Então, nós pensamos que nós exploraríamos essa idéia
08:49
in order to study whether we could predict phenomena within networks.
219
514000
3000
a fim de estudar se nós poderíamos prever fenômenos dentro das redes.
08:52
Because now, with this idea
220
517000
2000
Em função disso, com essa idéia,
08:54
we can take a random sample of people,
221
519000
2000
nós podemos pegar uma amostra randômica de pessoas,
08:56
have them nominate their friends,
222
521000
2000
que indiquem os seus amigos,
08:58
those friends would be more central,
223
523000
2000
esses amigos seriam mais centrais,
09:00
and we could do this without having to map the network.
224
525000
3000
e nós poderíamos fazer isso sem ter mapeado a rede.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
528000
3000
E nós testamos essa idéia com um surto de gripe H1N1
09:06
at Harvard College
226
531000
2000
na faculdade de Harvard
09:08
in the fall and winter of 2009, just a few months ago.
227
533000
3000
no outono e no inverno de 2009, apenas alguns meses atrás.
09:11
We took 1,300 randomly selected undergraduates,
228
536000
3000
Nós pegamos 1300 estudantes de graduação aleatoriamente selecionados,
09:14
we had them nominate their friends,
229
539000
2000
que indicaram seus amigos,
09:16
and we followed both the random students and their friends
230
541000
2000
e nós seguimos ambos os estudantes aleatoriamente escolhidos e seus amigos
09:18
daily in time
231
543000
2000
diariamente em tempo
09:20
to see whether or not they had the flu epidemic.
232
545000
3000
de ver se eles tinham ou não a gripe epidêmica.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
548000
3000
E nós fizemos isso passivamente por olhar se eles procuravam ou não os serviços de saúde da universidade.
09:26
And also, we had them [actively] email us a couple of times a week.
234
551000
3000
E também nós enviamos e-mails [ativamente] a eles algumas vezes por semana.
09:29
Exactly what we predicted happened.
235
554000
3000
Exatamente o que nós prevíamos aconteceu.
09:32
So the random group is in the red line.
236
557000
3000
O grupo randômico está na linha vermelha.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
560000
3000
A epidemia no grupo de amigos está deslocada para a esquerda, aqui.
09:38
And the difference in the two is 16 days.
238
563000
3000
E a diferença entre os dois é de 16 dias.
09:41
By monitoring the friends group,
239
566000
2000
Monitorando o grupo de amigos,
09:43
we could get 16 days advance warning
240
568000
2000
nós poderíamos alertar com 16 dias de antecedência
09:45
of an impending epidemic in this human population.
241
570000
3000
sobre uma iminente epidemia nessa população humana.
09:48
Now, in addition to that,
242
573000
2000
Agora, além disso,
09:50
if you were an analyst who was trying to study an epidemic
243
575000
3000
se você fosse um analista que estivesse tentando estudar uma epidemia
09:53
or to predict the adoption of a product, for example,
244
578000
3000
ou prever a adoção de um produto, por exemplo,
09:56
what you could do is you could pick a random sample of the population,
245
581000
3000
o que você poderia fazer é pegar uma amostra randômica da população,
09:59
also have them nominate their friends and follow the friends
246
584000
3000
que também nomeasse os seus amigos e seguir esses amigos,
10:02
and follow both the randoms and the friends.
247
587000
3000
e seguir ambos os randômicos e amigos.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
590000
3000
Entre os amigos, a primeira evidência de um pontinho acima de zero
10:08
in adoption of the innovation, for example,
249
593000
3000
em adoção ou inovação, por exemplo,
10:11
would be evidence of an impending epidemic.
250
596000
2000
seria evidência de uma epidemia iminente.
10:13
Or you could see the first time the two curves diverged,
251
598000
3000
Ou você poderia observar o primeiro momento em que as duas curvas divergem,
10:16
as shown on the left.
252
601000
2000
como mostrado na esquerda.
10:18
When did the randoms -- when did the friends take off
253
603000
3000
Quando os randômicos... quando os amigos se deslocaram
10:21
and leave the randoms,
254
606000
2000
e deixaram os randômicos,
10:23
and [when did] their curve start shifting?
255
608000
2000
e sua curva começou a mudar?
10:25
And that, as indicated by the white line,
256
610000
2000
Isso, como indicado pela linha branca,
10:27
occurred 46 days
257
612000
2000
ocorreu 46 dias
10:29
before the peak of the epidemic.
258
614000
2000
antes do pico da epidemia.
10:31
So this would be a technique
259
616000
2000
Então essa seria uma técnica
10:33
whereby we could get more than a month-and-a-half warning
260
618000
2000
pela qual nós poderíamos obter um alerta de mais de um mês e meio
10:35
about a flu epidemic in a particular population.
261
620000
3000
sobre a epidemia de gripe em uma população particular.
10:38
I should say that
262
623000
2000
E deveria dizer que
10:40
how far advanced a notice one might get about something
263
625000
2000
o quão avançado um aviso pode ser sobre alguma coisa
10:42
depends on a host of factors.
264
627000
2000
depende de uma série de fatores.
10:44
It could depend on the nature of the pathogen --
265
629000
2000
Isso poderia depender da natureza do patógeno --
10:46
different pathogens,
266
631000
2000
diferentes patógenos,
10:48
using this technique, you'd get different warning --
267
633000
2000
usando essa técnica, você obteria diferentes alertas --
10:50
or other phenomena that are spreading,
268
635000
2000
ou outro fenômeno que está se espalhando,
10:52
or frankly, on the structure of the human network.
269
637000
3000
ou, francamente, da estrutura da rede humana.
10:55
Now in our case, although it wasn't necessary,
270
640000
3000
Agora, no nosso caso, embora não tenha sido necessário,
10:58
we could also actually map the network of the students.
271
643000
2000
nós poderíamos também mapear a rede de estudantes.
11:00
So, this is a map of 714 students
272
645000
2000
Então, esse é um mapa de 714 estudantes
11:02
and their friendship ties.
273
647000
2000
e seus laços de amizade.
11:04
And in a minute now, I'm going to put this map into motion.
274
649000
2000
E em um minuto agora, eu vou colocar esse mapa em movimento.
11:06
We're going to take daily cuts through the network
275
651000
2000
Nós pegaremos cortes diários através da rede
11:08
for 120 days.
276
653000
2000
por 120 dias.
11:10
The red dots are going to be cases of the flu,
277
655000
3000
Os pontos vermelhos são os casos de gripe,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
658000
3000
e os amarelos são os amigos das pessoas com gripe.
11:16
And the size of the dots is going to be proportional
279
661000
2000
E o tamanho desses pontos é proporcional
11:18
to how many of their friends have the flu.
280
663000
2000
a quantos de seus amigos têm gripe.
11:20
So bigger dots mean more of your friends have the flu.
281
665000
3000
Quanto maiores os pontos, mais de seus amigos têm gripe.
11:23
And if you look at this image -- here we are now in September the 13th --
282
668000
3000
E se você olhar para essa imagem -- aqui nós estamos em 13 de setembro --
11:26
you're going to see a few cases light up.
283
671000
2000
você verá alguns casos surgirem.
11:28
You're going to see kind of blooming of the flu in the middle.
284
673000
2000
Você verá uma espécie de florescência de gripe no meio.
11:30
Here we are on October the 19th.
285
675000
3000
Aqui nós estamos em 19 de outubro.
11:33
The slope of the epidemic curve is approaching now, in November.
286
678000
2000
A inclinação da curva epidêmica está se aproximando agora, em novembro.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
680000
3000
Bang, bang, bang, bang, bang, você verá um monte de florescências no meio,
11:38
and then you're going to see a sort of leveling off,
288
683000
2000
e você verá uma espécie de nivelamento,
11:40
fewer and fewer cases towards the end of December.
289
685000
3000
cada vez menos casos no fim de dezembro.
11:43
And this type of a visualization
290
688000
2000
E esse tipo de visualização
11:45
can show that epidemics like this take root
291
690000
2000
mostra que epidemias como essa se enraizam
11:47
and affect central individuals first,
292
692000
2000
e afetam indivíduos centrais primeiro,
11:49
before they affect others.
293
694000
2000
antes de afetar os outros indivíduos.
11:51
Now, as I've been suggesting,
294
696000
2000
Agora, como eu tenho sugerido,
11:53
this method is not restricted to germs,
295
698000
3000
esse método não é restrito aos germes,
11:56
but actually to anything that spreads in populations.
296
701000
2000
mas, na verdade, serve para qualquer coisa que se espalha nas populações.
11:58
Information spreads in populations,
297
703000
2000
Informação se espalha em populações.
12:00
norms can spread in populations,
298
705000
2000
Normas podem se espalhar em populações.
12:02
behaviors can spread in populations.
299
707000
2000
Comportamentos podem se espalhar em populações.
12:04
And by behaviors, I can mean things like criminal behavior,
300
709000
3000
E por comportamento, eu quero dizer algo como comportamento criminoso,
12:07
or voting behavior, or health care behavior,
301
712000
3000
ou comportamento de voto, ou comportamento de cuidado com a saúde,
12:10
like smoking, or vaccination,
302
715000
2000
como fumar, ou vacinação,
12:12
or product adoption, or other kinds of behaviors
303
717000
2000
ou adoção de produtos, ou outros tipos de comportamentos
12:14
that relate to interpersonal influence.
304
719000
2000
relacionados à influência interpessoal.
12:16
If I'm likely to do something that affects others around me,
305
721000
3000
Se eu vou provavelmente fazer algo que afeta os outros em minha volta,
12:19
this technique can get early warning or early detection
306
724000
3000
essa técnica pode obter um alerta precoce, ou detecção precoce,
12:22
about the adoption within the population.
307
727000
3000
sobre a adoção dentro da população.
12:25
The key thing is that for it to work,
308
730000
2000
O aspecto chave é que, para isso funcionar,
12:27
there has to be interpersonal influence.
309
732000
2000
deve haver influência interpessoal.
12:29
It cannot be because of some broadcast mechanism
310
734000
2000
Não pode acontecer em função de um mecanismo de difusão
12:31
affecting everyone uniformly.
311
736000
3000
afetando todos uniformemente.
12:35
Now the same insights
312
740000
2000
Os mesmos insights
12:37
can also be exploited -- with respect to networks --
313
742000
3000
podem também ser explorados -- com respeito a redes --
12:40
can also be exploited in other ways,
314
745000
3000
podem também ser explorados de outras formas,
12:43
for example, in the use of targeting
315
748000
2000
por exemplo, no uso de alvos,
12:45
specific people for interventions.
316
750000
2000
pessoas específicas, para intervenções.
12:47
So, for example, most of you are probably familiar
317
752000
2000
Por exemplo, a maioria de vocês está provavelmente familiarizado
12:49
with the notion of herd immunity.
318
754000
2000
com a noção de imunidade de rebanho.
12:51
So, if we have a population of a thousand people,
319
756000
3000
Se nós temos uma população de mil pessoas,
12:54
and we want to make the population immune to a pathogen,
320
759000
3000
e nós queremos torná-la imune a um patógeno,
12:57
we don't have to immunize every single person.
321
762000
2000
nós não temos que imunizar cada uma das pessoas.
12:59
If we immunize 960 of them,
322
764000
2000
Se nós imunizarmos 960 delas,
13:01
it's as if we had immunized a hundred [percent] of them.
323
766000
3000
será como se nós tivessemos imunizado cem por cento delas.
13:04
Because even if one or two of the non-immune people gets infected,
324
769000
3000
Por que mesmo se uma ou duas pessoas não imunizadas forem infectadas,
13:07
there's no one for them to infect.
325
772000
2000
não há ninguém para elas infectarem.
13:09
They are surrounded by immunized people.
326
774000
2000
Elas estão cercadas por pessoas imunizadas.
13:11
So 96 percent is as good as 100 percent.
327
776000
3000
Então 96 por cento é tão bom quanto 100 por cento.
13:14
Well, some other scientists have estimated
328
779000
2000
Bem, alguns outros cientistas têm estimado
13:16
what would happen if you took a 30 percent random sample
329
781000
2000
o que aconteceria se você pegasse uma amostra randômica de 30 por cento
13:18
of these 1000 people, 300 people and immunized them.
330
783000
3000
dessas 1000 pessoas, 300 pessoas e as imunizasse.
13:21
Would you get any population-level immunity?
331
786000
2000
Você obteria uma imunização em nível de população?
13:23
And the answer is no.
332
788000
3000
E a resposta é não.
13:26
But if you took this 30 percent, these 300 people
333
791000
2000
Mas se você pegasse esses 30 por cento, essas 300 pessoas,
13:28
and had them nominate their friends
334
793000
2000
e elas indicassem os seus amigos,
13:30
and took the same number of vaccine doses
335
795000
3000
e você pegasse o mesmo número de doses de vacina
13:33
and vaccinated the friends of the 300 --
336
798000
2000
e vacinasse os amigos dos 300,
13:35
the 300 friends --
337
800000
2000
os 300 amigos,
13:37
you can get the same level of herd immunity
338
802000
2000
você teria o mesmo nível de imunidade de rebanho
13:39
as if you had vaccinated 96 percent of the population
339
804000
3000
como se você tivesse vacinado 96 por cento da população,
13:42
at a much greater efficiency, with a strict budget constraint.
340
807000
3000
com muito mais eficiência, com uma restrição orçamentária.
13:45
And similar ideas can be used, for instance,
341
810000
2000
E idéias semelhantes podem ser usadas, por exemplo,
13:47
to target distribution of things like bed nets
342
812000
2000
para atingir a meta de distribuição de mosqueteiros
13:49
in the developing world.
343
814000
2000
no mundo em desenvolvimento.
13:51
If we could understand the structure of networks in villages,
344
816000
3000
Se você pudesse entender a estrutura das redes nas aldeias,
13:54
we could target to whom to give the interventions
345
819000
2000
você poderia atingir o alvo a quem dar essas intervenções
13:56
to foster these kinds of spreads.
346
821000
2000
para promover esse tipo de propagação.
13:58
Or, frankly, for advertising with all kinds of products.
347
823000
3000
Ou, francamente, para publicidade de todo o tipo de produtos.
14:01
If we could understand how to target,
348
826000
2000
Se nós pudéssemos entender atingir o alvo,
14:03
it could affect the efficiency
349
828000
2000
isso poderia afetar a eficiência
14:05
of what we're trying to achieve.
350
830000
2000
do que nós estamos tentanto atingir.
14:07
And in fact, we can use data
351
832000
2000
E de fato, nós podemos usar esses dados
14:09
from all kinds of sources nowadays [to do this].
352
834000
2000
de todos os tipos de fontes hoje em dia [para fazer isso].
14:11
This is a map of eight million phone users
353
836000
2000
Esse é um mapa de oito milhões de usuários de telefone
14:13
in a European country.
354
838000
2000
em um país europeu.
14:15
Every dot is a person, and every line represents
355
840000
2000
Cada ponto é uma pessoa e cada linha representa
14:17
a volume of calls between the people.
356
842000
2000
um volume de chamadas entre as pessoas.
14:19
And we can use such data, that's being passively obtained,
357
844000
3000
E nós podemos usar dados como esses, que são passivamente obtidos,
14:22
to map these whole countries
358
847000
2000
para mapear esses países
14:24
and understand who is located where within the network.
359
849000
3000
e entender quem está localizado dentro da rede.
14:27
Without actually having to query them at all,
360
852000
2000
Sem, na verdade, ter de consultar a todos,
14:29
we can get this kind of a structural insight.
361
854000
2000
nós podemos obter esse tipo de compreensão estrutural.
14:31
And other sources of information, as you're no doubt aware
362
856000
3000
E outras fontes de informação, como vocês conhecem, sem dúvida
14:34
are available about such features, from email interactions,
363
859000
3000
são disponíveis através de informações sobre interações por e-mail,
14:37
online interactions,
364
862000
2000
interações online,
14:39
online social networks and so forth.
365
864000
3000
redes sociais online e assim por diante.
14:42
And in fact, we are in the era of what I would call
366
867000
2000
E de fato, nós estamos na era do que eu poderia chamar
14:44
"massive-passive" data collection efforts.
367
869000
3000
esforços massivos e passivos de coleta de dados.
14:47
They're all kinds of ways we can use massively collected data
368
872000
3000
Elas são as formas pelas quais nós podemos coletar dados massivamente
14:50
to create sensor networks
369
875000
3000
para criar redes de sensores
14:53
to follow the population,
370
878000
2000
para seguir a população,
14:55
understand what's happening in the population,
371
880000
2000
entender o que está acontecendo na populção
14:57
and intervene in the population for the better.
372
882000
3000
e intervir na população para o melhor.
15:00
Because these new technologies tell us
373
885000
2000
Por que essas novas tecnologias nos dizem,
15:02
not just who is talking to whom,
374
887000
2000
não apenas quem está falando com quem,
15:04
but where everyone is,
375
889000
2000
mas onde cada um está
15:06
and what they're thinking based on what they're uploading on the Internet,
376
891000
3000
e o que eles estão pensando baseados no que eles uploading na internet,
15:09
and what they're buying based on their purchases.
377
894000
2000
e o que eles estão comprando baseados na suas compras.
15:11
And all this administrative data can be pulled together
378
896000
3000
E todos esses dados administrativos podem ser obtidos juntos
15:14
and processed to understand human behavior
379
899000
2000
e processados para entender o comportamento humano
15:16
in a way we never could before.
380
901000
3000
de uma forma que nós nunca conseguimos antes.
15:19
So, for example, we could use truckers' purchases of fuel.
381
904000
3000
Por exemplo, nós poderíamos usar as compras de combustível dos caminhoneiros.
15:22
So the truckers are just going about their business,
382
907000
2000
Os caminhoneiros estão apenas fazendo o seu negócio,
15:24
and they're buying fuel.
383
909000
2000
e eles estão comprando combustível.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
911000
3000
E nós vemos um pontinho nas compras de combustíveis dos caminhoneiros,
15:29
and we know that a recession is about to end.
385
914000
2000
e nós sabemos que a recessão está próxima do fim.
15:31
Or we can monitor the velocity
386
916000
2000
Ou nós podemos monitorar a velocidade
15:33
with which people are moving with their phones on a highway,
387
918000
3000
com que cada pessoa está se movimentando com seu telefone em uma rodovia,
15:36
and the phone company can see,
388
921000
2000
e a companhia telefônica pode ver
15:38
as the velocity is slowing down,
389
923000
2000
quando a velocidade está reduzindo,
15:40
that there's a traffic jam.
390
925000
2000
que há um congestionamento.
15:42
And they can feed that information back to their subscribers,
391
927000
3000
E eles podem alimentar os seus assinantes com essa informação,
15:45
but only to their subscribers on the same highway
392
930000
2000
mas apenas os seus assinantes que estão na mesma rodovia,
15:47
located behind the traffic jam!
393
932000
2000
localizados atrás do congestionamento!
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
934000
3000
Ou nós podemos monitorar os doutores que prescrevem comportamentos, passivamente,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
937000
3000
e ver como a difusão de inovação de fármacos
15:55
occurs within [networks of] doctors.
396
940000
2000
ocorre entre [redes] os médicos.
15:57
Or again, we can monitor purchasing behavior in people
397
942000
2000
Ou de novo, nós podemos monitorar o comportamento de compras das pessoas,
15:59
and watch how these types of phenomena
398
944000
2000
e assistir como esse tipo de fenômeno
16:01
can diffuse within human populations.
399
946000
3000
se difunde dentro das populações humanas.
16:04
And there are three ways, I think,
400
949000
2000
E há três formas, eu acho,
16:06
that these massive-passive data can be used.
401
951000
2000
que esses dados massivos e passivos podem ser usados.
16:08
One is fully passive,
402
953000
2000
Uma é inteiramente passiva,
16:10
like I just described --
403
955000
2000
como eu já descrevi.
16:12
as in, for instance, the trucker example,
404
957000
2000
como o exemplo do caminhoneiro,
16:14
where we don't actually intervene in the population in any way.
405
959000
2000
em que nós não intervimos na população de nenhuma forma.
16:16
One is quasi-active,
406
961000
2000
Uma é quase ativa,
16:18
like the flu example I gave,
407
963000
2000
como o exemplo da gripe que eu dei,
16:20
where we get some people to nominate their friends
408
965000
3000
em que nós pegamos algumas pessoas para indicarem os seus amigos
16:23
and then passively monitor their friends --
409
968000
2000
e então monitoramos passivamente os seus amigos --
16:25
do they have the flu, or not? -- and then get warning.
410
970000
2000
eles têm ou não gripe? -- e então demos o alerta.
16:27
Or another example would be,
411
972000
2000
Ou outro exemplo seria,
16:29
if you're a phone company, you figure out who's central in the network
412
974000
3000
se você é de uma companhia telefônica, você descobre quem é central na rede,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
977000
3000
e você pede a essas pessoas: "Olhe, você nos envia por texto sua temperatura todos os dias?
16:35
Just text us your temperature."
414
980000
2000
Apenas nos envie sua temperatura."
16:37
And collect vast amounts of information about people's temperature,
415
982000
3000
E coleta vastos conjuntos de informação sobre a temperatura das pessoas,
16:40
but from centrally located individuals.
416
985000
2000
mas de indivíduos centralmente localizados.
16:42
And be able, on a large scale,
417
987000
2000
E é capaz, em larga escala,
16:44
to monitor an impending epidemic
418
989000
2000
de monitorar uma epidemia iminente
16:46
with very minimal input from people.
419
991000
2000
com o mínimo de informação das pessoas.
16:48
Or, finally, it can be more fully active --
420
993000
2000
Ou pode ser inteiramente ativo --
16:50
as I know subsequent speakers will also talk about today --
421
995000
2000
como eu sei que palestrantes seguintes falarão hoje --
16:52
where people might globally participate in wikis,
422
997000
2000
em que pessoas podem participar globalmente em wikis,
16:54
or photographing, or monitoring elections,
423
999000
3000
ou fotografando, ou monitorando eleições,
16:57
and upload information in a way that allows us to pool
424
1002000
2000
ou uploading informação de uma forma que nós possamos compartilhá-la
16:59
information in order to understand social processes
425
1004000
2000
para entender os processos sociais
17:01
and social phenomena.
426
1006000
2000
e o fenômeno social.
17:03
In fact, the availability of these data, I think,
427
1008000
2000
De fato, a disponibilidade desses dados, eu acho,
17:05
heralds a kind of new era
428
1010000
2000
anuncia um tipo de nova era,
17:07
of what I and others would like to call
429
1012000
2000
que eu e outros gostaríamos de chamar
17:09
"computational social science."
430
1014000
2000
"ciência social computacional."
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1016000
3000
É como quando Galileu inventou -- ou ele não inventou --
17:14
came to use a telescope
432
1019000
2000
usou o telescópio
17:16
and could see the heavens in a new way,
433
1021000
2000
e pôde ver o céu de uma nova maneira,
17:18
or Leeuwenhoek became aware of the microscope --
434
1023000
2000
ou Leeuwenhoek se tornou consciente do microscópio --
17:20
or actually invented --
435
1025000
2000
ou na verdade, inventou --
17:22
and could see biology in a new way.
436
1027000
2000
e pôde ver a biologia de uma nova maneira.
17:24
But now we have access to these kinds of data
437
1029000
2000
Mas agora nós temos acesso a esse tipo de dados
17:26
that allow us to understand social processes
438
1031000
2000
que nos permite entender os processos sociais
17:28
and social phenomena
439
1033000
2000
e o fenômeno social
17:30
in an entirely new way that was never before possible.
440
1035000
3000
e uma forma inteiramente nova que antes não era possível.
17:33
And with this science, we can
441
1038000
2000
E com essa ciência, nós podemos
17:35
understand how exactly
442
1040000
2000
entender como, exatamente,
17:37
the whole comes to be greater
443
1042000
2000
o conjunto passa a ser maior
17:39
than the sum of its parts.
444
1044000
2000
que a soma de suas partes.
17:41
And actually, we can use these insights
445
1046000
2000
E na verdade, nós podemos usar esses insights
17:43
to improve society and improve human well-being.
446
1048000
3000
para melhorar a sociedade e o bem-estar humano.
17:46
Thank you.
447
1051000
2000
Obrigado.
Translated by Ivani Brys
Reviewed by Belucio Haibara

▲Back to top

ABOUT THE SPEAKER
Nicholas Christakis - Physician, social scientist
Nicholas Christakis explores how the large-scale, face-to-face social networks in which we are embedded affect our lives, and what we can do to take advantage of this fact.

Why you should listen

People aren't merely social animals in the usual sense, for we don't just live in groups. We live in networks -- and we have done so ever since we emerged from the African savannah. Via intricately branching paths tracing out cascading family connections, friendship ties, and work relationships, we are interconnected to hundreds or even thousands of specific people, most of whom we do not know. We affect them and they affect us.

Nicholas Christakis' work examines the biological, psychological, sociological, and mathematical rules that govern how we form these social networks, and the rules that govern how they shape our lives. His work shows how phenomena as diverse as obesity, smoking, emotions, ideas, germs, and altruism can spread through our social ties, and how genes can partially underlie our creation of social ties to begin with. His work also sheds light on how we might take advantage of an understanding of social networks to make the world a better place.

At Yale, Christakis is a Professor of Social and Natural Science, and he directs a diverse research group in the field of biosocial science, primarily investigating social networks. His popular undergraduate course "Health of the Public" is available as a podcast. His book, Connected, co-authored with James H. Fowler, appeared in 2009, and has been translated into 20 languages. In 2009, he was named by Time magazine to its annual list of the 100 most influential people in the world, and also, in 2009 and 2010, by Foreign Policy magazine to its list of 100 top global thinkers

More profile about the speaker
Nicholas Christakis | Speaker | TED.com