ABOUT THE SPEAKER
Sean Gourley - Physicist and military theorist
Sean Gourley, trained as a physicist, has turned his scientific mind to analyzing data about a messier topic: modern war and conflict. He is a TED Fellow.

Why you should listen

Sean Gourley's twin passions are physics (working on nanoscale blue-light lasers and self-assembled quantum nanowires) and politics (he once ran for a national elected office back home in New Zealand).

A Rhodes scholar, he's spent the past five years working at Oxford on complex adaptive systems and collective intelligent systems -- basically, using data to understand the nature of human conflict. As he puts it, "This research has taken me all over the world from the Pentagon, to the House of Lords, the United Nations and most recently to Iraq". Originally from New Zealand, he now lives in San Francisco, where he is the co-founder and CTO of Quid which is building a global intelligence platform. He's a 2009 TED Fellow.

In December 2009, Gourley and his team's research was published in the scientific journal Nature. He is co-founder and CTO of Quid.

More profile about the speaker
Sean Gourley | Speaker | TED.com
TED2009

Sean Gourley: The mathematics of war

Sean Gourley fala sobre a matemática da guerra

Filmed:
1,030,256 views

Ao pegar dados brutos das notícias e registrá-los num gráfico, Sean Gourley e sua equipe chegam a conclusões surpreendentes sobre a natureza da guerra moderna -- e talvez um modelo para resolver conflitos.
- Physicist and military theorist
Sean Gourley, trained as a physicist, has turned his scientific mind to analyzing data about a messier topic: modern war and conflict. He is a TED Fellow. Full bio

Double-click the English transcript below to play the video.

00:12
We look around the media, as we see on the news from Iraq,
0
0
3000
Ao olharmos na mídia à nossa volta, vendo notícias do Iraque,
00:15
Afghanistan, Sierra Leone,
1
3000
3000
Afeganistão, Serra Leoa,
00:18
and the conflict seems incomprehensible to us.
2
6000
4000
estes conflitos nos parecem incompreensíveis.
00:22
And that's certainly how it seemed to me when I started this project.
3
10000
4000
E também era assim que pareciam para mim quando comecei este projeto.
00:26
But as a physicist,
4
14000
2000
Mas como um físico,
00:28
I thought, well if you give me some data,
5
16000
3000
eu pensei, bem, se vocês me derem dados,
00:31
I could maybe understand this. You know, give us a go.
6
19000
2000
talvez eu possa compreender isso. Estabelecer um ponto de partida.
00:33
So as a naive New Zealander
7
21000
2000
Então, como um neozelandês ingênuo,
00:35
I thought, well I'll go to the Pentagon.
8
23000
2000
eu pensei: vou para o Pentágono.
00:37
Can you get me some information?
9
25000
2000
Vocês podem me dar algumas informações?
00:39
(Laughter)
10
27000
3000
(Risos)
00:42
No. So I had to think a little harder.
11
30000
4000
Não. Então tive que pensar mais a fundo sobre o assunto.
00:46
And I was watching the news one night in Oxford.
12
34000
3000
E uma noite em Oxford eu estava assistindo ao noticiário.
00:49
And I looked down at the chattering heads on my channel of choice.
13
37000
3000
E olhei para o tagarelar dos apresentadores do meu canal preferido.
00:52
And I saw that there was information there.
14
40000
2000
E percebi que havia informação ali.
00:54
There was data within the streams of news that we consume.
15
42000
3000
Havia dados no meio dos fluxos de notícias que nós consumimos.
00:57
All this noise around us actually has information.
16
45000
4000
Todo esse ruído à nossa volta, na verdade possui informação.
01:01
So what I started thinking was,
17
49000
2000
Então comecei a pensar que
01:03
perhaps there is something like open source intelligence here.
18
51000
3000
talvez haja algo como inteligência aberta e livre aqui.
01:06
If we can get enough of these streams of information together,
19
54000
3000
Se nós conseguirmos compilar uma quantia suficiente destes fluxos de informação
01:09
we can perhaps start to understand the war.
20
57000
3000
talvez consigamos começar a entender a guerra.
01:12
So this is exactly what I did. We started bringing a team together,
21
60000
3000
Então foi exatamente isso que eu fiz. Começamos a juntar uma equipe,
01:15
an interdisciplinary team of scientists,
22
63000
2000
um time interdisciplinar de cientistas,
01:17
of economists, mathematicians.
23
65000
3000
economistas e matemáticos.
01:20
We brought these guys together and we started to try and solve this.
24
68000
3000
Juntamos esse pessoal e começamos a tentar resolver este problema.
01:23
We did it in three steps.
25
71000
2000
Nós o fizemos em três etapas.
01:25
The first step we did was to collect. We did 130 different sources of information --
26
73000
4000
A primeira etapa foi coletar. Coletamos 130 fontes diferentes de informação --
01:29
from NGO reports to newspapers and cable news.
27
77000
3000
desde relatórios de ONGs até jornais e noticiários televisivos.
01:32
We brought this raw data in and we filtered it.
28
80000
3000
Coletamos estes dados brutos e então os filtramos.
01:35
We extracted the key bits on information to build the database.
29
83000
3000
Extraímos as partes-chave de informação para construir um banco de dados.
01:38
That database contained
30
86000
2000
Esse banco de dados continha
01:40
the timing of attacks,
31
88000
2000
a data dos ataques,
01:42
the location, the size and the weapons used.
32
90000
2000
o local, o tamanho e as armas utilizadas.
01:44
It's all in the streams of information we consume daily,
33
92000
3000
Está tudo nos fluxos de informação que consumimos diariamente,
01:47
we just have to know how to pull it out.
34
95000
2000
só precisamos saber como extraí-la.
01:49
And once we had this we could start doing some cool stuff.
35
97000
2000
E uma vez que tínhamos isto, podíamos começar a fazer umas coisas bem bacanas.
01:51
What if we were to look at the distribution of the sizes of attacks?
36
99000
3000
E se olhássemos para a distribuição dos tamanhos dos ataques?
01:54
What would that tell us?
37
102000
2000
O que isto nos diria?
01:56
So we started doing this. And you can see here
38
104000
2000
Então começamos a fazer isso. E vocês podem ver aqui,
01:58
on the horizontal axis
39
106000
2000
no eixo horizontal,
02:00
you've got the number of people killed in an attack
40
108000
2000
temos o número de pessoas mortas em um ataque
02:02
or the size of the attack.
41
110000
2000
ou o tamanho de um ataque.
02:04
And on the vertical axis you've got the number of attacks.
42
112000
3000
E no eixo vertical, temos o número de ataques.
02:07
So we plot data for sample on this.
43
115000
2000
Então colocamos os dados no gráfico para ilustrar isso.
02:09
You see some sort of random distribution --
44
117000
2000
E pode-se ver um tipo de distribuição aleatória --
02:11
perhaps 67 attacks, one person was killed,
45
119000
3000
talvez 67 ataques, uma pessoa foi morta,
02:14
or 47 attacks where seven people were killed.
46
122000
3000
ou 47 ataques onde 7 pessoas foram mortas.
02:17
We did this exact same thing for Iraq.
47
125000
2000
Fizemos exatamente a mesma coisa para o Iraque.
02:19
And we didn't know, for Iraq what we were going to find.
48
127000
3000
E não sabíamos o que iríamos obter para o Iraque.
02:22
It turns out what we found was pretty surprising.
49
130000
4000
Acontece que o encontramos é bastante surpreendente.
02:26
You take all of the conflict,
50
134000
2000
Pega-se tudo sobre o conflito,
02:28
all of the chaos, all of the noise,
51
136000
2000
todo o caos, todo o ruído,
02:30
and out of that
52
138000
2000
e a partir disso
02:32
comes this precise mathematical distribution
53
140000
2000
obtém-se esta precisa distribuição matemática
02:34
of the way attacks are ordered in this conflict.
54
142000
3000
sobre a maneira como os ataques são ordenados neste conflito.
02:37
This blew our mind.
55
145000
2000
Isso nos deixou perplexos.
02:39
Why should a conflict like Iraq have this
56
147000
4000
Por que um conflito como o Iraque deveria ter isso
02:43
as its fundamental signature?
57
151000
2000
como sua marca característica?
02:45
Why should there be order in war?
58
153000
2000
Por que deveria haver ordem na guerra?
02:47
We didn't really understand that.
59
155000
2000
Nós não entendemos isso com certeza.
02:49
We thought maybe there is something special about Iraq.
60
157000
4000
Nós pensamos que talvez haja algo especial sobre o Iraque.
02:53
So we looked at a few more conflicts.
61
161000
2000
Então olhamos para alguns outros conflitos.
02:55
We looked at Colombia, we looked at Afghanistan,
62
163000
2000
Analisamos a Colômbia, analisamos o Afeganistão,
02:57
and we looked at Senegal.
63
165000
2000
analisamos o Senegal.
02:59
And the same pattern emerged in each conflict.
64
167000
2000
E o mesmo padrão emergiu em cada um dos conflitos.
03:01
This wasn't supposed to happen.
65
169000
2000
Isso não deveria estar acontecendo.
03:03
These are different wars, with different religious factions,
66
171000
3000
Essas são guerras diferentes, com facções religiosas diferentes,
03:06
different political factions, and different socioeconomic problems.
67
174000
3000
facções políticas diferentes, e problemas socioeconômicos diferentes.
03:09
And yet the fundamental patterns underlying them
68
177000
4000
Mas ainda assim, os padrões fundamentais destes conflitos
03:13
are the same.
69
181000
3000
são os mesmos.
03:16
So we went a little wider.
70
184000
2000
Então fomos um pouco além.
03:18
We looked around the world at all the data we could get our hands on.
71
186000
3000
Olhamos por todo o mundo para todos os dados que fôssemos capazes de conseguir.
03:21
From Peru to Indonesia,
72
189000
3000
Desde o Peru até a Indonésia,
03:24
we studied this same pattern again.
73
192000
2000
observamos este mesmo padrão novamente.
03:26
And we found that not only
74
194000
3000
E concluímos que não apenas
03:29
were the distributions these straight lines,
75
197000
2000
as distribuições eram essas retas,
03:31
but the slope of these lines, they clustered around
76
199000
2000
mas a inclinação destas retas se acumulavam
03:33
this value of alpha equals 2.5.
77
201000
3000
em torno deste valor de alfa igual a 2,5.
03:36
And we could generate an equation
78
204000
2000
E conseguimos gerar uma equação
03:38
that could predict the likelihood of an attack.
79
206000
3000
que poderia prever as chances de um ataque.
03:41
What we're saying here
80
209000
2000
O que estamos dizendo aqui
03:43
is the probability of an attack killing X number of people
81
211000
4000
é qual a probabilidade de um ataque matar X número de pessoas
03:47
in a country like Iraq
82
215000
2000
em um país como o Iraque,
03:49
is equal to a constant, times the size of that attack,
83
217000
3000
é igual a uma constante, vezes o tamanho do ataque,
03:52
raised to the power of negative alpha.
84
220000
3000
elevado a menos alfa.
03:55
And negative alpha is the slope of that line I showed you before.
85
223000
6000
E menos alfa é a inclinação daquela reta que eu lhes mostrei anteriormente.
04:01
So what?
86
229000
2000
Mas e daí?
04:03
This is data, statistics. What does it tell us about these conflicts?
87
231000
3000
Isso é dados, estatística. O que isso nos diz sobre estes conflitos?
04:06
That was a challenge we had to face as physicists.
88
234000
3000
Esse foi um desafio que tivemos que encarar como físicos.
04:09
How do we explain this?
89
237000
3000
Como explicamos isso?
04:12
And what we really found was that alpha,
90
240000
2000
E o que encontramos foi que alfa
04:14
if we think about it, is the organizational
91
242000
2000
se pensarmos bem sobre ele, se refere à
04:16
structure of the insurgency.
92
244000
3000
estrutura organizacional da revolta.
04:19
Alpha is the distribution of the sizes of attacks,
93
247000
3000
Alfa é a distribuição dos tamanhos dos ataques,
04:22
which is really the distribution
94
250000
2000
que é na verdade a distribuição
04:24
of the group strength carrying out the attacks.
95
252000
2000
da força do grupo causando os ataques.
04:26
So we look at a process of group dynamics:
96
254000
2000
Então analisamos um processo de dinâmica de grupos --
04:28
coalescence and fragmentation,
97
256000
3000
aglutinação e fragmentação.
04:31
groups coming together, groups breaking apart.
98
259000
2000
Grupos se juntando. Grupos se separando.
04:33
And we start running the numbers on this. Can we simulate it?
99
261000
3000
E começamos a analisar os números sobre isso. Podemos simulá-los?
04:36
Can we create the kind of patterns that we're seeing
100
264000
3000
Podemos criar os tipos de padrões que estamos vendo
04:39
in places like Iraq?
101
267000
3000
em lugares como o Iraque?
04:42
Turns out we kind of do a reasonable job.
102
270000
2000
Acontece que conseguimos fazer um trabalho razoável.
04:44
We can run these simulations.
103
272000
2000
Podemos rodar estas simulações.
04:46
We can recreate this using a process of group dynamics
104
274000
3000
Podemos recriar isto usando um processo de dinâmica de grupos
04:49
to explain the patterns that we see
105
277000
2000
para explicar os padrões que observamos
04:51
all around the conflicts around the world.
106
279000
5000
nos conflitos por todo o mundo.
04:56
So what's going on?
107
284000
2000
Então, o que está acontecendo?
04:58
Why should these different -- seemingly different conflicts
108
286000
3000
Por que estes conflitos diferentes -- aparentemente diferentes --
05:01
have the same patterns?
109
289000
2000
deveriam ter os mesmos padrões?
05:03
Now what I believe is going on is that
110
291000
3000
O que eu acredito que esteja acontecendo é que
05:06
the insurgent forces, they evolve over time. They adapt.
111
294000
4000
as forças rebeldes, elas evoluem ao longo do tempo. Elas se adaptam.
05:10
And it turns out there is only one solution
112
298000
2000
E acontece que há somente uma solução
05:12
to fight a much stronger enemy.
113
300000
2000
para se vencer um inimigo muito mais forte.
05:14
And if you don't find that solution as an insurgent force,
114
302000
3000
E se você, sendo uma força rebelde, não encontra essa solução,
05:17
you don't exist.
115
305000
2000
você não existe.
05:19
So every insurgent force that is ongoing,
116
307000
2000
Então toda força rebelde existente,
05:21
every conflict that is ongoing,
117
309000
2000
todo conflito existente,
05:23
it's going to look something like this.
118
311000
2000
vai se parecer com algo assim.
05:25
And that is what we think is happening.
119
313000
3000
E isto é o que acreditamos que esteja acontecendo.
05:28
Taking it forward, how do we change it?
120
316000
2000
Olhando para o futuro, como mudamos isso?
05:30
How do we end a war like Iraq?
121
318000
2000
Como acabamos com uma guerra como a do Iraque?
05:32
What does it look like?
122
320000
2000
Como ela se parece?
05:34
Alpha is the structure. It's got a stable state at 2.5.
123
322000
3000
Alfa é a estrutura. Em estado estável a 2,5.
05:37
This is what wars look like when they continue.
124
325000
4000
É assim que as guerras se parecem quando elas continuam.
05:41
We've got to change that.
125
329000
2000
Nós temos que mudar isso.
05:43
We can push it up:
126
331000
2000
Podemos forçar para cima.
05:45
the forces become more fragmented;
127
333000
2000
As forças se tornam mais fragmentadas.
05:47
there is more of them, but they are weaker.
128
335000
4000
Há mais delas, mas são mais fracas.
05:51
Or we push it down:
129
339000
2000
Ou podemos forçar para baixo.
05:53
they're more robust; there is less groups;
130
341000
2000
Elas se tornam mais robustas. Há menos grupos.
05:55
but perhaps you can sit and talk to them.
131
343000
4000
Mas talvez possamos sentar e dialogar com eles.
05:59
So this graph here, I'm going to show you now.
132
347000
2000
Então este gráfico aqui, que vou mostrar agora.
06:01
No one has seen this before. This is literally
133
349000
3000
Ninguém nunca o viu antes. Literalmente,
06:04
stuff that we've come through last week.
134
352000
2000
é material que produzimos semana passada.
06:06
And we see the evolution of Alpha through time.
135
354000
4000
E vemos a evolução do alfa ao longo do tempo.
06:10
We see it start. And we see it grow up to the stable state
136
358000
3000
Vemos ele começar. E o vemos crescer até o estado estável
06:13
the wars around the world look like.
137
361000
2000
com que se parecem as guerras ao redor do mundo.
06:15
And it stays there through the invasion of Fallujah
138
363000
3000
E permanece ali naquele nível através da invasão da Falluja
06:18
until the Samarra bombings in the
139
366000
2000
até os bombardeios de Samarra
06:20
Iraqi elections of '06.
140
368000
3000
nas eleições iraquianas de 2006.
06:23
And the system gets perturbed. It moves upwards
141
371000
2000
E o sistema é perturbado. Ele se move para cima
06:25
to a fragmented state.
142
373000
2000
para um estado fragmentado.
06:27
This is when the surge happens.
143
375000
2000
Aqui foi quando o aumento de tropas aconteceu.
06:29
And depending on who you ask,
144
377000
2000
E dependendo de quem você questiona,
06:31
the surge was supposed to push it up even further.
145
379000
3000
o aumento deveria forçar o alfa para cima ainda mais.
06:34
The opposite happened.
146
382000
2000
O oposto aconteceu.
06:36
The groups became stronger.
147
384000
2000
Os grupos se tornaram mais fortes.
06:38
They became more robust.
148
386000
2000
Eles se tornaram mais robustos.
06:40
And so I'm thinking, right, great, it's going to keep going down.
149
388000
3000
Então pensei, ótimo, vai continuar a ir para baixo.
06:43
We can talk to them. We can get a solution. The opposite happened.
150
391000
3000
Nós podemos dialogar com eles. Podemos chegar a uma solução. Mas o oposto aconteceu.
06:46
It's moved up again. The groups are more fragmented.
151
394000
3000
E foi para cima novamente. Os grupos estão mais fragmentados.
06:49
And this tells me one of two things.
152
397000
2000
E isso me diz uma de duas coisas.
06:51
Either we're back where we started
153
399000
3000
Ou estamos de volta ao ponto onde começamos,
06:54
and the surge has had no effect;
154
402000
2000
e o aumento de tropas não teve efeito.
06:56
or finally the groups have been fragmented to the extent
155
404000
4000
Ou finalmente os grupos se fragmentaram a tal ponto que
07:00
that we can start to think about maybe moving out.
156
408000
4000
podemos começar a pensar em talvez sairmos de lá.
07:04
I don't know what the answer is to that.
157
412000
2000
Não sei qual é a resposta para isso.
07:06
But I know that we should be looking at the structure of the insurgency
158
414000
3000
Mas eu sei que deveríamos estar olhando para a estrutura da revolta
07:09
to answer that question.
159
417000
2000
para responder a essa questão.
07:11
Thank you.
160
419000
2000
Obrigado.
07:13
(Applause)
161
421000
5000
(Aplausos)
Translated by Giuliano Giordano
Reviewed by Volney Faustini

▲Back to top

ABOUT THE SPEAKER
Sean Gourley - Physicist and military theorist
Sean Gourley, trained as a physicist, has turned his scientific mind to analyzing data about a messier topic: modern war and conflict. He is a TED Fellow.

Why you should listen

Sean Gourley's twin passions are physics (working on nanoscale blue-light lasers and self-assembled quantum nanowires) and politics (he once ran for a national elected office back home in New Zealand).

A Rhodes scholar, he's spent the past five years working at Oxford on complex adaptive systems and collective intelligent systems -- basically, using data to understand the nature of human conflict. As he puts it, "This research has taken me all over the world from the Pentagon, to the House of Lords, the United Nations and most recently to Iraq". Originally from New Zealand, he now lives in San Francisco, where he is the co-founder and CTO of Quid which is building a global intelligence platform. He's a 2009 TED Fellow.

In December 2009, Gourley and his team's research was published in the scientific journal Nature. He is co-founder and CTO of Quid.

More profile about the speaker
Sean Gourley | Speaker | TED.com