ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com
TED2011

Ralph Langner: Cracking Stuxnet, a 21st-century cyber weapon

Ralph Langner: Decifrando o Stuxnet, uma arma cibernética do século XXI

Filmed:
1,567,512 views

Quando foi descoberto pela primeira vez em 2010, o verme de computador Stuxnet apresentou um quebra-cabeças estonteante. Além de seu extraordinário nível de sofisticação pairava um mistério ainda mais perturbador: seu propósito. Ralph Langner e sua equipe ajudaram a decifrar o código que revelou o alvo final dessa bomba digital -- e suas origens ocultas. Numa visão fascinante das entranhas da cibernética legal, ele explica como fez isso.
- Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware. Full bio

Double-click the English transcript below to play the video.

00:15
The idea behind the Stuxnet computer worm
0
0
3000
A idéia por trás do verme de computador Stuxnet
00:18
is actually quite simple.
1
3000
2000
é realmente bem simples.
00:20
We don't want Iran to get the bomb.
2
5000
3000
Não queremos que o Irã consiga a Bomba.
00:23
Their major asset for developing nuclear weapons
3
8000
3000
O maior recurso para desenvolver armas nucleares
00:26
is the Natanz uranium enrichment facility.
4
11000
4000
é a instalação de enriquecimento de urânio de Natanz.
00:30
The gray boxes that you see,
5
15000
2000
As caixas cinzentas que vocês vêem,
00:32
these are real-time control systems.
6
17000
3000
são sistemas de controle em tempo real.
00:35
Now if we manage to compromise these systems
7
20000
3000
Daí que, se conseguirmos atrapalhar esses sistemas
00:38
that control drive speeds and valves,
8
23000
3000
que controlam velocidades de acionadores e válvulas,
00:41
we can actually cause a lot of problems
9
26000
3000
podemos realmente causar um monte de problemas
00:44
with the centrifuge.
10
29000
2000
com a centrífuga.
00:46
The gray boxes don't run Windows software;
11
31000
2000
As caixas cinzentas não rodam software Windows,
00:48
they are a completely different technology.
12
33000
3000
são uma tecnologia completamente diferente.
00:51
But if we manage
13
36000
2000
Mas se conseguirmos
00:53
to place a good Windows virus
14
38000
3000
colocar um bom virus de Windows
00:56
on a notebook
15
41000
2000
num notebook
00:58
that is used by a maintenance engineer
16
43000
2000
que é usado por um engenheiro de máquinas
01:00
to configure this gray box,
17
45000
3000
para configurar essa caixa cinzenta,
01:03
then we are in business.
18
48000
2000
então estaremos em ação.
01:05
And this is the plot behind Stuxnet.
19
50000
3000
E essa é a trama por trás do Stuxnet.
01:08
So we start with a Windows dropper.
20
53000
5000
Então começamos com um inoculador do Windows.
01:13
The payload goes onto the gray box,
21
58000
3000
A carga entra na caixa cinzenta,
01:16
damages the centrifuge,
22
61000
2000
danifica a centrífuga,
01:18
and the Iranian nuclear program is delayed --
23
63000
2000
e o programa nuclear iraniano é retardado --
01:20
mission accomplished.
24
65000
2000
missão cumprida.
01:22
That's easy, huh?
25
67000
2000
É fácil, hem?
01:24
I want to tell you how we found that out.
26
69000
3000
Quero contar a vocês como descobrimos isso.
01:27
When we started our research on Stuxnet six months ago,
27
72000
3000
Quando começamos nossa pesquisa sobre o Stuxnet há seis meses,
01:30
it was completely unknown what the purpose of this thing was.
28
75000
3000
nâo se tinha nehum conhecimento do que poderia ser o propósito dessa coisa.
01:33
The only thing that was known
29
78000
2000
A única coisa que se sabia
01:35
is it's very, very complex on the Windows part, the dropper part,
30
80000
3000
é muito, muito complexo na parte do Windows, a parte do inoculador,
01:38
used multiple zero-day vulnerabilities.
31
83000
3000
usava vulnerabilidades de dias de zeros múltiplos.
01:41
And it seemed to want to do something
32
86000
3000
E parecia que ele queria fazer alguma coisa
01:44
with these gray boxes, these real-time control systems.
33
89000
2000
com essas caixas cinzentas, esses sistemas de controle em tempo real.
01:46
So that got our attention,
34
91000
2000
Então isso atraiu nossa atenção,
01:48
and we started a lab project
35
93000
2000
e começamos um projeto no laboratório
01:50
where we infected our environment with Stuxnet
36
95000
4000
em que infectamos nosso ambiente com Stuxnet
01:54
and checked this thing out.
37
99000
2000
e verificamos essa coisa.
01:56
And then some very funny things happened.
38
101000
3000
E então algumas coisas muito engraçadas aconteceram.
01:59
Stuxnet behaved like a lab rat
39
104000
3000
O Stuxnet se comportava como um rato de laboratório
02:02
that didn't like our cheese --
40
107000
3000
que não gostava do nosso queijo --
02:05
sniffed, but didn't want to eat.
41
110000
2000
cheirava mas não queria comer.
02:07
Didn't make sense to me.
42
112000
2000
Não fazia sentido para mim.
02:09
And after we experimented with different flavors of cheese,
43
114000
3000
E depois de experimentarmos com diferentes sabores de queijo,
02:12
I realized, well, this is a directed attack.
44
117000
4000
percebi, bem, isso é um ataque dirigido.
02:16
It's completely directed.
45
121000
2000
É completamente dirigido.
02:18
The dropper is prowling actively
46
123000
2000
O inoculador está espreitando ativamente
02:20
on the gray box
47
125000
2000
na caixa cinzenta
02:22
if a specific configuration is found,
48
127000
3000
se uma configuração específica é encontrada,
02:25
and even if the actual program code that it's trying to infect
49
130000
4000
e até se o verdadeiro programa que ele está tentando infectar
02:29
is actually running on that target.
50
134000
2000
está efetivamente rodando naquele alvo.
02:31
And if not, Stuxnet does nothing.
51
136000
3000
E se esse não é o caso, o Stuxnet não faz nada.
02:34
So that really got my attention,
52
139000
2000
Então isso realmente chamou minha atenção,
02:36
and we started to work on this
53
141000
2000
e começamos a trabalhar nisso
02:38
nearly around the clock,
54
143000
2000
quase o tempo todo,
02:40
because I thought, "Well, we don't know what the target is.
55
145000
3000
porque eu pensava, bem, nós não sabemos qual é o alvo.
02:43
It could be, let's say for example,
56
148000
2000
Poderia ser, digamos por exemplo,
02:45
a U.S. power plant,
57
150000
2000
uma usina elétrica dos EUA,
02:47
or a chemical plant in Germany.
58
152000
2000
ou uma indústria química na Alemanha.
02:49
So we better find out what the target is soon."
59
154000
3000
Então era importante descobrir depressa qual era o alvo.
02:52
So we extracted and decompiled
60
157000
2000
Portanto nós extraimos e descompilamos
02:54
the attack code,
61
159000
2000
o código de ataque,
02:56
and we discovered that it's structured in two digital bombs --
62
161000
3000
e descobrimos que ele estava estruturado em duas bombas digitais --
02:59
a smaller one and a bigger one.
63
164000
3000
uma menor e outra maior.
03:02
And we also saw that they are very professionally engineered
64
167000
4000
E vimos também que elas eram projetadas muito profissionalmente
03:06
by people who obviously had all insider information.
65
171000
4000
por pessoas que obviamente tinham toda a informação interna.
03:10
They knew all the bits and bites
66
175000
2000
Eles conheciam todos os bits e bytes
03:12
that they had to attack.
67
177000
2000
que eles pretendiam atacar.
03:14
They probably even know the shoe size of the operator.
68
179000
3000
Eles provavelmente sabiam até o número do sapato do operador.
03:17
So they know everything.
69
182000
2000
Então eles sabiam tudo.
03:19
And if you have heard that the dropper of Stuxnet
70
184000
3000
E se vocês ficaram sabendo que o inoculador do Stuxnet
03:22
is complex and high-tech,
71
187000
2000
é complexo e de alta tecnologia,
03:24
let me tell you this:
72
189000
2000
então fiquem sabendo uma coisa
03:26
the payload is rocket science.
73
191000
2000
a carga é ciência espacial.
03:28
It's way above everything
74
193000
2000
Está bem acima de tudo
03:30
that we have ever seen before.
75
195000
3000
que jamais vimos anteriormente.
03:33
Here you see a sample of this actual attack code.
76
198000
3000
Aqui vocês veem uma amostra do próprio código de ataque.
03:36
We are talking about --
77
201000
2000
Estamos falando de --
03:38
around about 15,000 lines of code.
78
203000
3000
cerca de 15.000 linhas de código.
03:41
Looks pretty much like old-style assembly language.
79
206000
3000
Tem o jeito da velha linguagem assembler.
03:44
And I want to tell you how we were able
80
209000
2000
E quero contar a vocês como conseguimos
03:46
to make sense out of this code.
81
211000
2000
entender esse código.
03:48
So what we were looking for is, first of all, system function calls,
82
213000
3000
Então, o que procuramos inicialmente foram as chamadas a funções do sistema,
03:51
because we know what they do.
83
216000
2000
porque sabemos o que elas fazem.
03:53
And then we were looking for timers and data structures
84
218000
4000
E depois procuramos temporizadores e estruturas de dados
03:57
and trying to relate them to the real world --
85
222000
2000
tentando relacioná-las ao mundo real --
03:59
to potential real world targets.
86
224000
2000
a alvos potenciais do mundo real.
04:01
So we do need target theories
87
226000
3000
Daí precisávamos teorias sobre os alvos
04:04
that we can prove or disprove.
88
229000
3000
que pudéssemos provar ou descartar.
04:07
In order to get target theories,
89
232000
2000
Para conseguirmos teorias sobre os alvos,
04:09
we remember
90
234000
2000
lembramos
04:11
that it's definitely hardcore sabotage,
91
236000
2000
que se trata definitivamente de sabotagem pesada,
04:13
it must be a high-value target
92
238000
2000
precisa ser um alvo de grande valor,
04:15
and it is most likely located in Iran,
93
240000
3000
e ele tem a maior probabilidade de localizar-se no Irã,
04:18
because that's where most of the infections had been reported.
94
243000
4000
poque é onde a maioria das infestações foram relatadas.
04:22
Now you don't find several thousand targets in that area.
95
247000
3000
Daí a gente não encontra muitos milhares de alvos nessa área.
04:25
It basically boils down
96
250000
2000
Isso basicamente se concentra
04:27
to the Bushehr nuclear power plant
97
252000
2000
na instalação nuclear de Bushehr
04:29
and to the Natanz fuel enrichment plant.
98
254000
2000
e à instalação de enriquecimento de Natanz.
04:31
So I told my assistant,
99
256000
2000
Então eu disse ao meu assistente,
04:33
"Get me a list of all centrifuge and power plant experts from our client base."
100
258000
3000
"Me arranje uma lista de todos os peritos em centrífugas e usinas elétricas de nossa base de clientes."
04:36
And I phoned them up and picked their brain
101
261000
2000
E telefonei a eles e sondei os cérebros deles
04:38
in an effort to match their expertise
102
263000
2000
numa tentativa de comparar o conhecimento deles
04:40
with what we found in code and data.
103
265000
3000
com o que encontramos no código e nos dados.
04:43
And that worked pretty well.
104
268000
2000
E isso funcionou muito bem.
04:45
So we were able to associate
105
270000
2000
Asssim conseguimos associar
04:47
the small digital warhead
106
272000
2000
o pequeno míssil digital
04:49
with the rotor control.
107
274000
2000
com o controle do rotor.
04:51
The rotor is that moving part within the centrifuge,
108
276000
3000
O rotor é aquela parte móvel da centrífuga,
04:54
that black object that you see.
109
279000
2000
aquele objeto preto que vocês estão vendo.
04:56
And if you manipulate the speed of this rotor,
110
281000
3000
E se a gente manipula a velocidade do rotor,
04:59
you are actually able to crack the rotor
111
284000
2000
a gente realmente consegue quebrar o rotor
05:01
and eventually even have the centrifuge explode.
112
286000
4000
e eventualmente fazer a centrífuga explodir.
05:05
What we also saw
113
290000
2000
O que também vimos
05:07
is that the goal of the attack
114
292000
2000
é que o objetivo do ataque
05:09
was really to do it slowly and creepy --
115
294000
3000
era realmente fazer isso lentamente e assustadoramente --
05:12
obviously in an effort
116
297000
2000
numa óbvia tentativa
05:14
to drive maintenance engineers crazy,
117
299000
3000
de enlouquecer os engenheiros de mautenção,
05:17
that they would not be able to figure this out quickly.
118
302000
3000
para que eles não fossem capazes de perceber isso rapidamente.
05:20
The big digital warhead -- we had a shot at this
119
305000
3000
A grande bomba digital -- tivemos uma visão disso
05:23
by looking very closely
120
308000
2000
observando detalhadamente
05:25
at data and data structures.
121
310000
2000
os dados e estruturas de dados.
05:27
So for example, the number 164
122
312000
2000
Assim, por exemplo, o número 164
05:29
really stands out in that code;
123
314000
2000
realmente se destaca naquele código;
05:31
you can't overlook it.
124
316000
2000
não dá pra ignorar isso.
05:33
I started to research scientific literature
125
318000
2000
Comecei a pesquisar na literatura científica
05:35
on how these centrifuges
126
320000
2000
como essas centrífugas
05:37
are actually built in Natanz
127
322000
2000
são construídas de fato em Natanz
05:39
and found they are structured
128
324000
2000
e descobri que elas são estruturadas
05:41
in what is called a cascade,
129
326000
2000
no que se chama de cascata,
05:43
and each cascade holds 164 centrifuges.
130
328000
4000
e cada cascata comporta 164 centrífugas.
05:47
So that made sense, that was a match.
131
332000
2000
Então isso fazia sentido, era uma correspondência.
05:49
And it even got better.
132
334000
2000
E ficou ainda melhor.
05:51
These centrifuges in Iran
133
336000
2000
Essas centrífugas no Irã
05:53
are subdivided into 15, what is called, stages.
134
338000
4000
são subdivididas em 15, que são chamados de estágios.
05:57
And guess what we found in the attack code?
135
342000
2000
E imaginem o que encontramos no código de ataque?
05:59
An almost identical structure.
136
344000
2000
Uma estrutura quase idêntica.
06:01
So again, that was a real good match.
137
346000
3000
Assim, novamente, essa era uma correspondência realmente boa.
06:04
And this gave us very high confidence for what we were looking at.
138
349000
3000
E isso nos deu uma confiança muito boa em relação ao que estávamos investigando.
06:07
Now don't get me wrong here, it didn't go like this.
139
352000
3000
Agora não me interpretem mal, isso não foi assim.
06:10
These results have been obtained
140
355000
3000
Esses resultados foram obtidos
06:13
over several weeks of really hard labor.
141
358000
3000
mediante várias semanas de trabalho estafante.
06:16
And we often went into just a dead end
142
361000
3000
E várias vezes nos encontramos num beco sem saída
06:19
and had to recover.
143
364000
2000
e precisamos nos recuperar.
06:21
Anyway, so we figured out
144
366000
2000
De qualquer modo, assim nos demos conta
06:23
that both digital warheads
145
368000
2000
de que ambas as bombas digitais
06:25
were actually aiming at one and the same target,
146
370000
2000
tinham como alvo um único e mesmo alvo,
06:27
but from different angles.
147
372000
2000
mas de ângulos diferentes.
06:29
The small warhead is taking one cascade,
148
374000
3000
A bomba pequena pegava uma cascata,
06:32
and spinning up the rotors and slowing them down,
149
377000
3000
e acelerava os rotores e os retardava,
06:35
and the big warhead
150
380000
2000
e a bomba grande
06:37
is talking to six cascades
151
382000
2000
se dirigia a seis cascatas
06:39
and manipulating valves.
152
384000
2000
e manipulava válvulas.
06:41
So in all, we are very confident
153
386000
2000
Assim, de modo geral, temos bastante segurança
06:43
that we have actually determined what the target is.
154
388000
2000
de que efetivamente determinamos qual é o alvo.
06:45
It is Natanz, and it is only Natanz.
155
390000
3000
É Natanz, e apenas Natanz.
06:48
So we don't have to worry
156
393000
2000
Assim não precisamos nos preocupar
06:50
that other targets
157
395000
2000
que outros alvos
06:52
might be hit by Stuxnet.
158
397000
2000
possam ser atingidos pelo Stuxnet.
06:54
Here's some very cool stuff that we saw --
159
399000
3000
Aqui estão algumas coisas muito espertas que vimos --
06:57
really knocked my socks off.
160
402000
2000
que realmente me deixaram assombrado.
06:59
Down there is the gray box,
161
404000
2000
Aqui embaixo está a caixa cinzenta,
07:01
and on the top you see the centrifuges.
162
406000
3000
e em cima vocês vêem as centrífugas.
07:04
Now what this thing does
163
409000
2000
Então, o que essa coisa faz
07:06
is it intercepts the input values from sensors --
164
411000
3000
é interceptar os valores das entradas dos sensores --
07:09
so for example, from pressure sensors
165
414000
2000
assim, por exemplo, dos sensores de pressão
07:11
and vibration sensors --
166
416000
2000
e sensores de vibração --
07:13
and it provides legitimate program code,
167
418000
3000
e ela abastece o código legítimo,
07:16
which is still running during the attack,
168
421000
2000
que ainda está rodando durante o ataque,
07:18
with fake input data.
169
423000
2000
com dados de entrada falsos.
07:20
And as a matter of fact, this fake input data
170
425000
2000
E o fato é que esses dados de entrada falsos
07:22
is actually prerecorded by Stuxnet.
171
427000
3000
estão realmente pre-gravados pelo Stuxnet.
07:25
So it's just like from the Hollywood movies
172
430000
2000
Assim é exatamente como naqueles filmes de Hollywood
07:27
where during the heist,
173
432000
2000
nos quais, durante o assalto,
07:29
the observation camera is fed with prerecorded video.
174
434000
3000
a câmera de observação é alimentada com vídeo pregravado.
07:32
That's cool, huh?
175
437000
2000
Esperto, hem?
07:35
The idea here is obviously
176
440000
2000
Aqui a idéia obviamente é
07:37
not only to fool the operators in the control room.
177
442000
3000
não apenas tapear os operadores da sala de controle.
07:40
It actually is much more dangerous and aggressive.
178
445000
4000
Isso na verdade é muito mais perigoso e agressivo.
07:44
The idea
179
449000
2000
A idéia
07:46
is to circumvent a digital safety system.
180
451000
3000
é contornar um sistema de segurança digital.
07:50
We need digital safety systems
181
455000
2000
Precisamos sistemas digitais de segurança
07:52
where a human operator could not act quick enough.
182
457000
3000
onde um operador humano não seria capaz de agir suficientemente rápido.
07:55
So for example, in a power plant,
183
460000
2000
Assim, por exemplo, numa usina elétrica,
07:57
when your big steam turbine gets too over speed,
184
462000
3000
quando nossa grande turbina a vapor pega velocidade demais,
08:00
you must open relief valves within a millisecond.
185
465000
3000
precisamos abrir válvulas de alívio em um milissegundo.
08:03
Obviously, this cannot be done by a human operator.
186
468000
3000
Obviamente, isso não pode ser feito por um operador humano.
08:06
So this is where we need digital safety systems.
187
471000
2000
Então é aí que precisamos sistemas de segurança digitais.
08:08
And when they are compromised,
188
473000
2000
E quando eles são danificados,
08:10
then real bad things can happen.
189
475000
3000
então coisas realmente ruins podem acontecer.
08:13
Your plant can blow up.
190
478000
2000
Nossa usina pode explodir.
08:15
And neither your operators nor your safety system will notice it.
191
480000
3000
E nem nossos operadores nem nosso sistema de segurança notariam isso.
08:18
That's scary.
192
483000
2000
Isso é assustador.
08:20
But it gets worse.
193
485000
2000
Mas fica ainda pior.
08:22
And this is very important, what I'm going to say.
194
487000
3000
E isso é muito importante, o que vou dizer.
08:25
Think about this:
195
490000
2000
Pensem nisto.
08:27
this attack is generic.
196
492000
3000
Este ataque é genérico.
08:30
It doesn't have anything to do, in specifics,
197
495000
4000
Ele não tem nada a ver, especificamente,
08:34
with centrifuges,
198
499000
2000
com centrífugas,
08:36
with uranium enrichment.
199
501000
3000
com enriquecimento de urânio.
08:39
So it would work as well, for example,
200
504000
3000
Portanto isso funcionaria muito bem, por exemplo,
08:42
in a power plant
201
507000
2000
numa usina elétrica
08:44
or in an automobile factory.
202
509000
3000
ou numa fábrica de automóveis.
08:47
It is generic.
203
512000
2000
Isso é genérico.
08:49
And you don't have -- as an attacker --
204
514000
2000
E você não precisa -- como um atacante --
08:51
you don't have to deliver this payload
205
516000
3000
você não preccisa entregar esse carregamento
08:54
by a USB stick,
206
519000
2000
através de um pen-drive,
08:56
as we saw it in the case of Stuxnet.
207
521000
2000
como vimos no caso do Stuxnet.
08:58
You could also use conventional worm technology for spreading.
208
523000
3000
A gente pode usar a tecnologia convencional dos vermes de computador para disseminar.
09:01
Just spread it as wide as possible.
209
526000
3000
É só espalhar o máximo possível.
09:04
And if you do that,
210
529000
2000
E se a gente faz isso,
09:06
what you end up with
211
531000
2000
o que a gente acaba conseguindo
09:08
is a cyber weapon of mass destruction.
212
533000
5000
é uma arma cibernética de destruição em massa.
09:14
That's the consequence
213
539000
2000
Essa é a consequência
09:16
that we have to face.
214
541000
3000
que precisamos enfrentar.
09:19
So unfortunately,
215
544000
3000
Assim, infelizmente,
09:22
the biggest number of targets for such attacks
216
547000
3000
o maior número de alvos para ataques assim
09:25
are not in the Middle East.
217
550000
2000
não estão no Oriente Médio.
09:27
They're in the United States and Europe and in Japan.
218
552000
3000
Eles estão nos Estados Unidos, na Europa e no Japão.
09:30
So all of the green areas,
219
555000
2000
Assim todas as áreas verdes,
09:32
these are your target-rich environments.
220
557000
3000
esses são os ambientes ricos em alvos.
09:35
We have to face the consequences,
221
560000
3000
Precisamos enfrentar as consequências,
09:38
and we better start to prepare right now.
222
563000
3000
e é bom começarmos a nos preparar agora mesmo.
09:41
Thanks.
223
566000
2000
Obrigado.
09:43
(Applause)
224
568000
6000
(Aplausos)
09:49
Chris Anderson: I've got a question.
225
574000
2000
Chris Anderson: Tenho uma pergunta.
09:53
Ralph, it's been quite widely reported
226
578000
2000
Ralph, foi muito comentado
09:55
that people assume that Mossad
227
580000
2000
que as pessoas supõem que o Mossad
09:57
is the main entity behind this.
228
582000
2000
é a principal entidade por trás disso.
09:59
Is that your opinion?
229
584000
3000
Essa é a sua opinião?
10:02
Ralph Langner: Okay, you really want to hear that?
230
587000
2000
Ralph Langner: OK, você quer mesmo ouvir isso?
10:04
Yeah. Okay.
231
589000
2000
Sim. Ok.
10:06
My opinion is that the Mossad is involved,
232
591000
3000
Minha opinião é que o Mossad está envolvido,
10:09
but that the leading force is not Israel.
233
594000
3000
mas que a força principal não é Israel.
10:12
So the leading force behind that
234
597000
2000
Então a força principal por trás disso
10:14
is the cyber superpower.
235
599000
3000
é a superpotência cibernética.
10:17
There is only one,
236
602000
2000
Existe apenas uma,
10:19
and that's the United States --
237
604000
2000
e essa é os Estados Unidos --
10:21
fortunately, fortunately.
238
606000
2000
felizmente, felizmente.
10:23
Because otherwise,
239
608000
2000
Pois de outro modo
10:25
our problems would even be bigger.
240
610000
3000
nossos problemas seriam ainda maiores.
10:28
CA: Thank you for scaring the living daylights out of us. Thank you, Ralph.
241
613000
4000
CA: Obrigado por nos aterrorizar. Obrigado Ralph.
10:32
(Applause)
242
617000
2000
(Aplausos)
Translated by Durval Castro
Reviewed by Belucio Haibara

▲Back to top

ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com