ABOUT THE SPEAKER
Julian Assange - Whistleblower
Internet activist Julian Assange serves as spokesperson for WikiLeaks, a controversial, volunteer-driven website that publishes and comments on leaked documents alleging government and corporate misconduct.

Why you should listen

You could say Australian-born Julian Assange has swapped his long-time interest in network security flaws for the far-more-suspect flaws of even bigger targets: governments and corporations. Since his early 20s, he has been using network technology to prod and probe the vulnerable edges of administrative systems, but though he was a computing hobbyist first (in 1991 he was the target of hacking charges after he accessed the computers of an Australian telecom), he's now taken off his "white hat" and launched a career as one of the world's most visible human-rights activists.

He calls himself "editor in chief." He travels the globe as its spokesperson. Yet Assange's part in WikiLeaks is clearly dicier than that: he's become the face of creature that, simply, many powerful organizations would rather see the world rid of. His Wikipedia entry says he is "constantly on the move," and some speculate that his role in publishing decrypted US military video has put him in personal danger. A controversial figure, pundits debate whether his work is reckless and does more harm than good. Amnesty International recognized him with an International Media Award in 2009.

Assange studied physics and mathematics at the University of Melbourne. He wrote Strobe, the first free and open-source port scanner, and contributed to the book Underground: Tales of Hacking, Madness and Obsession on the Electronic Frontier.

More profile about the speaker
Julian Assange | Speaker | TED.com
TEDGlobal 2010

Julian Assange: Why the world needs WikiLeaks

Julian Assange: Por que o mundo precisa do WikiLeaks

Filmed:
2,716,210 views

O controverso site WikiLeaks coleta e publica vídeos e documentos altamente sigilosos. O seu fundador Julian Assange, que já foi chamado para interrogatório pelas autoridades dos EUA, conversa com Chris Anderson do TED, sobre como o site funciona, o que ele já realizou -- e o que o motiva. A entrevista incluí uma filmagem explícita de um recente ataque aéreo norte-americano em Bagdá.
- Whistleblower
Internet activist Julian Assange serves as spokesperson for WikiLeaks, a controversial, volunteer-driven website that publishes and comments on leaked documents alleging government and corporate misconduct. Full bio

Double-click the English transcript below to play the video.

00:15
Chris Anderson: Julian, welcome.
0
0
2000
Chris Anderson: Bem vindo, Julian
00:17
It's been reported that WikiLeaks, your baby,
1
2000
2000
Foi divulgado que o WikiLeaks, seu bebê,
00:19
has, in the last few years
2
4000
2000
divulgou... nos últimos anos
00:21
has released more classified documents
3
6000
3000
divulgou mais documentos sigilosos
00:24
than the rest of the world's media combined.
4
9000
2000
do que o resto de toda a mídia do mundo junta.
00:26
Can that possibly be true?
5
11000
2000
Isso pode ser verdade?
00:28
Julian Assange: Yeah, can it possibly be true?
6
13000
2000
Julian Assange: É, isso pode ser verdade?
00:30
It's a worry -- isn't it? -- that the rest of the world's media
7
15000
3000
É uma preocupação -- não é? -- Que o resto da mídia do mundo
00:33
is doing such a bad job
8
18000
2000
esteja fazendo um trabalho tão ruim
00:35
that a little group of activists
9
20000
2000
que um grupinho de ativistas
00:37
is able to release more
10
22000
2000
consegue publicar mais
00:39
of that type of information
11
24000
2000
informações desse tipo
00:41
than the rest of the world press combined.
12
26000
2000
do que o resto da imprensa mundial junta.
00:43
CA: How does it work?
13
28000
2000
CA: Como isso funciona?
00:45
How do people release the documents?
14
30000
3000
Como as pessoas divulgam os documentos?
00:48
And how do you secure their privacy?
15
33000
3000
E como você garante a privacidade delas?
00:51
JA: So these are -- as far as we can tell --
16
36000
2000
JA: Acontece que eles são -- ao que sabemos --
00:53
classical whistleblowers,
17
38000
2000
informantes clássicos.
00:55
and we have a number of ways for them
18
40000
2000
E temos uma variedade de maneiras para que eles
00:57
to get information to us.
19
42000
2000
possam fornecer informações para nós.
00:59
So we use this state-of-the-art encryption
20
44000
2000
Então usamos criptografia de última geração
01:01
to bounce stuff around the Internet, to hide trails,
21
46000
2000
para fazer as coisas pularem pela internet, para esconder as trilhas,
01:03
pass it through legal jurisdictions
22
48000
2000
fazer que elas atravessem as jurisdições legais
01:05
like Sweden and Belgium
23
50000
3000
como a Suécia e a Bélgica
01:08
to enact those legal protections.
24
53000
3000
para legalizar essas proteções legais.
01:12
We get information in the mail,
25
57000
2000
Recebemos informações por correio,
01:14
the regular postal mail,
26
59000
3000
o correio normal,
01:17
encrypted or not,
27
62000
2000
codificado ou não,
01:19
vet it like a regular news organization, format it --
28
64000
3000
analisamos como uma organização de notícias normal, formatamos --
01:22
which is sometimes something that's quite hard to do,
29
67000
3000
o que as vezes é muito difícil de fazer,
01:25
when you're talking about
30
70000
2000
quando se fala sobre
01:27
giant databases of information --
31
72000
2000
gigantescos bancos de dados de informações --
01:29
release it to the public
32
74000
2000
divulgamos isso para o público
01:31
and then defend ourselves
33
76000
2000
e então nos defendemos
01:33
against the inevitable legal and political attacks.
34
78000
3000
contra os inevitáveis ataques políticos e legais,
01:36
CA: So you make an effort to ensure
35
81000
2000
CA: Então vocês se esforçam para garantir
01:38
the documents are legitimate,
36
83000
2000
que os documentos são legítimos.
01:40
but you actually
37
85000
2000
Mas vocês realmente
01:42
almost never know who the identity of the source is?
38
87000
3000
quase nunca sabem quem é a identidade da fonte.
01:45
JA: That's right, yeah. Very rarely do we ever know,
39
90000
3000
JA: É isso, sim. É muito raro sabermos.
01:49
and if we find out at some stage
40
94000
3000
E se descobrirmos em algum momento
01:52
then we destroy that information as soon as possible.
41
97000
3000
então nós destruímos essa informação o quanto antes
01:55
(Phone ring) God damn it.
42
100000
2000
(telefone toca) Que droga.
01:57
(Laughter)
43
102000
4000
(Risos)
02:01
CA: I think that's the CIA asking what the code is
44
106000
2000
CA: Acho que é a CIA perguntando qual é o código
02:03
for a TED membership.
45
108000
2000
para ser um membro do TED.
02:05
(Laughter)
46
110000
3000
(Risos)
02:08
So let's take [an] example, actually.
47
113000
2000
Vamos ver um exemplo, de fato.
02:10
This is something
48
115000
2000
Isso é algo
02:12
you leaked a few years ago.
49
117000
2000
que foi vazado alguns anos atrás.
02:14
If we can have this document up ...
50
119000
2000
Se nós pudermos mostrar esse documento...
02:16
So this was a story in Kenya a few years ago.
51
121000
2000
Essa é uma história no Quênia há alguns anos.
02:18
Can you tell us what you leaked and what happened?
52
123000
3000
Você pode nos contar o que você vazou e o que aconteceu?
02:21
JA: So this is the Kroll Report.
53
126000
2000
JA: Esse é o Relatório Kroll
02:23
This was a secret intelligence report
54
128000
3000
Era um relatório de inteligência secreto
02:26
commissioned by the Kenyan government
55
131000
2000
encomendado pelo governo do Quênia
02:28
after its election in 2004.
56
133000
3000
após a sua eleição em 2004
02:31
Prior to 2004, Kenya was ruled
57
136000
2000
Antes de 2004, o Quênia era governado
02:33
by Daniel arap Moi
58
138000
2000
por Daniel arap Moi
02:35
for about 18 years.
59
140000
2000
por uns 18 anos.
02:37
He was a soft dictator of Kenya.
60
142000
3000
Ele era um ditador moderado do Quênia
02:40
And when Kibaki got into power --
61
145000
2000
E quando Kibaki chegou ao poder --
02:42
through a coalition of forces that were trying
62
147000
2000
através de uma coligação de forças que tentavam
02:44
to clean up corruption in Kenya --
63
149000
2000
acabar com a corrupção no Quênia --
02:46
they commissioned this report,
64
151000
2000
eles pagaram esse relatório,
02:48
spent about two million pounds
65
153000
2000
gastaram mais ou menos 2 milhões de libras
02:50
on this and an associated report.
66
155000
2000
nisso e em um outro relatório.
02:52
And then the government sat on it
67
157000
3000
E então o governo o engavetou
02:55
and used it for political leverage on Moi,
68
160000
2000
e usou isso para negociação política com Moi,
02:57
who was the richest man --
69
162000
2000
que era o homem mais rico --
02:59
still is the richest man -- in Kenya.
70
164000
3000
e ainda é o homem mais rico -- do Quênia
03:02
It's the Holy Grail of Kenyan journalism.
71
167000
3000
Esse é o Santo Graal do jornalismo queniano.
03:05
So I went there in 2007,
72
170000
3000
Então eu fui até lá em 2007,
03:08
and we managed to get hold of this
73
173000
2000
e consegui ter acesso a isso
03:10
just prior to the election --
74
175000
2000
pouco antes da eleição --
03:12
the national election, December 28.
75
177000
3000
a eleição nacional em 28 de dezembro.
03:17
When we released that report,
76
182000
3000
Quando lançamos esse relatório,
03:20
we did so three days after the new president, Kibaki,
77
185000
3000
o fizemos 3 dias depois que o novo presidente, Kibaki,
03:23
had decided to pal up with
78
188000
2000
tinha decidido se unir com
03:25
the man that he was going to clean out,
79
190000
2000
o homem que ele deveria tirar do poder,
03:27
Daniel arap Moi,
80
192000
2000
Daniel arap Moi.
03:29
so this report then
81
194000
3000
Esse relatório então
03:32
became a dead albatross
82
197000
2000
se tornou um albatroz morto
03:34
around President Kibaki's neck.
83
199000
3000
no pescoço do presidente Kibaki.
03:38
CA: And -- I mean, to cut a long story short --
84
203000
3000
CA: And - quero dizer, para encurtar uma longa história --
03:41
word of the report leaked into Kenya,
85
206000
3000
a notícia de que o relatório vazou chegou no Quênia
03:44
not from the official media, but indirectly,
86
209000
3000
não pela mídia oficial, mas indiretamente.
03:47
and in your opinion, it actually shifted the election.
87
212000
3000
E, na sua opinião, isso mudou os rumos da eleição.
03:50
JA: Yeah. So this became front page of the Guardian
88
215000
3000
JA: Sim. Isso foi a primeira página do Guardian
03:53
and was then printed in all the surrounding countries of Kenya,
89
218000
3000
e foi impresso em todos os países ao redor do Quênia
03:56
in Tanzanian and South African press.
90
221000
3000
na imprensa da Tanzânia e da África do Sul.
03:59
And so it came in from the outside.
91
224000
2000
E aí, entrou no país vindo de fora.
04:01
And that, after a couple of days,
92
226000
2000
E isso, depois de alguns dias,
04:03
made the Kenyan press feel safe to talk about it.
93
228000
2000
fez com que a mídia do Quênia se sentisse livre para comentar a respeito.
04:05
And it ran for 20 nights straight on Kenyan TV,
94
230000
3000
E passou por 20 noites direto na TV queniana,
04:08
shifted the vote by 10 percent,
95
233000
3000
mudou as intenções de voto em 10 por cento,
04:11
according to a Kenyan intelligence report,
96
236000
2000
de acordo com um relatório de inteligência do Quênia,
04:13
which changed the result of the election.
97
238000
2000
isso mudou o resultado da eleição.
04:15
CA: Wow, so your leak
98
240000
2000
CA: Puxa, então o seu vazamento
04:17
really substantially changed the world?
99
242000
2000
mudou substancialmente o mundo?
04:19
JA: Yep.
100
244000
2000
JA: Sim.
04:21
(Applause)
101
246000
4000
(Aplausos)
04:25
CA: Here's -- We're going to just show
102
250000
2000
CA: Agora -- nós vamos mostrar
04:27
a short clip from this
103
252000
3000
um pequeno trecho de
04:30
Baghdad airstrike video.
104
255000
2000
um vídeo de um ataque aéreo a Bagdá.
04:32
The video itself is longer,
105
257000
2000
O video é mais longo.
04:34
but here's a short clip.
106
259000
2000
Mas aqui vai um pequeno trecho.
04:36
This is -- this is intense material, I should warn you.
107
261000
3000
Esse é -- esse é um material intenso, devo avisá-los.
04:39
Radio: ... just fuckin', once you get on 'em just open 'em up.
108
264000
3000
Radio:.. de sacanagem, quando você os pegar apenas abra-os
04:42
I see your element, uh, got about four Humvees, uh, out along ...
109
267000
4000
Eu vejo seu elemento, uh, tem uns 4 Humvees, uh junto...
04:46
You're clear. All right. Firing.
110
271000
3000
Você está liberado. Certo. Atirando.
04:49
Let me know when you've got them. Let's shoot.
111
274000
3000
Me avise quando você os pegar. Vamos atirar.
04:52
Light 'em all up.
112
277000
2000
Explodam eles.
04:54
C'mon, fire!
113
279000
2000
Vamos, fogo!
04:56
(Machine gun fire)
114
281000
3000
(metralhadoras atirando)
04:59
Keep shoot 'n. Keep shoot 'n.
115
284000
3000
Continue atirando, continue atirando.
05:02
(Machine gun fire)
116
287000
3000
(metralhadoras atirando)
05:05
Keep shoot 'n.
117
290000
3000
Continue atirando.
05:08
Hotel ... Bushmaster Two-Six, Bushmaster Two-Six,
118
293000
2000
Hotel ...Bushmaster 2-6, Bushmaster 2-6,
05:10
we need to move, time now!
119
295000
2000
temos que sair, comece a contar!
05:12
All right, we just engaged all eight individuals.
120
297000
3000
Certo, nós confrontamos todos os oito indivíduos.
05:15
Yeah, we see two birds [helicopters], and we're still firing.
121
300000
3000
Sim, nós vemos dois passaros [helicópteros], e ainda estamos atirando.
05:18
Roger. I got 'em.
122
303000
2000
Entendido. Eu peguei eles.
05:20
Two-Six, this is Two-Six, we're mobile.
123
305000
2000
2-6, aqui é o 2-6, estamos móveis.
05:22
Oops, I'm sorry. What was going on?
124
307000
2000
Ops, Desculpe, O que está havendo?
05:24
God damn it, Kyle. All right, hahaha. I hit 'em.
125
309000
2000
Droga, Kyle. Certo, hahahaha. Eu acertei eles.
05:29
CA: So, what was the impact of that?
126
314000
3000
CA: E qual foi o impacto disso?
05:32
JA: The impact on the people who worked on it
127
317000
3000
JA: O impacto sobre as pessoas que trabalharam nisso
05:35
was severe.
128
320000
2000
foi severo.
05:37
We ended up sending two people to Baghdad
129
322000
2000
Acabamos mandando duas pessoas a Bagdá
05:39
to further research that story.
130
324000
2000
para pesquisar mais essa história.
05:41
So this is just the first of three attacks
131
326000
3000
Esse é apenas o primeiro de três ataques
05:44
that occurred in that scene.
132
329000
2000
que aconteceram naquela cena.
05:46
CA: So, I mean, 11 people died in that attack, right,
133
331000
2000
CA: Então, quer dizer, 11 pessoas morreram nesse ataque, certo,
05:48
including two Reuters employees?
134
333000
2000
incluindo dois funcionários da Reuters?
05:50
JA: Yeah. Two Reuters employees,
135
335000
2000
JA. Isso. Dois funcionários da Reuters,
05:52
two young children were wounded.
136
337000
3000
duas crianças foram feridas.
05:55
There were between 18 and 26 people killed all together.
137
340000
3000
Houve algo entre 18 e 26 pessoas mortas no total.
05:58
CA: And releasing this caused
138
343000
2000
CA: E divulgar isso causou
06:00
widespread outrage.
139
345000
2000
revolta generalizada.
06:02
What was the key element of this
140
347000
2000
Qual foi o elemento chave disso
06:04
that actually caused the outrage, do you think?
141
349000
3000
que causou a revolta, o que você acha?
06:07
JA: I don't know. I guess people can see
142
352000
2000
JA: Eu não sei. Acho que as pessoas puderam ver
06:09
the gross disparity in force.
143
354000
3000
a enorme disparidade de forças.
06:12
You have guys walking in a relaxed way down the street,
144
357000
2000
Você vê homens andando nas ruas relaxados,
06:14
and then an Apache helicopter sitting up at one kilometer
145
359000
3000
e então um helicóptero Apache aparece em uma esquina
06:17
firing 30-millimeter cannon shells
146
362000
2000
disparando balas de canhão de 30 milimetros
06:19
on everyone --
147
364000
2000
em todo mundo --
06:21
looking for any excuse to do so --
148
366000
3000
procurando qualquer desculpa para fazer isso --
06:24
and killing people rescuing the wounded.
149
369000
2000
e matando as pessoas que estão resgatando os feridos.
06:26
And there was two journalists involved that clearly weren't insurgents
150
371000
3000
E esses dois jornalistas envolvidos, que claramente não eram insurgentes,
06:29
because that's their full-time job.
151
374000
2000
porque esse era o trabalho deles em tempo integral.
06:33
CA: I mean, there's been this U.S. intelligence analyst,
152
378000
3000
CA: Quero dizer, um analista de inteligência americano,
06:36
Bradley Manning, arrested,
153
381000
2000
Bradley Manning, foi preso.
06:38
and it's alleged that he confessed in a chat room
154
383000
3000
E supostamente ele confessou numa sala de chat
06:41
to have leaked this video to you,
155
386000
3000
que enviou esse video para você,
06:44
along with 280,000
156
389000
2000
junto com 280.000
06:46
classified U.S. embassy cables.
157
391000
2000
telegramas sigilosos da embaixada americana.
06:48
I mean, did he?
158
393000
3000
Quer dizer, será que ele mandou?
06:51
JA: We have denied receiving those cables.
159
396000
2000
JA: Bem, nós negamos ter recebido esses telegramas.
06:53
He has been charged,
160
398000
2000
Ele foi indiciado,
06:55
about five days ago,
161
400000
2000
uns cinco dias atrás,
06:57
with obtaining 150,000 cables
162
402000
3000
por ter obtido 150.000 telegramas
07:00
and releasing 50.
163
405000
2000
e divulgar 50.
07:02
Now, we had released,
164
407000
3000
Agora, nós publicamos
07:05
early in the year,
165
410000
2000
no início do ano
07:07
a cable from the Reykjavik U.S. embassy,
166
412000
3000
um telegrama da embaixada americana em Reykjavik
07:11
but this is not necessarily connected.
167
416000
2000
Mas que não era necessariamente conectado a esses.
07:13
I mean, I was a known visitor of that embassy.
168
418000
2000
Quero dizer, eu era um visitante conhecido daquela embaixada.
07:15
CA: I mean, if you did receive thousands
169
420000
2000
CA: Bem, se você recebeu milhares
07:17
of U.S. embassy diplomatic cables ...
170
422000
3000
de telegramas diplomáticos da embaixada americana...
07:20
JA: We would have released them. (CA: You would?)
171
425000
2000
JA: Nós os teríamos liberado. (CA: Teriam?)
07:22
JA: Yeah. (CA: Because?)
172
427000
3000
JA: Sim. (CA: Porque?)
07:25
JA: Well, because these sort of things
173
430000
2000
JA: Bem, porque esse tipo de coisa
07:27
reveal what the true state
174
432000
3000
revela o estado real
07:30
of, say,
175
435000
2000
de, digamos,
07:32
Arab governments are like,
176
437000
2000
como são governos árabes,
07:34
the true human-rights abuses in those governments.
177
439000
3000
os reais abusos de direitos humanos nesses governos.
07:37
If you look at declassified cables,
178
442000
2000
Se você olhar os telegramas não confidenciais,
07:39
that's the sort of material that's there.
179
444000
2000
é o tipo de material que está lá.
07:41
CA: So let's talk a little more broadly about this.
180
446000
2000
CA: Então vamos falar um pouco mais sobre isso.
07:43
I mean, in general, what's your philosophy?
181
448000
2000
Em geral, qual é a sua filosofia?
07:45
Why is it right
182
450000
2000
Por que é correto
07:47
to encourage leaking of secret information?
183
452000
3000
encorajar o vazamento de informações secretas?
07:51
JA: Well, there's a question as to what sort of information is important in the world,
184
456000
3000
JA: Bem, há a questão sobre que tipo de informação é importante para o mundo,
07:54
what sort of information
185
459000
2000
que tipo de informação
07:56
can achieve reform.
186
461000
2000
pode gerar uma reforma.
07:58
And there's a lot of information.
187
463000
2000
E há muita informação.
08:00
So information that organizations
188
465000
2000
Então as informações que organizações
08:02
are spending economic effort into concealing,
189
467000
3000
estão fazendo um esforço economico para esconder,
08:05
that's a really good signal
190
470000
2000
isso é um bom sinal
08:07
that when the information gets out,
191
472000
2000
de que quando essa informação estiver disponível,
08:09
there's a hope of it doing some good --
192
474000
2000
há uma esperança dela fazer algo bom.
08:11
because the organizations that know it best,
193
476000
2000
Porque as organizações que sabem das coisas,
08:13
that know it from the inside out,
194
478000
2000
que conhecem tudo de dentro para fora,
08:15
are spending work to conceal it.
195
480000
3000
estão tendo trabalho para esconder.
08:18
And that's what we've found in practice,
196
483000
2000
E isso é o que descobrimos com a prática.
08:20
and that's what the history of journalism is.
197
485000
3000
E essa é a história do jornalismo.
08:23
CA: But are there risks with that,
198
488000
3000
CA: Mas há riscos nisso,
08:26
either to the individuals concerned
199
491000
3000
tanto para os individuos envolvidos
08:29
or indeed to society at large,
200
494000
2000
ou até para a sociedade toda,
08:31
where leaking can actually have
201
496000
2000
em que vazar pode ter
08:33
an unintended consequence?
202
498000
2000
uma consequência não intencional?
08:35
JA: Not that we have seen with anything we have released.
203
500000
2000
JA: Não observamos isso com coisa alguma que tenhamos divulgado.
08:37
I mean, we have a harm immunization policy.
204
502000
2000
Nós temos uma política de imunização a danos.
08:39
We have a way of dealing with information
205
504000
2000
Nós temos uma maneira de lidar com informações
08:41
that has sort of personal --
206
506000
2000
que tenham alguma coisa de pessoal --
08:43
personally identifying information in it.
207
508000
2000
identificando pessoalmente a informação ali.
08:46
But there are legitimate secrets --
208
511000
3000
Mas há segredos legítimos --
08:49
you know, your records with your doctor;
209
514000
3000
você sabe, seus registros com seu médico,
08:52
that's a legitimate secret --
210
517000
2000
esse é um segredo legítimo.
08:54
but we deal with whistleblowers that are coming forward
211
519000
2000
Mas nós lidamos com informantes que estão se apresentando
08:56
that are really sort of well-motivated.
212
521000
3000
realmente bem motivados.
08:59
CA: So they are well-motivated.
213
524000
2000
CA: Então eles estão bem motivados.
09:01
And what would you say to, for example,
214
526000
2000
E o que você falaria, por exemplo,
09:03
the, you know, the parent of someone
215
528000
3000
aos pais de alguém --
09:06
whose son is out serving the U.S. military,
216
531000
3000
cujo filho está servindo o exército americano no exterior,
09:09
and he says, "You know what,
217
534000
2000
e ele diz, "Sabe de uma coisa,
09:11
you've put up something that someone had an incentive to put out.
218
536000
2000
você publicou algo que alguém tinha um incentivo para liberar.
09:13
It shows a U.S. soldier laughing
219
538000
2000
E mostra um soldado americano rindo
09:15
at people dying.
220
540000
2000
de pessoas morrendo.
09:17
That gives the impression, has given the impression,
221
542000
2000
Isso dá a impressão -- deu a impressão
09:19
to millions of people around the world
222
544000
2000
a milhões de pessoas no mundo todo
09:21
that U.S. soldiers are inhuman people.
223
546000
2000
de que os soldados americanos são desumanos.
09:23
Actually, they're not. My son isn't. How dare you?"
224
548000
2000
Na verdade, eles não são. Meu filho não é. Como você ousa insinuar isso?
09:25
What would you say to that?
225
550000
2000
O que você falaria para isso?
09:27
JA: Yeah, we do get a lot of that.
226
552000
2000
JA: É, nós recebemos um monte disso.
09:29
But remember, the people in Baghdad,
227
554000
2000
Mas lembre-se, as pessoas em Bagdá,
09:31
the people in Iraq, the people in Afghanistan --
228
556000
3000
as pessoas no Iraque, as pessoas no Afeganistão --
09:34
they don't need to see the video;
229
559000
2000
eles não precisam ver o vídeo;
09:36
they see it every day.
230
561000
2000
eles vêem isso todos os dias.
09:38
So it's not going to change their opinion. It's not going to change their perception.
231
563000
3000
Então isso não vai mudar a opinião deles. Não vai mudar a percepção deles.
09:41
That's what they see every day.
232
566000
2000
É isso que eles vêem todos os dias.
09:43
It will change the perception and opinion
233
568000
3000
Isso vai mudar a percepção e opinião
09:46
of the people who are paying for it all,
234
571000
2000
daqueles que estão pagando por tudo isso.
09:48
and that's our hope.
235
573000
3000
E essa é a nossa esperança.
09:51
CA: So you found a way to shine light
236
576000
3000
CA: Então você achou uma maneira de jogar uma luz
09:54
into what you see
237
579000
3000
no que você vê
09:57
as these sort of dark secrets in companies and in government.
238
582000
3000
como sendo esse tipo de segredos macabros das empresas e governos.
10:01
Light is good.
239
586000
2000
A luz é boa.
10:03
But do you see any irony in the fact that,
240
588000
2000
Mas você nota a ironia no fato de que
10:05
in order for you to shine that light,
241
590000
2000
para você jogar essa luz,
10:07
you have to, yourself,
242
592000
2000
você mesmo tem que,
10:09
create secrecy around your sources?
243
594000
3000
criar um segredo ao redor das suas fontes?
10:12
JA: Not really. I mean, we don't have
244
597000
3000
JA: Não. Quero dizer, nós não temos
10:15
any WikiLeaks dissidents yet.
245
600000
3000
nenhum dissidente da WikiLeaks ainda.
10:19
We don't have sources who are dissidents on other sources.
246
604000
3000
Nós não temos fontes que são dissidentes de outras fontes.
10:23
Should they come forward, that would be a tricky situation for us,
247
608000
3000
Caso eles apareçam, isso seria uma situação difícil para nós.
10:26
but we're presumably acting in such a way
248
611000
3000
Mas presumimos que agindo dessa maneira
10:29
that people feel
249
614000
2000
as pessoas sentem-se
10:31
morally compelled
250
616000
2000
moralmente obrigadas
10:33
to continue our mission, not to screw it up.
251
618000
3000
a continuar a nossa missão, a não ferrar com tudo.
10:37
CA: I'd actually be interested, just based on what we've heard so far --
252
622000
3000
CA: Eu estaria interessado, apenas pelo que ouvi até agora --
10:40
I'm curious as to the opinion in the TED audience.
253
625000
3000
queria saber a opinião da audiência do TED.
10:45
You know, there might be a couple of views
254
630000
2000
Você sabe, deve haver alguns pontos de vista
10:47
of WikiLeaks and of Julian.
255
632000
2000
sobre o Wikileaks e sobre o Julian.
10:49
You know, hero -- people's hero --
256
634000
3000
Vocês sabem, o herói -- o herói do povo --
10:52
bringing this important light.
257
637000
3000
trazendo essa luz importante.
10:55
Dangerous troublemaker.
258
640000
2000
O encrenqueiro perigoso.
10:58
Who's got the hero view?
259
643000
3000
Quem tem a visão do herói?
11:02
Who's got the dangerous troublemaker view?
260
647000
3000
E quem tem a visão do encrenqueiro perigoso?
11:06
JA: Oh, come on. There must be some.
261
651000
2000
JA: Ah, por favor. Deve ter algum.
11:09
CA: It's a soft crowd, Julian, a soft crowd.
262
654000
2000
É um público moderado, Julian, um público moderado.
11:11
We have to try better. Let's show them another example.
263
656000
2000
Temos que tentar melhorar. Vamos dar a eles um outro exemplo.
11:13
Now here's something that you haven't yet leaked,
264
658000
3000
Aqui está uma coisa que vocês ainda não vazaram,
11:16
but I think for TED you are.
265
661000
3000
mas eu acho que no TED poderiamos considerar que o fariam.
11:19
I mean it's an intriguing story that's just happened, right?
266
664000
2000
É uma história intrigante que acabou de acontecer, certo?
11:21
What is this?
267
666000
2000
O que é?
11:23
JA: So this is a sample of what we do
268
668000
2000
Então essa é uma amostra do que fazemos
11:25
sort of every day.
269
670000
2000
todos os dias
11:27
So late last year -- in November last year --
270
672000
3000
No final do ano passado - em novembro do ano passado -
11:30
there was a series of well blowouts
271
675000
2000
houve uma série de explosões de poços
11:32
in Albania,
272
677000
2000
na Albânia
11:34
like the well blowout in the Gulf of Mexico,
273
679000
3000
como o poço que explodiu no Golfo do México,
11:37
but not quite as big.
274
682000
2000
mas não tão grande.
11:39
And we got a report --
275
684000
3000
E nós recebemos um relatório --
11:42
a sort of engineering analysis into what happened --
276
687000
3000
um tipo de análise de engenharia do que havia acontecido --
11:45
saying that, in fact, security guards
277
690000
3000
afirmando que, de fato, os seguranças
11:48
from some rival, various competing oil firms
278
693000
3000
de algum concorrente, várias empresas de petróleo competindo
11:51
had, in fact, parked trucks there and blown them up.
279
696000
3000
haviam, de fato, estacionado caminhonetes lá e as explodido.
11:55
And part of the Albanian government was in this, etc., etc.
280
700000
3000
E parte do governo da Albânia estava envolvido, etc, etc
11:59
And the engineering report
281
704000
1000
E o relatório de engenharia
12:00
had nothing on the top of it,
282
705000
2000
não tinha nada sobre isso.
12:02
so it was an extremely difficult document for us.
283
707000
2000
Então foi um documento extremamente difícil para nós.
12:04
We couldn't verify it because we didn't know
284
709000
2000
Nós não conseguíamos verificar porque nós não sabíamos
12:06
who wrote it and knew what it was about.
285
711000
2000
quem escreveu isso e sabíamos qual era o propósito disso.
12:08
So we were kind of skeptical that maybe it was
286
713000
2000
Então ficamos meio céticos que talvez fosse uma
12:10
a competing oil firm just sort of playing the issue up.
287
715000
2000
empresa de petróleo concorrente que estava trazendo isso a tona.
12:12
So under that basis, we put it out and said,
288
717000
2000
Baseados nisso, nós publicamos e dissemos,
12:14
"Look, we're skeptical about this thing.
289
719000
2000
"Olhem, nós estamos céticos a respeito disso.
12:16
We don't know, but what can we do?
290
721000
2000
Nós não sabemos, mas o que podemos fazer?
12:18
The material looks good, it feels right,
291
723000
2000
O material parece bom, parece certo,
12:20
but we just can't verify it."
292
725000
2000
mas nós não conseguimos verificá-lo"
12:22
And we then got a letter
293
727000
3000
E recebemos uma carta
12:25
just this week
294
730000
3000
essa semana
12:28
from the company who wrote it,
295
733000
3000
da empresa que o escreveu,
12:31
wanting to track down the source --
296
736000
3000
querendo rastrear a fonte --
12:34
(Laughter)
297
739000
3000
(risos)
12:38
saying, "Hey, we want to track down the source."
298
743000
3000
dizendo, "Ei, nós queremos rastrear a fonte."
12:41
And we were like, "Oh, tell us more.
299
746000
2000
E nós respondemos, "Conte-nos mais.
12:43
What document is it, precisely, you're talking about?
300
748000
3000
A que documento, precisamente, você está se referindo?
12:46
Can you show that you had legal authority over that document?
301
751000
3000
Você pode nos provar que tem alguma autoridade legal sobre esse documento?
12:49
Is it really yours?"
302
754000
2000
É realmente seu?"
12:51
So they sent us this screen shot
303
756000
3000
Então eles enviaram uma captura de tela
12:54
with the author
304
759000
2000
com o autor
12:56
in the Microsoft Word ID.
305
761000
3000
na identificação do Microsoft Word.
13:01
Yeah.
306
766000
2000
É.
13:03
(Applause)
307
768000
5000
(Aplausos)
13:08
That's happened quite a lot though.
308
773000
2000
Isso acontece bastante.
13:10
This is like one of our methods
309
775000
2000
Esse é um dos nossos métodos
13:12
of identifying, of verifying, what a material is,
310
777000
3000
de identificar -- ou verificar o que é aquele material,
13:15
is to try and get these guys to write letters.
311
780000
2000
é tentar fazer com que esses caras escrevam cartas.
13:17
CA: Yeah. Have you had information
312
782000
3000
CA: Você teve informação
13:20
from inside BP?
313
785000
2000
de dentro da BP?
13:22
JA: Yeah, we have a lot, but I mean, at the moment,
314
787000
3000
JA: Sim, nós temos muitas, mas quero dizer, no momento,
13:25
we are undergoing a sort of serious fundraising and engineering effort.
315
790000
3000
nós estamos fazendo uma captação de recursos e esforços de engenharia.
13:28
So our publication rate
316
793000
2000
E a nossa taxa de publicação
13:30
over the past few months
317
795000
2000
nos últimos meses
13:32
has been sort of minimized
318
797000
2000
foi reduzida
13:34
while we're re-engineering our back systems
319
799000
3000
enquanto nós reconstruímos os nossos sistemas
13:37
for the phenomenal public interest that we have.
320
802000
3000
para o interesse público fenomenal que nós temos.
13:40
That's a problem.
321
805000
2000
Isso é um problema
13:42
I mean, like any sort of growing startup organization,
322
807000
3000
Quero dizer, como qualquer tipo de organização nova em crescimento,
13:45
we are sort of overwhelmed
323
810000
2000
nós estamos surpresos
13:47
by our growth,
324
812000
2000
com o nosso crescimento.
13:49
and that means we're getting enormous quantity
325
814000
2000
E isso significa que estamos recebendo uma quantidade enorme
13:51
of whistleblower disclosures
326
816000
2000
de revelações de informantes
13:53
of a very high caliber
327
818000
2000
de calibre bem alto,
13:55
but don't have enough people to actually
328
820000
2000
mas nós não temos pessoal suficiente
13:57
process and vet this information.
329
822000
2000
para processar e cuidar dessa informação
13:59
CA: So that's the key bottleneck,
330
824000
2000
CA: Então esse é o principal gargalo,
14:01
basically journalistic volunteers
331
826000
2000
jornalistas voluntários
14:03
and/or the funding of journalistic salaries?
332
828000
3000
e/ou o financiamento de salários dos jornalistas?
14:06
JA: Yep. Yeah, and trusted people.
333
831000
2000
JA: Sim, e pessoas confiáveis.
14:08
I mean, we're an organization
334
833000
2000
Nós somos uma organização
14:10
that is hard to grow very quickly
335
835000
2000
que dificilmente vai crescer rapidamente
14:12
because of the sort of material we deal with,
336
837000
2000
por causa do tipo de material que lidamos.
14:14
so we have to restructure
337
839000
3000
Então temos que reestruturar
14:17
in order to have people
338
842000
2000
para ter pessoas
14:19
who will deal with the highest national security stuff,
339
844000
3000
que vão lidar com questões da mais alta segurança nacional,
14:22
and then lower security cases.
340
847000
2000
e também casos de segurança mais baixa.
14:24
CA: So help us understand a bit about you personally
341
849000
3000
CA: Então ajude-nos a entender sobre você pessoalmente
14:27
and how you came to do this.
342
852000
2000
e como chegou a fazer isso.
14:29
And I think I read that as a kid
343
854000
2000
E acho que li que, quando era criança
14:31
you went to 37 different schools.
344
856000
3000
você estudou em 37 escolas diferentes.
14:34
Can that be right?
345
859000
2000
Será que isso está certo?
14:36
JA: Well, my parents were in the movie business
346
861000
3000
JA: Bem, meus pais trabalhavam no negócio de cinema
14:39
and then on the run from a cult,
347
864000
2000
e depois em um culto,
14:41
so the combination between the two ...
348
866000
2000
então juntando os dois
14:43
(Laughter)
349
868000
4000
(Risos)
14:47
CA: I mean, a psychologist might say
350
872000
2000
CA: Um psicólogo poderia dizer
14:49
that's a recipe for breeding paranoia.
351
874000
3000
que essa é a receita para criar a paranóia
14:52
JA: What, the movie business?
352
877000
2000
JA: O que, o negócio de cinema?
14:54
(Laughter)
353
879000
3000
(Risos)
14:57
(Applause)
354
882000
3000
(Aplausos)
15:00
CA: And you were also -- I mean,
355
885000
2000
CA: e você era também -- quero dizer,
15:02
you were also a hacker at an early age
356
887000
2000
você era um hacker desde jovem
15:04
and ran into the authorities early on.
357
889000
3000
e teve problemas com as autoridades logo cedo.
15:07
JA: Well, I was a journalist.
358
892000
3000
JA: Bem, eu era um jornalista.
15:10
You know, I was a very young journalist activist at an early age.
359
895000
2000
Sabe como é, eu era um jornalista ativista bem jovem.
15:12
I wrote a magazine,
360
897000
2000
E escrevi uma revista,
15:14
was prosecuted for it when I was a teenager.
361
899000
3000
que foi processada por isso quando eu era um adolescente.
15:17
So you have to be careful with hacker.
362
902000
2000
Então você tem que tomar cuidado com hacker.
15:19
I mean there's like -- there's a method
363
904000
2000
Quero dizer, há um método
15:21
that can be deployed for various things.
364
906000
2000
que pode ser feito para várias coisas.
15:23
Unfortunately, at the moment,
365
908000
2000
Infelizmente, naquele momento,
15:25
it's mostly deployed by the Russian mafia
366
910000
2000
era mais usado pela máfia Russa
15:27
in order to steal your grandmother's bank accounts.
367
912000
2000
para roubar a conta do banco da sua avó.
15:29
So this phrase is not,
368
914000
3000
Então essa frase não é --
15:32
not as nice as it used to be.
369
917000
2000
tão legal quanto era antigamente.
15:34
CA: Yeah, well, I certainly don't think
370
919000
2000
CA: É, bem, eu realmente não acho
15:36
you're stealing anyone's grandmother's bank account,
371
921000
3000
que você estava roubando a conta de banco da avó de ninguém.
15:39
but what about
372
924000
2000
Mas e sobre
15:41
your core values?
373
926000
2000
os seus valores?
15:43
Can you give us a sense of what they are
374
928000
3000
Você pode nos dar uma idéia do que eles são
15:46
and maybe some incident in your life
375
931000
2000
e talvez algum acontecimento na sua vida
15:48
that helped determine them?
376
933000
3000
que ajudou a determinar esses valores?
15:53
JA: I'm not sure about the incident.
377
938000
2000
JA: Não tenho certeza sobre o acontecimento
15:55
But the core values:
378
940000
3000
Mas os valores principais são:
15:58
well, capable, generous men
379
943000
3000
homens capazes e generosos
16:01
do not create victims;
380
946000
2000
não criam vítimas
16:03
they nurture victims.
381
948000
2000
eles cuidam das vítimas.
16:05
And that's something from my father
382
950000
2000
E isso era algo do meu pai
16:07
and something from other capable, generous men
383
952000
3000
e de outros homens capazes e generosos
16:10
that have been in my life.
384
955000
3000
que participaram da minha vida
16:13
CA: Capable, generous men do not create victims;
385
958000
2000
CA: Homens capazes e generosos não criam vítimas;
16:15
they nurture victims?
386
960000
2000
Eles cuidam delas?
16:17
JA: Yeah. And you know,
387
962000
2000
JA: É e você sabe,
16:19
I'm a combative person,
388
964000
4000
Eu sou uma pessoa combativa,
16:23
so I'm not actually so big on the nurture,
389
968000
2000
então eu não sou muito bom com essa parte de cuidar.
16:25
but some way --
390
970000
3000
mas de alguma forma
16:28
there is another way of nurturing victims,
391
973000
3000
Há outra maneira de cuidar das vítimas,
16:31
which is to police perpetrators
392
976000
3000
que é vigiar os autores
16:34
of crime.
393
979000
2000
do crime.
16:36
And so that is something
394
981000
2000
Então isso é algo
16:38
that has been in my character
395
983000
2000
que está no meu caráter
16:40
for a long time.
396
985000
2000
há bastante tempo
16:42
CA: So just tell us, very quickly in the last minute, the story:
397
987000
3000
CA: Então conte-nos, rapidamente nesse último minuto, a história:
16:45
what happened in Iceland?
398
990000
3000
O que houve na Islândia?
16:48
You basically published something there,
399
993000
3000
Você publicou algo lá,
16:51
ran into trouble with a bank,
400
996000
3000
teve problemas com um banco,
16:54
then the news service there
401
999000
2000
depois uma empresa de notícias de lá
16:56
was injuncted from running the story.
402
1001000
3000
recebeu uma punição por ter publicado a história.
16:59
Instead, they publicized your side.
403
1004000
2000
Ao invés, eles divulgaram o seu lado da história.
17:01
That made you very high-profile in Iceland. What happened next?
404
1006000
3000
Isso fez você ser muito conhecido na Islândia. O que aconteceu depois?
17:04
JA: Yeah, this is a great case, you know.
405
1009000
2000
JA: Esse é um grande caso.
17:06
Iceland went through this financial crisis.
406
1011000
2000
A Islândia passou por essa grande crise financeira
17:08
It was the hardest hit of any country in the world.
407
1013000
2000
Foi o país mais afetado de todo o mundo.
17:10
Its banking sector was 10 times the GDP
408
1015000
2000
Seu setor financeiro correspondia a 10 vezes o PIB
17:12
of the rest of the economy.
409
1017000
2000
do resto da economia.
17:14
Anyway, so we release this report
410
1019000
3000
Então, nós lançamos esse relatório
17:17
in July last year.
411
1022000
3000
em Julho do ano passado.
17:20
And the national TV station was injuncted
412
1025000
2000
E a TV nacional foi proibida de veicular
17:22
five minutes before it went on air,
413
1027000
2000
cinco minutos antes de ir ao ar.
17:24
like out of a movie: injunction landed on the news desk,
414
1029000
2000
Como se tivesse saído de um filme, a ordem foi colocada na mesa,
17:26
and the news reader was like,
415
1031000
2000
e o apresentador falava
17:28
"This has never happened before. What do we do?"
416
1033000
2000
"Isso nunca aconteceu antes. O que faremos?"
17:30
Well, we just show the website instead,
417
1035000
2000
Bem, vamos apenas mostrar o site então
17:32
for all that time, as a filler,
418
1037000
3000
para preencher todo aquele tempo.
17:35
and we became very famous in Iceland,
419
1040000
2000
E nós nos tornamos muito famosos na Islândia,
17:37
went to Iceland and spoke about this issue.
420
1042000
3000
fomos à Islândia e falamos sobre o assunto.
17:40
And there was a feeling in the community
421
1045000
2000
E havia um sentimento na comunidade
17:42
that that should never happen again,
422
1047000
2000
que isso nunca deveria acontecer novamente.
17:44
and as a result,
423
1049000
2000
E como resultado disso,
17:46
working with Icelandic politicians
424
1051000
2000
trabalhando com alguns políticos islandeses
17:48
and some other international legal experts,
425
1053000
2000
e alguns especialistas em direito internacional,
17:50
we put together a new sort of
426
1055000
2000
nós criamos um tipo de
17:52
package of legislation for Iceland
427
1057000
3000
pacote legal para a Islândia
17:55
to sort of become an offshore haven
428
1060000
3000
se tornar um paraíso
17:58
for the free press,
429
1063000
3000
para a imprensa livre,
18:01
with the strongest journalistic protections in the world,
430
1066000
3000
com as maiores proteções jornalísticas do mundo,
18:04
with a new Nobel Prize
431
1069000
2000
com um novo prêmio Nobel
18:06
for freedom of speech.
432
1071000
2000
para liberdade de expressão.
18:08
Iceland's a Nordic country,
433
1073000
2000
A Islândia é um país nórdico
18:10
so, like Norway, it's able to tap into the system.
434
1075000
3000
então, como a Noruega, é capaz de mexer no sistema.
18:13
And just a month ago,
435
1078000
2000
E há apenas um mês,
18:15
this was passed by the Icelandic parliament unanimously.
436
1080000
3000
isso foi aprovado por unanimidade pelo parlamento islandês
18:18
CA: Wow.
437
1083000
2000
CA: Uau.
18:20
(Applause)
438
1085000
6000
(Aplausos)
18:26
Last question, Julian.
439
1091000
2000
Última pergunta, Julian.
18:28
When you think of the future then,
440
1093000
2000
Quando você pensa sobre o futuro,
18:30
do you think it's more likely to be
441
1095000
2000
você acha que será mais como
18:32
Big Brother exerting more control,
442
1097000
2000
o "Big Brother" exercendo mais controle,
18:34
more secrecy,
443
1099000
2000
com mais segredos
18:36
or us watching
444
1101000
2000
ou nós observando
18:38
Big Brother,
445
1103000
2000
o "Big Brother",
18:40
or it's just all to be played for either way?
446
1105000
3000
ou tudo isso acontecerá, nos dois sentidos?
18:43
JA: I'm not sure which way it's going to go.
447
1108000
2000
JA: Eu não estou certo de como será.
18:45
I mean, there's enormous pressures
448
1110000
2000
Há pressões enormes
18:47
to harmonize freedom of speech legislation
449
1112000
3000
para harmonizar a legislação da liberdade de expressão
18:50
and transparency legislation around the world --
450
1115000
3000
e a legislação da transparência ao redor do mundo --
18:53
within the E.U.,
451
1118000
2000
dentro da comunidade européia,
18:55
between China and the United States.
452
1120000
2000
entre a China e os Estados Unidos.
18:57
Which way is it going to go? It's hard to see.
453
1122000
3000
Qual caminho vai tomar? É difícil ver.
19:00
That's why it's a very interesting time to be in --
454
1125000
2000
É por isso que hoje é um bom momento para se viver.
19:02
because with just a little bit of effort,
455
1127000
2000
Porque com apenas um pouco de esforço
19:04
we can shift it one way or the other.
456
1129000
3000
nós podemos mudar de um jeito ou de outro.
19:07
CA: Well, it looks like I'm reflecting the audience's opinion
457
1132000
3000
CA: Bem, parece que eu estou refletindo a opinião do público
19:10
to say, Julian, be careful,
458
1135000
2000
ao dizer, Julian, tenha cuidado
19:12
and all power to you.
459
1137000
2000
e desejo todo poder para você.
19:14
JA: Thank you, Chris. (CA: Thank you.)
460
1139000
2000
JA: Obrigado, Chris (CA: Obrigado.)
19:16
(Applause)
461
1141000
10000
(Aplausos)
Translated by Daniel Sollero
Reviewed by Durval Castro

▲Back to top

ABOUT THE SPEAKER
Julian Assange - Whistleblower
Internet activist Julian Assange serves as spokesperson for WikiLeaks, a controversial, volunteer-driven website that publishes and comments on leaked documents alleging government and corporate misconduct.

Why you should listen

You could say Australian-born Julian Assange has swapped his long-time interest in network security flaws for the far-more-suspect flaws of even bigger targets: governments and corporations. Since his early 20s, he has been using network technology to prod and probe the vulnerable edges of administrative systems, but though he was a computing hobbyist first (in 1991 he was the target of hacking charges after he accessed the computers of an Australian telecom), he's now taken off his "white hat" and launched a career as one of the world's most visible human-rights activists.

He calls himself "editor in chief." He travels the globe as its spokesperson. Yet Assange's part in WikiLeaks is clearly dicier than that: he's become the face of creature that, simply, many powerful organizations would rather see the world rid of. His Wikipedia entry says he is "constantly on the move," and some speculate that his role in publishing decrypted US military video has put him in personal danger. A controversial figure, pundits debate whether his work is reckless and does more harm than good. Amnesty International recognized him with an International Media Award in 2009.

Assange studied physics and mathematics at the University of Melbourne. He wrote Strobe, the first free and open-source port scanner, and contributed to the book Underground: Tales of Hacking, Madness and Obsession on the Electronic Frontier.

More profile about the speaker
Julian Assange | Speaker | TED.com