fix bar
fix bar
fix bar
fix bar
fix bar
fix bar

How the NSA betrayed the world's trust -- time to act | Mikko Hypponen

TED

Alterar formato do vídeo:

Ocultar legendas incorporadas

Tela 21:9 (Cinema)

Alterar modo de reprodução

Modo atual: Tocar normalmente

Tocar e Pausar

Lento Devagar Normal
Rápido
Acelerado
Frenético
 


. . .



 


. . .



 

00:00...
...

[1] 00:12The two most likely largest inventions
Tradutor: Afonso Monteiro Revisora: Margarida Ferreira

[2] 00:17of our generation
Provavelmente as duas maiores invenções

[3] 00:19are the Internet and the mobile phone.
da nossa geração

[4] 00:22They've changed the world.
são a Internet e o telemóvel.

[5] 00:24However, largely to our surprise,
Eles mudaram o mundo.

[6] 00:28they also turned out to be the perfect tools
Contudo, e para nossa surpresa,

[7] 00:32for the surveillance state.
também se tornaram nas ferramentas perfeitas

[8] 00:35It turned out that the capability
para a vigilância do Estado.

[9] 00:38to collect data, information and connections
Afinal a capacidade de recolher dados,

[10] 00:42about basically any of us and all of us
informações e conexões

[11] 00:46is exactly what we've been hearing
sobre qualquer um de nós e todos nós

[12] 00:48throughout of the summer through revelations and leaks
é exatamente o que temos ouvido,

[13] 00:53about Western intelligence agencies,
durante o verão, através de revelações e de fugas de informação

[14] 00:56mostly U.S. intelligence agencies,
sobre as agências de informações ocidentais,

[15] 00:59watching over the rest of the world.
principalmente as agências de informações norte-americanas,

[16] 01:02We've heard about these starting with the
que estão a vigiar o mundo inteiro.

[17] 01:05revelations from June 6.
Começámos a ouvir falar disso

[18] 01:09Edward Snowden started leaking information,
com as revelações de 6 de junho.

[19] 01:12top secret classified information,
Edward Snowden começou a divulgar informações,

[20] 01:14from the U.S. intelligence agencies,
informações secretas,

[21] 01:16and we started learning about things like PRISM
das agências de informações norte-americanas,

[22] 01:18and XKeyscore and others.
e começámos a ouvir coisas, como o PRISM,

[23] 01:22And these are examples of the kinds of programs
o Xkeyscore, e outros.

[24] 01:25U.S. intelligence agencies are running right now,
Estes são exemplos dos programas

[25] 01:29against the whole rest of the world.
que estas agências estão a usar neste momento,

[26] 01:32And if you look back about the forecasts
contra o mundo inteiro.

[27] 01:36on surveillance by George Orwell,
Se olharmos para trás, para as previsões

[28] 01:40well it turns out that
sobre vigilância feitas por George Orwell,

[29] 01:42George Orwell was an optimist.
vamos perceber que

[30] 01:45(Laughter)
George Orwell era um otimista.

[31] 01:47We are right now seeing a much larger scale
(Risos)

[32] 01:50of tracking of individual citizens
Neste momento estamos a ver a vigilância de cidadãos

[33] 01:52than he could have ever imagined.
numa escala muito maior

[34] 01:56And this here is the infamous
do que aquela que alguma vez imaginávamos.

[35] 01:59NSA data center in Utah.
Aqui está o abominável

[36] 02:03Due to be opened very soon,
centro de dados da NSA, no Utah.

[37] 02:06it will be both a supercomputing center
Com abertura marcada para breve,

[38] 02:09and a data storage center.
vai ser um centro de supercomputadores

[39] 02:11You could basically imagine it has a large hall
assim como um centro de armazenamento de dados.

[40] 02:14filled with hard drives storing data
Basicamente podemos imaginar que tem uma grande sala

[41] 02:16they are collecting.
repleta de discos de armazenamento de dados

[42] 02:19And it's a pretty big building.
que estão a recolher.

[43] 02:21How big? Well, I can give you the numbers --
É um edifício bem grande.

[44] 02:23140,000 square meters --
De que tamanho?

[45] 02:25but that doesn't really tell you very much.
Posso dar-vos os números:

[46] 02:27Maybe it's better to imagine it as a comparison.
uns 140 000 metros quadrados

[47] 02:31You think about the largest IKEA store
mas isso não vos diz muito.

[48] 02:33you've ever been in.
Talvez seja melhor imaginar através de uma comparação.

[49] 02:35This is five times larger.
Pensem na maior loja do IKEA em que já estiveram.

[50] 02:38How many hard drives can you fit in an IKEA store?
Isto é cinco vezes maior.

[51] 02:41Right? It's pretty big.
Quantos discos rígidos cabem numa loja do IKEA?

[52] 02:43We estimate that just the electricity bill
Certo? É muito grande.

[53] 02:46for running this data center
Estimamos que só a conta de eletricidade

[54] 02:48is going to be in the tens of millions of dollars a year.
para pôr este centro a funcionar

[55] 02:51And this kind of wholesale surveillance
vai ser de dezenas de milhões de dólares por ano.

[56] 02:54means that they can collect our data
Este tipo de vigilância indiscriminada

[57] 02:57and keep it basically forever,
significa que eles podem recolher os nossos dados

[58] 02:59keep it for extended periods of time,
e mantê-los para sempre,

[59] 03:01keep it for years, keep it for decades.
mantê-los por extensos períodos de tempo,

[60] 03:04And this opens up completely new kinds of risks
mantê-los durante anos, décadas.

[61] 03:08to us all.
Com isto vêm novos riscos

[62] 03:10And what this is is that it is wholesale
para todos nós.

[63] 03:13blanket surveillance on everyone.
Isto é nada menos do que uma indiscriminada vigilância

[64] 03:18Well, not exactly everyone,
a todas as pessoas.

[65] 03:20because the U.S. intelligence only has a legal right
Bem, nem a toda a gente,

[66] 03:24to monitor foreigners.
porque as agências de informações só têm o direito legal

[67] 03:26They can monitor foreigners
de vigiar estrangeiros.

[68] 03:28when foreigners' data connections
Podem monitorizar estrangeiros

[69] 03:30end up in the United States or pass through the United States.
quando as ligações dos dados dos estrangeiros

[70] 03:34And monitoring foreigners doesn't sound too bad
acabam nos EUA ou passam pelos EUA.

[71] 03:37until you realize
Vigiar estrangeiros não parece muito mau

[72] 03:39that I'm a foreigner and you're a foreigner.
até que nos apercebemos

[73] 03:42In fact, 96 percent of the planet are foreigners.
de que eu sou um estrangeiro e vocês também são estrangeiros.

[74] 03:46(Laughter)
De facto, 96% do planeta são estrangeiros.

[75] 03:47Right?
(Risos)

[76] 03:49So it is wholesale blanket surveillance of all of us,
Não é?

[77] 03:54all of us who use telecommunications and the Internet.
É uma vigilância indiscriminada de todos nós,

[78] 03:58But don't get me wrong:
todos nós que usamos as telecomunicações e a Internet.

[79] 04:00There are actually types of surveillance that are okay.
Mas não me interpretem mal.

[80] 04:05I love freedom, but even I agree
Há tipos de vigilância que não fazem mal.

[81] 04:08that some surveillance is fine.
Eu adoro a liberdade, mas até concordo

[82] 04:10If the law enforcement is trying to find a murderer,
que é admissível uma certa vigilância.

[83] 04:14or they're trying to catch a drug lord
Se as autoridades estão a tentar encontrar um assassino,

[84] 04:17or trying to prevent a school shooting,
ou estão a tentar capturar um barão da droga

[85] 04:21and they have leads and they have suspects,
ou a tentar evitar um tiroteio numa escola,

[86] 04:23then it's perfectly fine for them to tap the suspect's phone,
e têm pistas e suspeitos,

[87] 04:26and to intercept his Internet communications.
então é normal porem uma escuta no telefone do suspeito

[88] 04:30I'm not arguing that at all,
e intercetar as comunicações dele na Internet.

[89] 04:32but that's not what programs like PRISM are about.
Eu não estou a discutir isso de todo,

[90] 04:34They are not about doing surveillance on people
mas o programa PRISM não é isso.

[91] 04:37that they have reason to suspect of some wrongdoings.
Não estão a espiar pessoas

[92] 04:41They're about doing surveillance on people
que são suspeitas de terem feito algo de mal.

[93] 04:42they know are innocent.
Estão a espiar as pessoas

[94] 04:46So the four main arguments
que sabem que estão inocentes.

[95] 04:48supporting surveillance like this,
Há quatro argumentos principais

[96] 04:50well, the first of all is that whenever you start
que apoiam este tipo de vigilância.

[97] 04:53discussing about these revelations,
O primeiro de todos é que,

[98] 04:54there will be naysayers trying to minimize
quando se começa a falar destas revelações,

[99] 04:57the importance of these revelations, saying that
vão aparecer opositores a tentar minimizar

[100] 04:59we knew all this already,
a importância destas revelações,

[101] 05:01we knew it was happening, there's nothing new here.
afirmando que já todos sabíamos disto,

[102] 05:04And that's not true. Don't let anybody tell you
já sabíamos que estava a acontecer, não há nada de novo aqui.

[103] 05:07that we knew this already, because we did not know this already.
Mas isso não é verdade.

[104] 05:13Our worst fears might have been something like this,
Não deixem que vos digam que sabíamos disto,

[105] 05:17but we didn't know this was happening.
porque não sabíamos.

[106] 05:19Now we know for a fact it's happening.
Podíamos ter receio de qualquer coisa como essa,

[107] 05:22We didn't know about this. We didn't know about PRISM.
mas não sabíamos que isso estava a acontecer.

[108] 05:24We didn't know about XKeyscore. We didn't know about Cybertrans.
Agora sabemos que é um facto que está a acontecer.

[109] 05:27We didn't know about DoubleArrow.
Não sabíamos disto. Não sabíamos nada sobre o PRISM.

[110] 05:29We did not know about Skywriter --
Não sabíamos nada sobre o XKeyscore nem sobre o Cybertrans.

[111] 05:31all these different programs
Não sabíamos nada sobre o DoubleArrow.

[112] 05:33run by U.S. intelligence agencies.
Não sabíamos sobre o Skywriter

[113] 05:36But now we do.
- todos estes programas

[114] 05:39And we did not know
geridos por agências dos EUA.

[115] 05:41that U.S. intelligence agencies go to extremes
Mas agora sabemos.

[116] 05:44such as infiltrating standardization bodies
Não sabíamos

[117] 05:48to sabotage encryption algorithms on purpose.
que estas agências de informações dos EUA

[118] 05:53And what that means
chegam ao extremo de se infiltrarem em organismos de normalização

[119] 05:55is that you take something which is secure,
para sabotar a encriptação de algoritmos, de propósito.

[120] 05:57an encryption algorithm which is so secure
Isso significa

[121] 05:59that if you use that algorithm to encrypt one file,
que usamos uma coisa que é segura,

[122] 06:02nobody can decrypt that file.
um algoritmo de encriptação que é tão seguro

[123] 06:04Even if they take every single computer on the planet just to decrypt that one file,
que, se usarmos esse algoritmo para encriptar um ficheiro,

[124] 06:08it's going to take millions of years.
ninguém consegue desencriptar esse ficheiro.

[125] 06:11So that's basically perfectly safe, uncrackable.
Mesmo que usássemos todos os computadores do planeta para o fazer,

[126] 06:13You take something which is that good
demoraria milhões de anos.

[127] 06:15and then you weaken it on purpose,
Por isso é perfeitamente seguro, impenetrável.

[128] 06:17making all of us less secure as an end result.
Agarra-se numa coisa que é assim tão boa

[129] 06:23A real-world equivalent would be that
e enfraquecem-na de propósito.

[130] 06:25intelligence agencies would force
Fazem-nos sentir menos seguros como resultado final.

[131] 06:28some secret pin code into every single house alarm
Uma forma de ver isto seria

[132] 06:31so they could get into every single house
as agências de informações

[133] 06:32because, you know, bad people might have house alarms,
colocarem um código PIN secreto em todos os alarmes das residências

[134] 06:35but it will also make all of us
de forma a poderem entrar em cada casa

[135] 06:37less secure as an end result.
só porque há pessoas más que podem ter alarmes em casa.

[136] 06:39Backdooring encryption algorithms
Mas isso vai fazer com que nós

[137] 06:43just boggles the mind.
nos sintamos inseguros como resultado final.

[138] 06:46But of course, these intelligence agencies are doing their job.
Criar estas falhas nos algoritmos de encriptação

[139] 06:50This is what they have been told to do:
é incompreensível.

[140] 06:52do signals intelligence,
Mas claro, estas agências estão a fazer o seu trabalho.

[141] 06:54monitor telecommunications,
Foram estas as ordens que receberam:

[142] 06:56monitor Internet traffic.
sinalizar as informações,

[143] 06:57That's what they're trying to do,
monitorizar as telecomunicações,

[144] 06:59and since most, a very big part of the Internet traffic today is encrypted,
controlar o tráfego da Internet.

[145] 07:02they're trying to find ways around the encryption.
É isso que estão a tentar fazer,

[146] 07:04One way is to sabotage encryption algorithms,
e como agora grande parte do tráfego na Internet é encriptado,

[147] 07:07which is a great example
tentam arranjar formas de contornar esta encriptação.

[148] 07:09about how U.S. intelligence agencies
Uma forma é sabotar os algoritmos de encriptação,

[149] 07:11are running loose.
que é um exemplo perfeito

[150] 07:13They are completely out of control,
de como as agências de informações dos EUA

[151] 07:15and they should be brought back under control.
estão "à solta".

[152] 07:21So what do we actually know about the leaks?
Estão completamente fora de controlo

[153] 07:24Everything is based on the files
e deveriam ser controladas novamente.

[154] 07:26leaked by Mr. Snowden.
O que é que nós sabemos sobre estas fugas?

[155] 07:29The very first PRISM slides
Baseia-se tudo nos ficheiros

[156] 07:32from the beginning of June
revelados por Snowden.

[157] 07:34detail a collection program where the data
Os primeiros diapositivos do PRISM,

[158] 07:36is collected from service providers,
desde inícios de junho,

[159] 07:37and they actually go and name the service providers
detalham um programa de colheita

[160] 07:40they have access to.
em que os dados são colhidos pelos fornecedores de serviços

[161] 07:42They even have a specific date
e eles até nomeiam os fornecedores a que têm acesso.

[162] 07:45on when the collection of data began
Até têm uma data específica

[163] 07:47for each of the service providers.
de quando começou este armazenamento de dados

[164] 07:49So for example, they name the collection from Microsoft
de cada fornecedor.

[165] 07:51started on September 11, 2007,
Por exemplo, datam o armazenamento da Microsoft

[166] 07:55for Yahoo on the March 12, 2008,
a 11 de setembro de 2007,

[167] 07:58and then others: Google, Facebook,
da Yahoo a 12 de março de 2008,

[168] 08:01Skype, Apple and so on.
e de outros: Google, Facebook,

[169] 08:04And every single one of these companies denies.
Skype, Apple, entre outros.

[170] 08:07They all say that this simply isn't true,
Todas estas empresas negam estas afirmações.

[171] 08:11that they are not giving backdoor access to their data.
Todas dizem que simplesmente não é verdade,

[172] 08:16Yet we have these files.
que não deram qualquer tipo de acesso aos seus dados.

[173] 08:20So is one of the parties lying,
Contudo nós temos esses ficheiros.

[174] 08:22or is there some other alternative explanation?
Então, uma das partes estará a mentir,

[175] 08:25And one explanation would be
ou existe outra explicação?

[176] 08:28that these parties, these service providers,
Uma outra explicação seria

[177] 08:31are not cooperating.
que estas partes, estes fornecedores de serviços,

[178] 08:33Instead, they've been hacked.
não estão a cooperar.

[179] 08:36That would explain it. They aren't cooperating. They've been hacked.
Em vez disso, estão a ser pirateados.

[180] 08:39In this case, they've been hacked by their own government.
Isso explicaria tudo. Não estão a cooperar. Foram pirateados.

[181] 08:44That might sound outlandish,
Nesse caso, eles foram pirateados pelo seu governo.

[182] 08:46but we already have cases where this has happened,
Isto pode parecer estranho e radical,

[183] 08:48for example, the case of the Flame malware
mas já temos casos em que isto aconteceu,

[184] 08:51which we strongly believe was authored
por exemplo, o caso do "software" malicioso Flame

[185] 08:53by the U.S. government,
cuja autoria acreditamos que seja do governo americano

[186] 08:55and which, to spread, subverted the security
e que, para se espalhar, teve de sabotara segurança

[187] 08:59of the Windows Update network,
da rede de atualizações do Windows.

[188] 09:02meaning here, the company was hacked
Isto significa que a companhia foi pirateada

[189] 09:06by their own government.
pelo seu próprio governo.

[190] 09:08And there's more evidence
Existem mais provas que apoiam esta teoria.

[191] 09:10supporting this theory as well.
O jornal alemão Der Spiegel, divulgou mais informações

[192] 09:13Der Spiegel, from Germany, leaked more information
sobre as operações levadas a efeito por unidades de "hackers" de elite

[193] 09:17about the operations run by the elite hacker units
a funcionar dentro destas agências de informações.

[194] 09:21operating inside these intelligence agencies.
Na NSA, esta unidade chama-se TAO,

[195] 09:24Inside NSA, the unit is called TAO,
Tailored Access Operations. (Operações de Acesso Adaptado)

[196] 09:27Tailored Access Operations,
Dentro do GCHQ, que é o equivalente à NSA, no Reino Unido,

[197] 09:28and inside GCHQ, which is the U.K. equivalent,
chama-se NAR, Network Analysis Centre (Centro de Análise de Rede).

[198] 09:32it's called NAC, Network Analysis Centre.
As fugas recentes destes três diapositivos

[199] 09:36And these recent leaks of these three slides
detalham uma operação

[200] 09:40detail an operation
gerida pela agência GCHQ

[201] 09:42run by this GCHQ intelligence agency
do Reino Unido,

[202] 09:45from the United Kingdom
cujo alvo é uma empresa de telecomunicações, aqui na Bélgica.

[203] 09:47targeting a telecom here in Belgium.
Isto significa que

[204] 09:51And what this really means
uma agência de informações dum país da União Europeia

[205] 09:53is that an E.U. country's intelligence agency
está, propositadamente, a quebrar a segurança

[206] 09:57is breaching the security
duma empresa de telecomunicações de outro país da UE.

[207] 10:00of a telecom of a fellow E.U. country on purpose,
E discutem isso nos seus diapositivos, de forma casual,

[208] 10:04and they discuss it in their slides completely casually,
como negócios normais.

[209] 10:08business as usual.
Este é o primeiro alvo, este é o segundo alvo.

[210] 10:10Here's the primary target,
Esta é a divisão das equipas.

[211] 10:11here's the secondary target,
Muito provavelmente até têm reuniões de equipa às terças à tarde, num bar.

[212] 10:13here's the teaming.
Até usam diagramas fatelas em PowerPoint

[213] 10:14They probably have a team building on Thursday evening in a pub.
do género, "Sucesso",

[214] 10:18They even use cheesy PowerPoint clip art
quando conseguem acesso a serviços como este.

[215] 10:21like, you know, "Success,"
Mas que raio?

[216] 10:23when they gain access to services like this.
Depois ainda há o argumento:

[217] 10:26What the hell?
"Está bem, sim, eles podem fazer isso,

[218] 10:31And then there's the argument
"mas os outros países também o fazem.

[219] 10:33that okay, yes, this might be going on,
"Todos os países espiam."

[220] 10:35but then again, other countries are doing it as well.
Talvez seja verdade.

[221] 10:37All countries spy.
Muitos países espiam, não todos, mas vamos a um exemplo.

[222] 10:40And maybe that's true.
Falemos da Suécia, por exemplo.

[223] 10:41Many countries spy, not all of them, but let's take an example.
Estou a falar da Suécia, porque têm leis parecidas com os EUA.

[224] 10:44Let's take, for example, Sweden.
Quando o tráfego de dados passa pela Suécia,

[225] 10:46I'm speaking of Sweden because Sweden
a agência de informações deles tem o direito legal

[226] 10:47has a little bit of a similar law to the United States.
de intercetar esse tráfego.

[227] 10:50When your data traffic goes through Sweden,
Ok, quantos suecos influentes,

[228] 10:52their intelligence agency has a legal right by the law
políticos e empresários

[229] 10:55to intercept that traffic.
usam, todos os dias, serviços localizados nos EUA,

[230] 10:57All right, how many Swedish decisionmakers
para pôr a correr o sistema Windows ou o OSX,

[231] 11:00and politicians and business leaders
ou usam o Facebook ou o LinkedIn,

[232] 11:03use, every day, U.S.-based services,
ou armazenam os seus dados em nuvens, como a iCloud

[233] 11:06like, you know, run Windows or OSX,
ou o Skydrive ou a Dropbox,

[234] 11:09or use Facebook or LinkedIn,
ou talvez usem serviços "online" como os serviços da Amazon

[235] 11:11or store their data in clouds like iCloud
ou outros serviços de vendas?

[236] 11:15or Skydrive or DropBox,
A resposta é, todos os empresários suecos fazem isso, todos os dias.

[237] 11:19or maybe use online services like Amazon web services or sales support?
Agora vamos inverter a situação.

[238] 11:23And the answer is, every single Swedish business leader does that every single day.
Quantos líderes americanos

[239] 11:27And then we turn it around.
usam serviços de "e-mail" e nuvens suecos?

[240] 11:28How many American leaders
A resposta é: zero.

[241] 11:30use Swedish webmails and cloud services?
Então isto não é equilibrado.

[242] 11:35And the answer is zero.
Não está minimamente equilibrado.

[243] 11:37So this is not balanced.
Quando temos uma história ocasional de sucesso europeu,

[244] 11:39It's not balanced by any means, not even close.
até essas, depois, acabam por ser vendidas aos EUA.

[245] 11:44And when we do have the occasional
O Skype costumava ser seguro.

[246] 11:46European success story,
Costumava usar uma encriptação de ponta a ponta.

[247] 11:48even those, then, typically end up being sold to the United States.
Depois foi vendido aos EUA.

[248] 11:52Like, Skype used to be secure.
Hoje, já não é seguro.

[249] 11:54It used to be end-to-end encrypted.
Assim, agarramos numa coisa que era segura

[250] 11:57Then it was sold to the United States.
e depois tornamo-la menos segura, de propósito,

[251] 11:59Today, it no longer is secure.
e ficamos todos menos seguros.

[252] 12:01So once again, we take something which is secure
Depois há o argumento de que os EUA:

[253] 12:04and then we make it less secure on purpose,
"só estão a combater os terroristas.

[254] 12:06making all of us less secure as an outcome.
"É a guerra contra o terrorismo. Não se preocupem com isso."

[255] 12:12And then the argument that the United States
Não é uma guerra contra o terrorismo.

[256] 12:15is only fighting terrorists.
Sim, parte é a guerra contra o terrorismo,

[257] 12:17It's the war on terror.
e sim, há terroristas, e eles matam e mutilam,

[258] 12:18You shouldn't worry about it.
e temos que combatê-los.

[259] 12:20Well, it's not the war on terror.
Mas nós sabemos, através destas fugas,

[260] 12:23Yes, part of it is war on terror, and yes,
que eles usam as mesmas técnicas

[261] 12:25there are terrorists, and they do kill and maim,
para escutar os telefones de líderes europeus,

[262] 12:28and we should fight them,
para espiar o "e-mail" de residentes no México e no Brasil,

[263] 12:29but we know through these leaks
para lerem "e-mails" dentro da sede das Nações Unidas e do Parlamento Europeu.

[264] 12:31that they have used the same techniques
Não me parece que eles estejam a tentar encontrar terroristas

[265] 12:33to listen to phone calls of European leaders,
dentro do Parlamento Europeu, não acham?

[266] 12:37to tap the email of residents of Mexico and Brazil,
Não é a guerra contra o terrorismo.

[267] 12:40to read email traffic inside the United Nations Headquarters and E.U. Parliament,
Uma parte talvez seja, e há terroristas,

[268] 12:45and I don't think they are trying to find terrorists
mas estamos mesmo a pensar nos terroristas

[269] 12:48from inside the E.U. Parliament, right?
como uma ameaça existencial tão grande

[270] 12:51It's not the war on terror.
que estamos dispostos a tudo para os combater?

[271] 12:53Part of it might be, and there are terrorists,
Estarão os americanos dispostos a deitar fora a Constituição,

[272] 12:57but are we really thinking about terrorists
a deitá-la ao lixo só porque existem terroristas?

[273] 13:00as such an existential threat
O mesmo se aplica à Carta de Direitos e a todas as suas Emendas,

[274] 13:02that we are willing to do anything at all to fight them?
à Declaração Universal dos Direitos do Homem

[275] 13:06Are the Americans ready to throw away the Constituion
às Convenções Europeias dos Direitos do Homem

[276] 13:09and throw it in the trash just because there are terrorists?
e da Liberdade Fundamental

[277] 13:13And the same thing with the Bill of Rights and all the amendments
e à liberdade de imprensa.

[278] 13:16and the Universal Declaration of Human Rights
Pensamos realmente que os terroristas são uma ameaça tão grande

[279] 13:18and the E.U. conventions on human rights and fundamental freedoms
que estamos dispostos a fazer tudo e mais alguma coisa?

[280] 13:23and the press freedom?
As pessoas estão assustadas com os terroristas

[281] 13:25Do we really think terrorism is such an existential threat,
e pensam que essa vigilância talvez esteja certa

[282] 13:29we are ready to do anything at all?
porque não têm nada a esconder.

[283] 13:34But people are scared about terrorists,
"Estejam à vontade para me vigiar, se isso ajudar."

[284] 13:37and then they think that maybe that surveillance is okay
Quem quer que diga que não tem nada a esconder

[285] 13:39because they have nothing to hide.
é porque não pensou bem nisso.

[286] 13:41Feel free to survey me if that helps.
(Aplausos)

[287] 13:44And whoever tells you that they have nothing to hide
Todos nós temos uma coisa chamada privacidade.

[288] 13:47simply hasn't thought about this long enough.
Se realmente pensam que não têm nada a esconder,

[289] 13:54(Applause)
por favor, avisem-me imediatamente,

[290] 14:00Because we have this thing called privacy,
porque assim eu sei

[291] 14:03and if you really think that you have nothing to hide,
que não vos devo dizer nenhum segredo,

[292] 14:05please make sure that's the first thing you tell me,
porque obviamente não conseguem guardar um segredo.

[293] 14:07because then I know
(Risos)

[294] 14:09that I should not trust you with any secrets,
Mas as pessoas são brutalmente honestas com a Internet.

[295] 14:10because obviously you can't keep a secret.
Quando estas fugas começaram,

[296] 14:17But people are brutally honest with the Internet,
muita gente questionou-me sobre isso.

[297] 14:20and when these leaks started,
Eu não tenho nada a esconder.

[298] 14:23many people were asking me about this.
Eu não estou a fazer nada de mal nem ilegal.

[299] 14:25And I have nothing to hide.
Contudo, eu não tenho nada que gostasse de partilhar

[300] 14:27I'm not doing anything bad or anything illegal.
com uma agência de informações,

[301] 14:30Yet, I have nothing that I would in particular
especialmente uma agência de informações estrangeira.

[302] 14:33like to share with an intelligence agency,
Se, de facto, precisarmos de um Big Brother,

[303] 14:35especially a foreign intelligence agency.
preferia mil vezes que fosse um Big Brother nacional

[304] 14:40And if we indeed need a Big Brother,
e não um Big Brother estrangeiro.

[305] 14:42I would much rather have a domestic Big Brother
Quando surgiram as revelações, o primeiro "tweet" que fiz sobre isso

[306] 14:46than a foreign Big Brother.
foi um comentário sobre

[307] 14:49And when the leaks started, the very first thing I tweeted about this
- quando estamos a usar motores de busca -

[308] 14:54was a comment about how,
como estamos possivelmente a divulgar essa informação a uma agência dos EUA.

[309] 14:56when you've been using search engines,
Dois minutos depois, tive uma resposta

[310] 14:58you've been potentially leaking all that to U.S. intelligence.
de alguém chamado Kimberly, dos EUA,

[311] 15:02And two minutes later, I got a reply
a perguntar porque é eu estava preocupado com isso?

[312] 15:03by somebody called Kimberly from the United States
O que é que eu estava a enviar?

[313] 15:06challenging me, like, why am I worried about this?
Estava a enviar fotos de nus ou coisa assim?

[314] 15:08What am I sending to worry about this? Am I sending naked pictures or something?
A minha resposta para Kimberly

[315] 15:12And my answer to Kimberly was
foi que ninguém tem nada a ver com o que eu envio

[316] 15:14that what I'm sending is none of your business,
e também não devia ser do interesse do governo .

[317] 15:17and it should be none of your government's business either.
Porque é disso que se trata. Trata-se de privacidade.

[318] 15:21Because that's what it's about. It's about privacy.
A privacidade não é negociável.

[319] 15:24Privacy is nonnegotiable.
Devia estar presente em todos os sistemas que usamos.

[320] 15:25It should be built in to all the systems we use.
(Aplausos)

[321] 15:31(Applause)
Uma coisa que todos devíamos entender

[322] 15:38And one thing we should all understand
é que somos brutalmente honestos com os nossos motores de busca.

[323] 15:41is that we are brutally honest with search engines.
Mostrem-me o vosso histórico de procuras

[324] 15:46You show me your search history,
e eu vou descobrir algo incriminatório

[325] 15:48and I'll find something incriminating
ou embaraçoso em cinco minutos.

[326] 15:51or something embarrassing there in five minutes.
Somos mais honestos com os nossos motores de busca

[327] 15:54We are more honest with search engines
do que com a nossa família.

[328] 15:56than we are with our families.
Os motores de busca sabem mais sobre nós

[329] 15:58Search engines know more about you
do que os membros da nossa família.

[330] 16:00than your family members know about you.
Isto é todo o tipo de informações que estamos a dar,

[331] 16:03And this is all the kind of information we are giving away,
a dar aos Estados Unidos da América.

[332] 16:06we are giving away to the United States.
A vigilância muda o rumo da História.

[333] 16:10And surveillance changes history.
Sabemos disso através de exemplos de presidentes corruptos como Nixon.

[334] 16:12We know this through examples of corrupt presidents like Nixon.
Imaginem se ele tivesse as ferramentas de vigilância que estão hoje disponíveis.

[335] 16:16Imagine if he would have had the kind of surveillance tools that are available today.
Vou citar a presidente do Brasil, Dilma Rousseff.

[336] 16:20And let me actually quote
Ela foi um dos alvos da vigilância da NSA.

[337] 16:22the president of Brazil, Ms. Dilma Rousseff.
Os "e-mails" dela foram lidos. E ela discursou nas Nações Unidas e disse:

[338] 16:26She was one of the targets of NSA surveillance.
"Se não existir direito à privacidade,

[339] 16:29Her email was read, and she spoke
"não pode existir verdadeira liberdade de expressão e opinião,

[340] 16:31at the United Nations Headquarters, and she said,
por isso, não pode existir uma democracia efetiva."

[341] 16:34"If there is no right to privacy,
É disso que se trata.

[342] 16:36there can be no true freedom of expression and opinion,
A privacidade é o pilar base das nossas democracias.

[343] 16:39and therefore, there can be no effective democracy."
Para citar um colega de pesquisa de segurança, Marcus Ranum,

[344] 16:44That's what it's about.
ele disse que os EUA estão a tratar a Internet

[345] 16:46Privacy is the building block of our democracies.
como se tivessem a tratar de uma das suas colónias.

[346] 16:52And to quote a fellow security researcher, Marcus Ranum,
Portanto, voltámos à era da colonização.

[347] 16:56he said that the United States is right now treating the Internet
Nós, os utilizadores estrangeiros da Internet,

[348] 16:59as it would be treating one of its colonies.
devíamos imaginar os americanos como os nossos amos.

[349] 17:02So we are back to the age of colonization,
Snowden está a ser acusado de muitas coisas.

[350] 17:05and we, the foreign users of the Internet,
Alguns acusam-no por ter causado problemas

[351] 17:08we should think about Americans as our masters.
à indústria da nuvem e às empresas de "software" americanas

[352] 17:15So Mr. Snowden, he's been blamed for many things.
- e culpar Snowden por causar problemas a estas indústrias

[353] 17:18Some are blaming him for causing problems
seria o mesmo que culpar Al Gore

[354] 17:21for the U.S. cloud industry and software companies with these revelations --
por causar o aquecimento global.

[355] 17:24and blaming Snowden for causing problems for the U.S. cloud industry
(Risos)

[356] 17:29would be the equivalent of blaming Al Gore
(Aplausos)

[357] 17:31for causing global warming.
Então, o que devemos fazer?

[358] 17:33(Laughter)
Será que nos devíamos preocupar? Não, não devíamos.

[359] 17:36(Applause)
Devemos ficar zangados, porque isto é errado,

[360] 17:43So, what is there to be done?
é grosseiro e não devia ser feito.

[361] 17:50Should we worry. No, we shouldn't worry.
Mas isso não vai mudar nada.

[362] 17:51We should be angry, because this is wrong,
O que vai mudar a situação para o mundo inteiro

[363] 17:54and it's rude, and it should not be done.
é tentar afastarmo-nos

[364] 17:57But that's not going to really change the situation.
dos sistemas desenvolvidos nos EUA.

[365] 17:59What's going to change the situation for the rest of the world
Mas é mais fácil de dizer do que de fazer.

[366] 18:02is to try to steer away
Como fazemos isso?

[367] 18:04from systems built in the United States.
Um país, qualquer país na Europa, sozinho,

[368] 18:07And that's much easier said than done.
não consegue substituir e desenvolver substitutos

[369] 18:10How do you do that?
para os sistemas operativos e os serviços da nuvem dos EUA.

[370] 18:11A single country, any single country in Europe
Mas não têm de o fazer sozinhos.

[371] 18:13cannot replace and build replacements
Talvez possam fazê-lo juntamente com outros países.

[372] 18:16for the U.S.-made operating systems and cloud services.
A solução é a "open-source".

[373] 18:19But maybe you don't have to do it alone.
Ao desenvolver sistemas abertos, gratuitos e seguros,

[374] 18:21Maybe you can do it together with other countries.
conseguimos contornar a vigilância.

[375] 18:22The solution is open source.
Assim, um país não tem de resolver o problema sozinho.

[376] 18:26By building together open, free, secure systems,
Apenas tem de resolver um pequeno problema.

[377] 18:31we can go around such surveillance,
Para citar um colega de pesquisa de segurança, Haroon Meer,

[378] 18:34and then one country doesn't have to solve the problem by itself.
um país apenas tem de fazer uma pequena onda

[379] 18:38It only has to solve one little problem.
mas todas essas pequenas ondas juntas formam uma maré,

[380] 18:40And to quote a fellow security researcher, Haroon Meer,
e a maré irá levantar todos os barcos ao mesmo tempo.

[381] 18:46one country only has to make a small wave,
A maré que construímos

[382] 18:49but those small waves together become a tide,
com sistemas seguros, gratuitos e "open-source",

[383] 18:52and the tide will lift all the boats up at the same time,
irá transformar-se na maré que nos vai libertar a todos

[384] 18:56and the tide we will build
da vigilância estatal.

[385] 18:57with secure, free, open-source systems,
Muito obrigado.

[386] 19:01will become the tide that will lift all of us
(Aplausos)

[387] 19:03up and above the surveillance state.
--387--

[388] 19:09Thank you very much.
--388--

[389] 19:11(Applause)
--389--