fix bar
fix bar
fix bar
fix bar
fix bar
fix bar

Why privacy matters

Alessandro Acquisti

0.5x
0.75x
1x
1.25x
1.5x
2x
 


. . .



 


. . .



 

00:00...
...

[1] 00:12I would like to tell you a story
Eu gostaria de contar-lhes uma história

[2] 00:14connecting the notorious privacy incident
que conecta o famoso incidente de privacidade

[3] 00:18involving Adam and Eve,
envolvendo Adão e Eva,

[4] 00:20and the remarkable shift in the boundaries
e a notável mudança no limite

[5] 00:24between public and private which has occurred
entre o público e o privado que vem acontecendo

[6] 00:27in the past 10 years.
nos últimos 10 anos.

[7] 00:28You know the incident.
Vocês conhecem o incidente.

[8] 00:30Adam and Eve one day in the Garden of Eden
Adão e Eva, um dia, no Jardim do Éden,

[9] 00:33realize they are naked.
se dão conta de que estão nus.

[10] 00:35They freak out.
Eles se apavoram.

[11] 00:36And the rest is history.
E o resto vocês já conhecem.

[12] 00:39Nowadays, Adam and Eve
Hoje em dia, Adão e Eva

[13] 00:41would probably act differently.
provavelmente reagiriam diferente.

[14] 00:44[@Adam Last nite was a blast! loved dat apple LOL]
[@Adão Ontem à noite foi show! Curti akela maçã LOL]

[15] 00:46[@Eve yep.. babe, know what happened to my pants tho?]
[@Eva pois é... gata, cê viu minha calça por aí?]

[16] 00:48We do reveal so much more information
Nós publicamos muito mais informações

[17] 00:50about ourselves online than ever before,
sobre nós mesmos on-line do que jamais antes,

[18] 00:54and so much information about us
e tanta informação sobre nós

[19] 00:55is being collected by organizations now.
está sendo coletada por organizações agora.

[20] 00:58There is much to gain and benefit
Há muito a se ganhar e a se beneficiar

[21] 01:01from this massive analysis of personal information,
dessa análise massiva de informações pessoais,

[22] 01:03or big data,
ou big data,

[23] 01:05but there are also complex tradeoffs that come
mas há também desvantagens complexas

[24] 01:08from giving away our privacy.
ao abrir mão da privacidade.

[25] 01:11And my story is about these tradeoffs.
E minha história é sobre essas desvantagens.

[26] 01:15We start with an observation which, in my mind,
Começamos com uma observação que, na minha mente,

[27] 01:18has become clearer and clearer in the past few years,
se tornou cada vez mais clara nos últimos anos,

[28] 01:21that any personal information
de que qualquer informação pessoal

[29] 01:23can become sensitive information.
pode se tornar delicada.

[30] 01:25Back in the year 2000, about 100 billion photos
No ano de 2000, cerca de 100 bilhões de fotos

[31] 01:30were shot worldwide,
foram tiradas em todo o mundo,

[32] 01:31but only a minuscule proportion of them
mas somente uma porção minúscula delas

[33] 01:34were actually uploaded online.
acabou sendo carregada na Internet.

[34] 01:36In 2010, only on Facebook, in a single month,
Em 2010, somente no Facebook, em um único mês,

[35] 01:402.5 billion photos were uploaded,
2,5 bilhões de fotos foram carregadas,

[36] 01:43most of them identified.
a maioria identificada.

[37] 01:45In the same span of time,
No mesmo período de tempo,

[38] 01:47computers' ability to recognize people in photos
a capacidade dos computadores de reconhecerem pessoas em fotos

[39] 01:52improved by three orders of magnitude.
melhorou em três ordens de grandeza.

[40] 01:55What happens when you combine
O que acontece quando colocamos

[41] 01:57these technologies together:
essas tecnologias juntas:

[42] 01:59increasing availability of facial data;
crescente disponibilidade de informações faciais;

[43] 02:01improving facial recognizing ability by computers;
crescente capacidade de reconhecimento facial por computadores;

[44] 02:05but also cloud computing,
mas também computação em nuvem,

[45] 02:07which gives anyone in this theater
que oferece a qualquer um neste salão

[46] 02:09the kind of computational power
o tipo de poder computacional

[47] 02:11which a few years ago was only the domain
que há alguns anos era somente o domínio

[48] 02:12of three-letter agencies;
de agências de três letras;

[49] 02:14and ubiquitous computing,
e computação ubíqua,

[50] 02:16which allows my phone, which is not a supercomputer,
que permite que meu celular, que não é um supercomputador,

[51] 02:18to connect to the Internet
conecte-se à Internet

[52] 02:20and do there hundreds of thousands
e faça lá centenas de milhares

[53] 02:23of face metrics in a few seconds?
de correspondências faciais em alguns segundos?

[54] 02:25Well, we conjecture that the result
Bem, nós conjecturamos que o resultado

[55] 02:28of this combination of technologies
dessa combinação de tecnologias

[56] 02:30will be a radical change in our very notions
será uma mudança radical em nossas noções

[57] 02:33of privacy and anonymity.
de privacidade e anonimato.

[58] 02:35To test that, we did an experiment
Para testar isso, fizemos um experimento

[59] 02:37on Carnegie Mellon University campus.
no campus da universidade de Carnegie Mellon.

[60] 02:39We asked students who were walking by
Nós pedimos a estudantes que estavam passando

[61] 02:41to participate in a study,
para participarem em um estudo,

[62] 02:43and we took a shot with a webcam,
e tiramos uma foto com uma webcam,

[63] 02:46and we asked them to fill out a survey on a laptop.
e pedimos que eles preenchessem uma pesquisa em um laptop.

[64] 02:48While they were filling out the survey,
Enquanto estavam preenchendo a pesquisa,

[65] 02:50we uploaded their shot to a cloud-computing cluster,
nós enviamos a foto para um cluster de computação em nuvem,

[66] 02:53and we started using a facial recognizer
e começamos a usar um reconhecedor facial

[67] 02:55to match that shot to a database
para equiparar aquela foto com um banco de dados

[68] 02:57of some hundreds of thousands of images
de algumas centenas de milhares de fotos

[69] 03:00which we had downloaded from Facebook profiles.
que tínhamos baixado de perfis do Facebook.

[70] 03:03By the time the subject reached the last page
No momento que o participante atingia a última página

[71] 03:06on the survey, the page had been dynamically updated
na pesquisa, a página tinha sido atualizada dinamicamente

[72] 03:10with the 10 best matching photos
com as 10 fotos que melhor se ajustavam

[73] 03:12which the recognizer had found,
e que o reconhecedor tinha encontrado,

[74] 03:14and we asked the subjects to indicate
e pedimos que os participantes indicassem

[75] 03:16whether he or she found themselves in the photo.
se eles estavam ou não na foto.

[76] 03:20Do you see the subject?
Você vê o participante?

[77] 03:24Well, the computer did, and in fact did so
Bem, o computador viu e, de fato, viu

[78] 03:27for one out of three subjects.
para um em cada três participantes.

[79] 03:29So essentially, we can start from an anonymous face,
Então essencialmente, podemos partir de um rosto anônimo,

[80] 03:32offline or online, and we can use facial recognition
off-line ou on-line, e podemos usar reconhecimento facial

[81] 03:36to give a name to that anonymous face
para dar um nome a um rosto anônimo,

[82] 03:38thanks to social media data.
graças a dados de mídia social.

[83] 03:40But a few years back, we did something else.
Mas há alguns anos, nós fizemos algo diferente.

[84] 03:42We started from social media data,
Nós partimos de dados de mídia social,

[85] 03:44we combined it statistically with data
combinamos estatisticamente com dados

[86] 03:47from U.S. government social security,
da seguridade social do governo americano,

[87] 03:49and we ended up predicting social security numbers,
e acabamos prevendo números de seguridade social,

[88] 03:52which in the United States
que nos Estados Unidos

[89] 03:54are extremely sensitive information.
são informações extremamente delicadas.

[90] 03:56Do you see where I'm going with this?
Vocês veem onde estou indo com isso?

[91] 03:58So if you combine the two studies together,
Então, se combinarmos os dois estudos,

[92] 04:01then the question becomes,
a questão se torna:

[93] 04:02can you start from a face and,
dá para partir de um rosto e,

[94] 04:05using facial recognition, find a name
usando reconhecimento facial, encontrar um nome

[95] 04:07and publicly available information
e informação disponível publicamente

[96] 04:10about that name and that person,
sobre esse nome e essa pessoa,

[97] 04:12and from that publicly available information
e dessa informação publicamente disponível

[98] 04:14infer non-publicly available information,
inferir informação indisponível publicamente,

[99] 04:16much more sensitive ones
muito mais delicada,

[100] 04:18which you link back to the face?
que podemos conectar de volta com o rosto?

[101] 04:19And the answer is, yes, we can, and we did.
E a resposta é, sim, dá para fazer, e nós fizemos.

[102] 04:21Of course, the accuracy keeps getting worse.
Claro, a precisão continua caindo.

[103] 04:24[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
[27% dos cinco primeiros dígitos do SSN do indivíduo identificados (em 4 tentativas)]

[104] 04:25But in fact, we even decided to develop an iPhone app
Mas na verdade, nós até decidimos desenvolver um aplicativo para iPhone

[105] 04:29which uses the phone's internal camera
que usa a câmera interna do celular

[106] 04:31to take a shot of a subject
para tirar a foto de um indivíduo

[107] 04:33and then upload it to a cloud
e então envia para a nuvem

[108] 04:34and then do what I just described to you in real time:
e faz em tempo real o que acabei de descrever:

[109] 04:37looking for a match, finding public information,
faz a correspondência, encontra informação pública,

[110] 04:39trying to infer sensitive information,
tenta inferir informação delicada,

[111] 04:41and then sending back to the phone
e então envia de volta ao iPhone

[112] 04:44so that it is overlaid on the face of the subject,
para que seja sobreposta ao rosto do indivíduo,

[113] 04:47an example of augmented reality,
um exemplo de realidade aumentada,

[114] 04:49probably a creepy example of augmented reality.
provavelmente um exemplo assustador de realidade aumentada.

[115] 04:51In fact, we didn't develop the app to make it available,
Na verdade, não desenvolvemos o aplicativo para disponibilizar,

[116] 04:55just as a proof of concept.
somente como prova de conceito.

[117] 04:57In fact, take these technologies
De fato, pegue essas tecnologias

[118] 04:59and push them to their logical extreme.
e coloque-as até seu extremo lógico.

[119] 05:01Imagine a future in which strangers around you
Imagine um futuro onde estranhos à sua volta

[120] 05:04will look at you through their Google Glasses
olharão para você por seus Google Glasses

[121] 05:06or, one day, their contact lenses,
ou, um dia, suas lentes de contato,

[122] 05:08and use seven or eight data points about you
e usar sete ou oito pontos de dados sobre você

[123] 05:12to infer anything else
para inferir qualquer outra coisa

[124] 05:15which may be known about you.
que se possa saber sobre você.

[125] 05:17What will this future without secrets look like?
Como será esse futuro sem segredos?

[126] 05:22And should we care?
E deveríamos nos preocupar?

[127] 05:24We may like to believe
Nós talvez queiramos acreditar

[128] 05:26that the future with so much wealth of data
que o futuro com tanta riqueza de dados

[129] 05:29would be a future with no more biases,
será um futuro sem preconceitos,

[130] 05:32but in fact, having so much information
mas na verdade, ter tanta informação

[131] 05:35doesn't mean that we will make decisions
não quer dizer que tomaremos decisões

[132] 05:37which are more objective.
que sejam mais objetivas.

[133] 05:39In another experiment, we presented to our subjects
Em outro experimento, nós apresentamos aos participantes

[134] 05:42information about a potential job candidate.
informações sobre um potencial candidato de emprego.

[135] 05:44We included in this information some references
Incluímos nessas informações algumas referências

[136] 05:47to some funny, absolutely legal,
a informações engraçadas, totalmente legais,

[137] 05:50but perhaps slightly embarrassing information
mas talvez levemente constrangedoras

[138] 05:52that the subject had posted online.
que o participante tinha postado on-line.

[139] 05:54Now interestingly, among our subjects,
Agora, curiosamente, entre os participantes,

[140] 05:57some had posted comparable information,
alguns tinham postado informações comparáveis,

[141] 06:00and some had not.
e outros não.

[142] 06:02Which group do you think
Que grupo vocês acham

[143] 06:04was more likely to judge harshly our subject?
que estava mais suscetível a julgar severamente nosso participante?

[144] 06:09Paradoxically, it was the group
Paradoxalmente, foi o grupo

[145] 06:10who had posted similar information,
que tinha postado informação similar,

[146] 06:12an example of moral dissonance.
um exemplo de dissonância moral.

[147] 06:15Now you may be thinking,
Você podem estar pensando.

[148] 06:17this does not apply to me,
isso não se aplica a mim,

[149] 06:19because I have nothing to hide.
porque não tenho nada a esconder.

[150] 06:21But in fact, privacy is not about
Mas na verdade, privacidade não se trata

[151] 06:23having something negative to hide.
de ter algo negativo a esconder.

[152] 06:27Imagine that you are the H.R. director
Imagine que você é o diretor de RH

[153] 06:29of a certain organization, and you receive résumés,
de uma certa organização, e você recebe currículos,

[154] 06:32and you decide to find more information about the candidates.
e decide procurar mais informações sobre os candidatos.

[155] 06:35Therefore, you Google their names
Portanto, você pesquisa seus nomes

[156] 06:37and in a certain universe,
e em um certo universo,

[157] 06:39you find this information.
você encontra esta informação.

[158] 06:41Or in a parallel universe, you find this information.
Ou em um universo paralelo, você encontra esta informação.

[159] 06:46Do you think that you would be equally likely
Você acha que estaria igualmente disposto

[160] 06:49to call either candidate for an interview?
a chamar o candidato para uma entrevista?

[161] 06:51If you think so, then you are not
Se você pensa que sim, então você não é

[162] 06:54like the U.S. employers who are, in fact,
como os empregadores americanos que, na verdade,

[163] 06:56part of our experiment, meaning we did exactly that.
são parte de nosso experimento, ou seja, fizemos exatamente isso.

[164] 07:00We created Facebook profiles, manipulating traits,
Criamos perfis no Facebook, manipulando características,

[165] 07:03then we started sending out résumés to companies in the U.S.,
e começamos a enviar currículos para empresas nos EUA,

[166] 07:06and we detected, we monitored,
e detectamos, monitoramos,

[167] 07:07whether they were searching for our candidates,
se estavam procurando pelos nossos candidatos,

[168] 07:10and whether they were acting on the information
e se estavam reagindo às informações

[169] 07:12they found on social media. And they were.
que encontravam na mídia social. E estavam.

[170] 07:14Discrimination was happening through social media
Discriminação estava acontecendo pela mídia social

[171] 07:16for equally skilled candidates.
para candidatos igualmente capazes.

[172] 07:19Now marketers like us to believe
Marqueteiros gostam que acreditemos

[173] 07:23that all information about us will always
que toda informação sobre nós sempre será

[174] 07:26be used in a manner which is in our favor.
usada de uma maneira a nosso favor.

[175] 07:29But think again. Why should that be always the case?
Mas pensem novamente. Por que esse deve ser sempre o caso?

[176] 07:33In a movie which came out a few years ago,
Em um filme que saiu há alguns anos,

[177] 07:35"Minority Report," a famous scene
"Minority Report", uma cena famosa

[178] 07:38had Tom Cruise walk in a mall
tinha Tom Cruise entrando em um shopping

[179] 07:40and holographic personalized advertising
e anúncios holográficos personalizados

[180] 07:44would appear around him.
apareciam a sua volta.

[181] 07:46Now, that movie is set in 2054,
Agora, esse filme acontece em 2054,

[182] 07:49about 40 years from now,
cerca de daqui a 40 anos,

[183] 07:51and as exciting as that technology looks,
e por mais interessante que pareça essa tecnologia,

[184] 07:54it already vastly underestimates
ela já subestima enormemente

[185] 07:56the amount of information that organizations
a quantidade de informação que as organizações

[186] 07:59can gather about you, and how they can use it
podem juntar sobre você, e como podem usá-la

[187] 08:01to influence you in a way that you will not even detect.
para influenciá-lo de uma maneira que você nem perceba.

[188] 08:04So as an example, this is another experiment
E como exemplo, este é um outro experimento

[189] 08:07actually we are running, not yet completed.
que estamos fazendo, ainda não terminamos.

[190] 08:09Imagine that an organization has access
Imagine que uma organização tem acesso

[191] 08:11to your list of Facebook friends,
à sua lista de amigos no Facebook,

[192] 08:13and through some kind of algorithm
e através de algum tipo de algoritmo

[193] 08:15they can detect the two friends that you like the most.
eles conseguem detectar seus dois amigos preferidos.

[194] 08:19And then they create, in real time,
E eles criam, em tempo real,

[195] 08:21a facial composite of these two friends.
uma composição facial desses dois amigos.

[196] 08:24Now studies prior to ours have shown that people
E estudos anteriores ao nosso mostraram que as pessoas

[197] 08:27don't recognize any longer even themselves
não reconhecem mais, mesmo se forem elas mesmas

[198] 08:30in facial composites, but they react
em composições faciais, mas elas reagem

[199] 08:32to those composites in a positive manner.
a essas composições de maneira positiva.

[200] 08:34So next time you are looking for a certain product,
Então, da próxima vez que você estiver procurando por um certo produto,

[201] 08:38and there is an ad suggesting you to buy it,
e houver um anúncio sugerindo que você o compre,

[202] 08:40it will not be just a standard spokesperson.
não será somente um porta-voz em geral.

[203] 08:43It will be one of your friends,
Será um de seus amigos,

[204] 08:46and you will not even know that this is happening.
e você nem vai saber que isso está acontecendo.

[205] 08:49Now the problem is that
E o problema é que

[206] 08:51the current policy mechanisms we have
os mecanismos de políticas que temos atualmente

[207] 08:54to protect ourselves from the abuses of personal information
para nos proteger dos abusos de informações pessoais

[208] 08:57are like bringing a knife to a gunfight.
são como levar uma faca para um tiroteio.

[209] 09:00One of these mechanisms is transparency,
Um desses mecanismos é a transparência,

[210] 09:03telling people what you are going to do with their data.
dizer às pessoas o que se vai fazer com os dados delas.

[211] 09:06And in principle, that's a very good thing.
E, em princípio, isso é uma coisa muito boa.

[212] 09:08It's necessary, but it is not sufficient.
É necessário, mas não é suficiente.

[213] 09:12Transparency can be misdirected.
A transparência pode ser mal direcionada.

[214] 09:16You can tell people what you are going to do,
Você pode dizer às pessoas o que vai fazer,

[215] 09:18and then you still nudge them to disclose
e você ainda avisa para revelar

[216] 09:20arbitrary amounts of personal information.
quantidades arbitrárias de informações pessoais.

[217] 09:23So in yet another experiment, this one with students,
E ainda em outro experimento, este com estudantes,

[218] 09:26we asked them to provide information
nós pedimos que eles fornecessem informações

[219] 09:29about their campus behavior,
a respeito de seu comportamento no campus,

[220] 09:31including pretty sensitive questions, such as this one.
incluindo questões delicadas, como esta.

[221] 09:34[Have you ever cheated in an exam?]
[Você já colou em uma prova?]

[222] 09:34Now to one group of subjects, we told them,
Agora para um grupo de participantes nós dissemos:

[223] 09:36"Only other students will see your answers."
"Somente outros estudantes verão suas respostas."

[224] 09:39To another group of subjects, we told them,
Para outro grupo de participantes, nós dissemos:

[225] 09:41"Students and faculty will see your answers."
"Estudantes e professores verão suas respostas."

[226] 09:44Transparency. Notification. And sure enough, this worked,
Transparência. Notificação. E com certeza, funcionou,

[227] 09:47in the sense that the first group of subjects
no sentido de que o primeiro grupo de participantes

[228] 09:48were much more likely to disclose than the second.
estava muito mais disposto a se expor do que o segundo.

[229] 09:51It makes sense, right?
Faz sentido, certo?

[230] 09:52But then we added the misdirection.
Mas aí adicionamos um despiste.

[231] 09:54We repeated the experiment with the same two groups,
Nós repetimos o experimento com os mesmos dois grupos,

[232] 09:57this time adding a delay
desta vez adicionando uma demora

[233] 09:59between the time we told subjects
entre o momento quando dizíamos aos participantes

[234] 10:02how we would use their data
como usaríamos seus dados

[235] 10:04and the time we actually started answering the questions.
e o momento em que eles realmente começaram a responder as perguntas.

[236] 10:09How long a delay do you think we had to add
Quanto tempo vocês acham que tivemos que adicionar

[237] 10:11in order to nullify the inhibitory effect
para anular o efeito inibitório

[238] 10:16of knowing that faculty would see your answers?
de saber que os professores veriam suas respostas?

[239] 10:19Ten minutes?
Dez minutos?

[240] 10:21Five minutes?
Cinco minutos?

[241] 10:23One minute?
Um minuto?

[242] 10:25How about 15 seconds?
Que tal 15 segundos?

[243] 10:27Fifteen seconds were sufficient to have the two groups
15 segundos foram suficientes para que os dois grupos

[244] 10:29disclose the same amount of information,
expusessem a mesma quantidade de informação,

[245] 10:31as if the second group now no longer cares
como se o segundo grupo não se importasse mais

[246] 10:34for faculty reading their answers.
com os professores lendo suas respostas.

[247] 10:36Now I have to admit that this talk so far
Bem, eu tenho que admitir que, até agora, essa palestra

[248] 10:40may sound exceedingly gloomy,
pode parecer excessivamente sombria,

[249] 10:42but that is not my point.
mas não é esse meu argumento.

[250] 10:44In fact, I want to share with you the fact that
Na verdade, quero compartilhar com vocês o fato de que

[251] 10:46there are alternatives.
há alternativas.

[252] 10:48The way we are doing things now is not the only way
O jeito pelo qual estamos fazendo as coisas agora não é o único

[253] 10:51they can done, and certainly not the best way
pelo qual elas podem ser feitas, e certamente não é o melhor

[254] 10:54they can be done.
pelo qual podem ser feitas.

[255] 10:56When someone tells you, "People don't care about privacy,"
Quando alguém lhe diz: "As pessoas não se importam com privacidade",

[256] 11:00consider whether the game has been designed
pense que o jogo foi projetado

[257] 11:03and rigged so that they cannot care about privacy,
e manipulado para que elas não possam se importar com privacidade,

[258] 11:05and coming to the realization that these manipulations occur
e chegar à percepção de que essas manipulações ocorrem

[259] 11:09is already halfway through the process
já é metade do caminho

[260] 11:10of being able to protect yourself.
para ser capaz de se proteger.

[261] 11:12When someone tells you that privacy is incompatible
Quando alguém lhe diz que a privacidade é incompatível

[262] 11:16with the benefits of big data,
com os benefícios da big data,

[263] 11:18consider that in the last 20 years,
considere que nos últimos 20 anos,

[264] 11:20researchers have created technologies
pesquisadores criaram tecnologias

[265] 11:22to allow virtually any electronic transactions
para permitir que praticamente qualquer transação eletrônica

[266] 11:26to take place in a more privacy-preserving manner.
aconteça protegendo mais a privacidade.

[267] 11:29We can browse the Internet anonymously.
Podemos navegar pela internet anonimamente.

[268] 11:32We can send emails that can only be read
Podemos enviar e-mails que só podem ser lidos

[269] 11:35by the intended recipient, not even the NSA.
pelo destinatário desejado, nem mesmo a NSA.

[270] 11:38We can have even privacy-preserving data mining.
Podemos até ter mineração de dados preservando a privacidade.

[271] 11:41In other words, we can have the benefits of big data
Em outras palavras, podemos ter os benefícios da big data

[272] 11:45while protecting privacy.
e proteger a privacidade ao mesmo tempo.

[273] 11:47Of course, these technologies imply a shifting
Claro, essas tecnologias implicam numa mudança

[274] 11:51of cost and revenues
de custos e receitas

[275] 11:53between data holders and data subjects,
entre os detentores dos dados e as pessoas referidas,

[276] 11:55which is why, perhaps, you don't hear more about them.
que é o motivo, talvez, por que não se fala mais disso.

[277] 11:58Which brings me back to the Garden of Eden.
O que me leva de volta ao Jardim do Éden.

[278] 12:02There is a second privacy interpretation
Há uma segunda interpretação de privacidade

[279] 12:05of the story of the Garden of Eden
da história do Jardim do Éden

[280] 12:07which doesn't have to do with the issue
que não tem a ver com a questão

[281] 12:09of Adam and Eve feeling naked
de Adão e Eva se sentirem nus

[282] 12:11and feeling ashamed.
e envergonhados.

[283] 12:13You can find echoes of this interpretation
Dá para encontrar ecos desta interpretação

[284] 12:16in John Milton's "Paradise Lost."
no poema de John Milton, "Paraíso Perdido".

[285] 12:19In the garden, Adam and Eve are materially content.
No jardim, Adão e Eva estão satisfeitos materialmente

[286] 12:23They're happy. They are satisfied.
Estão felizes. Estão satisfeitos.

[287] 12:25However, they also lack knowledge
Entretanto, eles também não têm conhecimento

[288] 12:27and self-awareness.
e autoconsciência.

[289] 12:29The moment they eat the aptly named
No momento em que eles comem o que é

[290] 12:32fruit of knowledge,
chamado apropriadamente de fruta do conhecimento,

[291] 12:34that's when they discover themselves.
é aí que eles se descobrem.

[292] 12:36They become aware. They achieve autonomy.
Eles se tornam cientes. Eles atingem autonomia.

[293] 12:40The price to pay, however, is leaving the garden.
O preço a se pagar, entretanto, é abandonar o jardim.

[294] 12:43So privacy, in a way, is both the means
Então, privacidade, de certa maneira, é tanto o meio

[295] 12:47and the price to pay for freedom.
quanto o preço a se pagar pela liberdade.

[296] 12:50Again, marketers tell us
Novamente, marqueteiros nos dizem

[297] 12:53that big data and social media
que big data e mídia social

[298] 12:56are not just a paradise of profit for them,
não são somente um paraíso de lucros para eles,

[299] 12:59but a Garden of Eden for the rest of us.
mas um Jardim do Éden para o resto de nós.

[300] 13:02We get free content.
Nós temos conteúdo gratuito.

[301] 13:03We get to play Angry Birds. We get targeted apps.
Podemos jogar Angry Birds. Temos aplicativos direcionados.

[302] 13:06But in fact, in a few years, organizations
Mas na verdade, em alguns anos, organizações

[303] 13:09will know so much about us,
saberão tanto sobre nós,

[304] 13:10they will be able to infer our desires
que conseguirão inferir nossos desejos

[305] 13:13before we even form them, and perhaps
antes mesmo que os tenhamos e, talvez,

[306] 13:15buy products on our behalf
comprar produtos em nosso nome

[307] 13:18before we even know we need them.
antes mesmo de sabermos que precisamos deles.

[308] 13:20Now there was one English author
Bom, havia um escritor inglês

[309] 13:23who anticipated this kind of future
que antecipou esse tipo de futuro

[310] 13:26where we would trade away
onde ofereceríamos

[311] 13:28our autonomy and freedom for comfort.
nossa autonomia e liberdade em troca de conforto.

[312] 13:31Even more so than George Orwell,
Mais ainda do que George Orwell,

[313] 13:33the author is, of course, Aldous Huxley.
o escritor é, obviamente, Aldous Huxley.

[314] 13:36In "Brave New World," he imagines a society
Em "Admirável Mundo Novo", ele imagina uma sociedade

[315] 13:39where technologies that we created
onde as tecnologias que criamos

[316] 13:41originally for freedom
originalmente por liberdade

[317] 13:43end up coercing us.
acabam nos reprimindo.

[318] 13:46However, in the book, he also offers us a way out
Entretanto, no livro, ele também nos oferece uma saída

[319] 13:50of that society, similar to the path
dessa sociedade, parecida com o caminho

[320] 13:54that Adam and Eve had to follow to leave the garden.
que Adão e Eva tiveram que seguir para sair do jardim.

[321] 13:58In the words of the Savage,
No mundo dos Selvagens,

[322] 14:00regaining autonomy and freedom is possible,
recuperar a autonomia e a liberdade é possível,

[323] 14:03although the price to pay is steep.
porém o preço a se pagar é alto.

[324] 14:06So I do believe that one of the defining fights
Então eu acredito que uma das lutas que definirão

[325] 14:11of our times will be the fight
nossa época será a luta

[326] 14:14for the control over personal information,
pelo controle de informações pessoais,

[327] 14:16the fight over whether big data will become a force
a luta por se big data vai se tornar um força

[328] 14:20for freedom,
pela liberdade,

[329] 14:21rather than a force which will hiddenly manipulate us.
em vez de uma força que vai nos manipular ocultamente.

[330] 14:26Right now, many of us
Agora mesmo, muitos de nós

[331] 14:29do not even know that the fight is going on,
nem mesmo sabem que a luta está acontecendo,

[332] 14:31but it is, whether you like it or not.
mas ela está, quer vocês gostem ou não.

[333] 14:34And at the risk of playing the serpent,
E com o risco de fazer o papel da serpente,

[334] 14:37I will tell you that the tools for the fight
vou lhes dizer que as ferramentas para a luta

[335] 14:40are here, the awareness of what is going on,
estão aqui, a consciência do que está acontecendo,

[336] 14:43and in your hands,
e em suas mãos,

[337] 14:44just a few clicks away.
só a alguns cliques de distância.

[338] 14:48Thank you.
Obrigado.

[339] 14:49(Applause)
(Aplausos)