fix bar
fix bar
fix bar
fix bar
fix bar
fix bar

What will a future without secrets look like? | Alessandro Acquisti

TED

Alterar formato do vídeo:

Tela 21:9 (Cinema)

Tela 4:3 ou 16:9 (Padrão)

Alterar modo de reprodução

Modo atual: Tocar normalmente

Tocar e Pausar

Lento Devagar Normal
Rápido
Acelerado
Frenético
 


. . .



 


. . .



 

00:00...
...

[1] 00:12I would like to tell you a story
Tradutor: Catarina Tavares Teles Revisora: Margarida Ferreira

[2] 00:14connecting the notorious privacy incident
Gostava de vos contar uma história

[3] 00:18involving Adam and Eve,
que liga o conhecido incidente de privacidade

[4] 00:20and the remarkable shift in the boundaries
que envolveu Adão e Eva,

[5] 00:24between public and private which has occurred
e a mudança notável nas fronteiras

[6] 00:27in the past 10 years.
entre o público e o privado,

[7] 00:28You know the incident.
que ocorreu nos últimos 10 anos.

[8] 00:30Adam and Eve one day in the Garden of Eden
Vocês conhecem o incidente.

[9] 00:33realize they are naked.
Um dia, no jardim do Éden,

[10] 00:35They freak out.
Adão e Eva apercebem-se de que estão nus.

[11] 00:36And the rest is history.
Ficam doidos.

[12] 00:39Nowadays, Adam and Eve
E o resto é história.

[13] 00:41would probably act differently.
Nos dias de hoje, provavelmente, Adão e Eva agiriam de forma diferente

[14] 00:44[@Adam Last nite was a blast! loved dat apple LOL]
[ @Adão A noite ontem foi baril! Adorei a maçã LOL]

[15] 00:46[@Eve yep.. babe, know what happened to my pants tho?]
[@Eva ya... fofo, onde estão as minhas calças?]

[16] 00:48We do reveal so much more information
Hoje, revelamos "online" mais informações

[17] 00:50about ourselves online than ever before,
sobre nós próprios do que nunca.

[18] 00:54and so much information about us
Essas informações todas sobre nós

[19] 00:55is being collected by organizations now.
estão a ser recolhidas por organizações.

[20] 00:58There is much to gain and benefit
Hoje, há muito a ganhar e a beneficiar

[21] 01:01from this massive analysis of personal information,
com esta análise maciça de informações pessoais,

[22] 01:03or big data,
ou seja, os metadados,

[23] 01:05but there are also complex tradeoffs that come
mas há também complexos inconvenientes,

[24] 01:08from giving away our privacy.
que advêm de abdicarmos da nossa privacidade.

[25] 01:11And my story is about these tradeoffs.
A minha história é sobre esses inconvenientes.

[26] 01:15We start with an observation which, in my mind,
Começamos com uma observação que, quanto a mim,

[27] 01:18has become clearer and clearer in the past few years,
se tornou cada vez mais clara nos últimos anos:

[28] 01:21that any personal information
quaisquer informações pessoais

[29] 01:23can become sensitive information.
podem tornar-se em informações sensíveis.

[30] 01:25Back in the year 2000, about 100 billion photos
No ano 2000, tiraram-se em todo o mundo

[31] 01:30were shot worldwide,
cerca de 100 mil milhões de fotos,

[32] 01:31but only a minuscule proportion of them
mas apenas uma proporção minúscula dessas fotos

[33] 01:34were actually uploaded online.
foram carregadas na Internet.

[34] 01:36In 2010, only on Facebook, in a single month,
Em 2010, só no Facebook, num único mês,

[35] 01:402.5 billion photos were uploaded,
foram carregadas 2500 milhões de fotos,

[36] 01:43most of them identified.
a maior parte delas identificadas.

[37] 01:45In the same span of time,
No mesmo período de tempo,

[38] 01:47computers' ability to recognize people in photos
a capacidade, por parte dos computadores, de reconhecer pessoas em fotos

[39] 01:52improved by three orders of magnitude.
aumentou para o triplo.

[40] 01:55What happens when you combine
O que acontece quando combinamos

[41] 01:57these technologies together:
todas as tecnologias?

[42] 01:59increasing availability of facial data;
a crescente disponibilidade de dados faciais;

[43] 02:01improving facial recognizing ability by computers;
a crescente capacidade de os computadores reconhecerem caras;

[44] 02:05but also cloud computing,
e também a computação em nuvem,

[45] 02:07which gives anyone in this theater
que fornece a qualquer pessoa neste teatro

[46] 02:09the kind of computational power
o tipo de poder computacional

[47] 02:11which a few years ago was only the domain
que, há uns anos, estava apenas na posse de agências secretas;

[48] 02:12of three-letter agencies;
e a computação omnipresente,

[49] 02:14and ubiquitous computing,
que permite que o meu telemóvel, - que não é um super computador -

[50] 02:16which allows my phone, which is not a supercomputer,
se ligue à Internet

[51] 02:18to connect to the Internet
e realize centenas de milhares

[52] 02:20and do there hundreds of thousands
de medições faciais em poucos segundos.

[53] 02:23of face metrics in a few seconds?
Bem, nós presumimos que o resultado

[54] 02:25Well, we conjecture that the result
desta combinação de tecnologias

[55] 02:28of this combination of technologies
será uma mudança radical

[56] 02:30will be a radical change in our very notions
nas nossas noções de privacidade e anonimato.

[57] 02:33of privacy and anonymity.
Para testar isso, fizemos uma experiência

[58] 02:35To test that, we did an experiment
no campus da Universidade de Carnegie Mellon.

[59] 02:37on Carnegie Mellon University campus.
Pedimos a estudantes, que estavam a passar,

[60] 02:39We asked students who were walking by
para participarem num estudo,

[61] 02:41to participate in a study,
e tirámos-lhes uma fotografia com uma "webcam".

[62] 02:43and we took a shot with a webcam,
Pedimos-lhes para preencherem um questionário num portátil.

[63] 02:46and we asked them to fill out a survey on a laptop.
Enquanto eles preenchiam o questionário,

[64] 02:48While they were filling out the survey,
carregámos a fotografia numa nuvem de computação

[65] 02:50we uploaded their shot to a cloud-computing cluster,
e iniciámos um processo de reconhecimento facial

[66] 02:53and we started using a facial recognizer
para combinar essa foto com uma base de dados

[67] 02:55to match that shot to a database
de algumas centenas de milhares de imagens

[68] 02:57of some hundreds of thousands of images
que tínhamos descarregado dos perfis no Facebook.

[69] 03:00which we had downloaded from Facebook profiles.
Quando os participantes chegavam à ultima página do questionário,

[70] 03:03By the time the subject reached the last page
a página tinha-se alterado dinamicamente

[71] 03:06on the survey, the page had been dynamically updated
com as dez fotografias mais compatíveis

[72] 03:10with the 10 best matching photos
que o programa de reconhecimento tinha encontrado.

[73] 03:12which the recognizer had found,
Pedimos aos participantes para indicar

[74] 03:14and we asked the subjects to indicate
se se conseguiam encontrar nas fotos.

[75] 03:16whether he or she found themselves in the photo.
Veem o indivíduo?

[76] 03:20Do you see the subject?
O computador conseguiu ver, e de facto fê-lo

[77] 03:24Well, the computer did, and in fact did so
para um em cada três participantes.

[78] 03:27for one out of three subjects.
Portanto, podemos começar com uma face anónima

[79] 03:29So essentially, we can start from an anonymous face,
"offline" ou "online", e podemos usar o reconhecimento facial

[80] 03:32offline or online, and we can use facial recognition
para dar um nome a essa face anónima,

[81] 03:36to give a name to that anonymous face
graças aos dados das redes sociais.

[82] 03:38thanks to social media data.
Aqui há uns anos, fizemos outra coisa.

[83] 03:40But a few years back, we did something else.
Começámos com dados de redes sociais,

[84] 03:42We started from social media data,
que combinámos estatisticamente

[85] 03:44we combined it statistically with data
com dados da Segurança Social do governo dos EUA,

[86] 03:47from U.S. government social security,
e acabámos por prever números da segurança social,

[87] 03:49and we ended up predicting social security numbers,
que, nos EUA, são informações extremamente confidenciais.

[88] 03:52which in the United States
Percebem onde quero chegar com isto?

[89] 03:54are extremely sensitive information.
Portanto, se combinarmos os dois estudos,

[90] 03:56Do you see where I'm going with this?
a pergunta passa a ser:

[91] 03:58So if you combine the two studies together,
Podemos começar com uma face

[92] 04:01then the question becomes,
e, usando o reconhecimento facial,

[93] 04:02can you start from a face and,
encontrar um nome e informações disponíveis publicamente

[94] 04:05using facial recognition, find a name
acerca desse nome e dessa pessoa?

[95] 04:07and publicly available information
A partir dessa informação pública disponível,

[96] 04:10about that name and that person,
inferir as que não estão disponíveis,

[97] 04:12and from that publicly available information
muito mais confidenciais,

[98] 04:14infer non-publicly available information,
que poderemos relacionar com a face?

[99] 04:16much more sensitive ones
A resposta é: "Sim, podemos e fizemos".

[100] 04:18which you link back to the face?
É claro, a precisão vai ficando pior.

[101] 04:19And the answer is, yes, we can, and we did.
[27% (em 4 tentativas)]

[102] 04:21Of course, the accuracy keeps getting worse.
Mas, de facto, até decidimos desenvolver uma aplicação para iPhone

[103] 04:24[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
que usa a câmara interna do telemóvel

[104] 04:25But in fact, we even decided to develop an iPhone app
para tirar uma fotografia do participante e, depois, carregá-la para a nuvem.

[105] 04:29which uses the phone's internal camera
Faz em tempo real o que descrevi:

[106] 04:31to take a shot of a subject
procura uma compatibilidade, informações públicas,

[107] 04:33and then upload it to a cloud
tenta inferir informações confidenciais,

[108] 04:34and then do what I just described to you in real time:
e depois envia de novo para o telemóvel

[109] 04:37looking for a match, finding public information,
para que fique sobreposto na cara do participante.

[110] 04:39trying to infer sensitive information,
É um exemplo de "realidade aumentada",

[111] 04:41and then sending back to the phone
provavelmente um exemplo assustador de realidade aumentada.

[112] 04:44so that it is overlaid on the face of the subject,
Não desenvolvemos a aplicação para a tornar disponível,

[113] 04:47an example of augmented reality,
mas apenas como validação do conceito.

[114] 04:49probably a creepy example of augmented reality.
Peguem nestas tecnologias

[115] 04:51In fact, we didn't develop the app to make it available,
e levem-nas até ao seu extremo lógico.

[116] 04:55just as a proof of concept.
Imaginem um futuro em que estranhos à nossa volta

[117] 04:57In fact, take these technologies
vão olhar para nós com os seus óculos Google

[118] 04:59and push them to their logical extreme.
ou, um dia, com as suas lentes de contacto,

[119] 05:01Imagine a future in which strangers around you
e vão usar sete ou oito dados sobre nós

[120] 05:04will look at you through their Google Glasses
para deduzir tudo o resto

[121] 05:06or, one day, their contact lenses,
que pode ser conhecida sobre nós.

[122] 05:08and use seven or eight data points about you
Com o que é que se vai parecer este futuro sem segredos?

[123] 05:12to infer anything else
Devemo-nos importar?

[124] 05:15which may be known about you.
Podemos querer acreditar

[125] 05:17What will this future without secrets look like?
que o futuro, com tanta riqueza de dados,

[126] 05:22And should we care?
será um futuro sem mais preconceitos,

[127] 05:24We may like to believe
mas o facto de termos tanta informação

[128] 05:26that the future with so much wealth of data
não significa que vamos tomar decisões mais objetivas.

[129] 05:29would be a future with no more biases,
Noutra experiência, apresentámos aos participantes

[130] 05:32but in fact, having so much information
informações sobre candidatos potenciais a um emprego.

[131] 05:35doesn't mean that we will make decisions
Incluímos, nestas informações, algumas referências

[132] 05:37which are more objective.
a informações engraçadas, absolutamente legais,

[133] 05:39In another experiment, we presented to our subjects
mas talvez um pouco embaraçosas,

[134] 05:42information about a potential job candidate.
que o indivíduo tinha publicado na Internet.

[135] 05:44We included in this information some references
Curiosamente, entre os participantes,

[136] 05:47to some funny, absolutely legal,
alguns tinham publicado "online" informações semelhantes,

[137] 05:50but perhaps slightly embarrassing information
outros não.

[138] 05:52that the subject had posted online.
Que grupo acham

[139] 05:54Now interestingly, among our subjects,
que avaliou mais severamente o indivíduo?

[140] 05:57some had posted comparable information,
Paradoxalmente, foi o grupo

[141] 06:00and some had not.
que tinha colocado informações semelhantes.

[142] 06:02Which group do you think
Um exemplo de dissonância moral.

[143] 06:04was more likely to judge harshly our subject?
Podem estar a pensar:

[144] 06:09Paradoxically, it was the group
"Isto não se aplica a mim,

[145] 06:10who had posted similar information,
"porque eu não tenho nada a esconder."

[146] 06:12an example of moral dissonance.
Mas, na realidade, a privacidade

[147] 06:15Now you may be thinking,
não se trata de ter coisas negativas a esconder.

[148] 06:17this does not apply to me,
Imaginem que são o diretor de Recursos Humanos

[149] 06:19because I have nothing to hide.
duma certa organização, recebem currículos,

[150] 06:21But in fact, privacy is not about
e decidem procurar mais informações sobre os candidatos.

[151] 06:23having something negative to hide.
Por isso, procuram os nomes no Google

[152] 06:27Imagine that you are the H.R. director
e, num determinado universo,

[153] 06:29of a certain organization, and you receive résumés,
encontram esta informação.

[154] 06:32and you decide to find more information about the candidates.
Ou, num universo paralelo, encontram esta informação.

[155] 06:35Therefore, you Google their names
Acham que a probabilidade de chamarem um ou outro candidato

[156] 06:37and in a certain universe,
para uma entrevista seria a mesma?

[157] 06:39you find this information.
Se concordam, então não são

[158] 06:41Or in a parallel universe, you find this information.
como os empregadores norte-americanos

[159] 06:46Do you think that you would be equally likely
que tomaram parte na nossa experiência - fizemos isso mesmo.

[160] 06:49to call either candidate for an interview?
Criámos perfis no Facebook, manipulámos características

[161] 06:51If you think so, then you are not
e depois enviámos currículos para empresas nos EUA.

[162] 06:54like the U.S. employers who are, in fact,
Detetámos, monitorizámos

[163] 06:56part of our experiment, meaning we did exactly that.
se elas investigaram os nossos candidatos,

[164] 07:00We created Facebook profiles, manipulating traits,
e se agiram baseando-se nas informações

[165] 07:03then we started sending out résumés to companies in the U.S.,
que encontraram nas redes sociais. E agiram.

[166] 07:06and we detected, we monitored,
A discriminação acontecia a partir das redes sociais

[167] 07:07whether they were searching for our candidates,
entre candidatos com habilitações iguais.

[168] 07:10and whether they were acting on the information
Os publicitários gostariam que acreditássemos

[169] 07:12they found on social media. And they were.
que todas as nossas informações pessoais

[170] 07:14Discrimination was happening through social media
serão sempre usadas em nosso favor.

[171] 07:16for equally skilled candidates.
Mas pensem novamente. Por que razão será sempre assim?

[172] 07:19Now marketers like us to believe
Num filme que saiu há uns anos,

[173] 07:23that all information about us will always
o "Relatório Minoritário", existe uma cena famosa

[174] 07:26be used in a manner which is in our favor.
em que Tom Cruise anda a passear num centro comercial

[175] 07:29But think again. Why should that be always the case?
e, à sua volta, aparece

[176] 07:33In a movie which came out a few years ago,
publicidade holográfica personalizada.

[177] 07:35"Minority Report," a famous scene
Esse filme passa-se em 2054,

[178] 07:38had Tom Cruise walk in a mall
daqui a cerca de 40 anos.

[179] 07:40and holographic personalized advertising
Por mais empolgante que essa tecnologia pareça,

[180] 07:44would appear around him.
subestima largamente

[181] 07:46Now, that movie is set in 2054,
a quantidade de informações que as organizações recolhem sobre nós

[182] 07:49about 40 years from now,
e a maneira como a podem usar

[183] 07:51and as exciting as that technology looks,
para nos influenciar duma maneira que nem sequer vamos detetar.

[184] 07:54it already vastly underestimates
Como exemplo, eis outra experiência

[185] 07:56the amount of information that organizations
que ainda está a decorrer, ainda não está finalizada.

[186] 07:59can gather about you, and how they can use it
Imaginem que uma organização tem acesso

[187] 08:01to influence you in a way that you will not even detect.
à nossa lista de amigos no Facebook

[188] 08:04So as an example, this is another experiment
e, através de um qualquer algoritmo,

[189] 08:07actually we are running, not yet completed.
consegue detetar dois dos nossos amigos mais chegados.

[190] 08:09Imagine that an organization has access
Depois criam, em tempo real,

[191] 08:11to your list of Facebook friends,
um compósito facial desses dois amigos.

[192] 08:13and through some kind of algorithm
Estudos anteriores ao nosso mostram que as pessoas

[193] 08:15they can detect the two friends that you like the most.
já não se reconhecem a si mesmos nesses compósitos faciais,

[194] 08:19And then they create, in real time,
mas reagem a eles duma maneira positiva.

[195] 08:21a facial composite of these two friends.
Por isso, da próxima vez que estiverem à procura de um certo produto

[196] 08:24Now studies prior to ours have shown that people
e existir uma campanha sugerindo que compre aquele,

[197] 08:27don't recognize any longer even themselves
não será um apresentador qualquer.

[198] 08:30in facial composites, but they react
será um dos nossos amigos,

[199] 08:32to those composites in a positive manner.
e nós nem percebemos que isso está a acontecer.

[200] 08:34So next time you are looking for a certain product,
Neste momento, o problema

[201] 08:38and there is an ad suggesting you to buy it,
é que os atuais mecanismos políticos que temos

[202] 08:40it will not be just a standard spokesperson.
para nos protegermos do abuso de informações pessoais

[203] 08:43It will be one of your friends,
funcionam como levar uma faca para um duelo de pistolas.

[204] 08:46and you will not even know that this is happening.
Um destes mecanismos é a transparência,

[205] 08:49Now the problem is that
dizer às pessoas o que vão fazer com os seus dados.

[206] 08:51the current policy mechanisms we have
Em princípio, isso é uma coisa boa.

[207] 08:54to protect ourselves from the abuses of personal information
É necessário, mas não é suficiente.

[208] 08:57are like bringing a knife to a gunfight.
A transparência pode ser mal direcionada.

[209] 09:00One of these mechanisms is transparency,
Podem dizer às pessoas o que vão fazer,

[210] 09:03telling people what you are going to do with their data.
e, mesmo assim, incitá-las

[211] 09:06And in principle, that's a very good thing.
a revelar quantidades arbitrárias de informações pessoais.

[212] 09:08It's necessary, but it is not sufficient.
Ainda noutra experiência, - esta com estudantes -

[213] 09:12Transparency can be misdirected.
pedimos para fornecerem informações

[214] 09:16You can tell people what you are going to do,
sobre o seu comportamento no campus,

[215] 09:18and then you still nudge them to disclose
incluindo algumas questões sensíveis, como esta.

[216] 09:20arbitrary amounts of personal information.
[Alguma vez copiaram num exame?]

[217] 09:23So in yet another experiment, this one with students,
A um grupo dissemos:

[218] 09:26we asked them to provide information
"As respostas só serão vistas por outros estudantes".

[219] 09:29about their campus behavior,
A outro grupo dissemos:

[220] 09:31including pretty sensitive questions, such as this one.
"As respostas vão ser vistas pelos outros estudantes e professores".

[221] 09:34[Have you ever cheated in an exam?]
Transparência. Notificação. Isso resultou.

[222] 09:34Now to one group of subjects, we told them,
O primeiro grupo de participantes

[223] 09:36"Only other students will see your answers."
estava mais disposto a revelar as informações do que o outro.

[224] 09:39To another group of subjects, we told them,
Faz sentido, não faz?

[225] 09:41"Students and faculty will see your answers."
Mas depois induzimo-los em erro.

[226] 09:44Transparency. Notification. And sure enough, this worked,
Repetimos a experiência com os mesmos dois grupos,

[227] 09:47in the sense that the first group of subjects
mas desta vez adicionando um atraso

[228] 09:48were much more likely to disclose than the second.
entre a altura em que lhes dissemos

[229] 09:51It makes sense, right?
como iríamos usar os dados deles

[230] 09:52But then we added the misdirection.
e a altura em que começámos a fzer as perguntas.

[231] 09:54We repeated the experiment with the same two groups,
Que atraso acham que tivemos de adicionar

[232] 09:57this time adding a delay
no sentido de anular o efeito inibitório

[233] 09:59between the time we told subjects
de saber que os membros da faculdade iriam ver as suas respostas?

[234] 10:02how we would use their data
Dez minutos?

[235] 10:04and the time we actually started answering the questions.
Cinco minutos?

[236] 10:09How long a delay do you think we had to add
Um minuto?

[237] 10:11in order to nullify the inhibitory effect
Que tal quinze segundos?

[238] 10:16of knowing that faculty would see your answers?
Quinze segundos chegaram para que os dois grupos

[239] 10:19Ten minutes?
revelassem a mesma quantidade de informações,

[240] 10:21Five minutes?
como se o segundo grupo já não se importasse

[241] 10:23One minute?
com o facto de os membros da faculdade irem ler as suas respostas.

[242] 10:25How about 15 seconds?
Tenho que reconhecer que esta palestra, até agora,

[243] 10:27Fifteen seconds were sufficient to have the two groups
pode ter soado excessivamente sombria

[244] 10:29disclose the same amount of information,
mas não é isso que me interessa.

[245] 10:31as if the second group now no longer cares
Quero partilhar convosco o facto

[246] 10:34for faculty reading their answers.
de que existem alternativas.

[247] 10:36Now I have to admit that this talk so far
A maneira como estamos a fazer as coisas

[248] 10:40may sound exceedingly gloomy,
não é a única maneira de as fazer

[249] 10:42but that is not my point.
e certamente também não é a melhor maneira de serem feitas.

[250] 10:44In fact, I want to share with you the fact that
Quando alguém vos diz: "As pessoas não ligam à sua privacidade",

[251] 10:46there are alternatives.
considerem se a ideia foi desenvolvida

[252] 10:48The way we are doing things now is not the only way
e manipulada para que elas não se importem.

[253] 10:51they can done, and certainly not the best way
Chegar à conclusão de que estas manipulações ocorrem

[254] 10:54they can be done.
é já meio caminho andado para sermos capazes de nos protegermos.

[255] 10:56When someone tells you, "People don't care about privacy,"
Quando alguém nos diz que a privacidade é incompatível

[256] 11:00consider whether the game has been designed
com os benefícios dos metadados,

[257] 11:03and rigged so that they cannot care about privacy,
considerem que, nos últimos 20 anos,

[258] 11:05and coming to the realization that these manipulations occur
os investigadores criaram tecnologias

[259] 11:09is already halfway through the process
que permitem que, virtualmente, qualquer transação eletrónica

[260] 11:10of being able to protect yourself.
ocorra de uma maneira que preserve a privacidade dos envolvidos.

[261] 11:12When someone tells you that privacy is incompatible
Podemos navegar anonimamente pela Internet.

[262] 11:16with the benefits of big data,
Podemos enviar "emails" que só poderão ser lidos

[263] 11:18consider that in the last 20 years,
pelo destinatário pretendido, nem mesmo pela NSA.

[264] 11:20researchers have created technologies
Podemos até realizar extração de dados preservando a nossa privacidade.

[265] 11:22to allow virtually any electronic transactions
Em suma, podemos ter os benefícios das grandes base de dados

[266] 11:26to take place in a more privacy-preserving manner.
enquanto protegemos a nossa privacidade.

[267] 11:29We can browse the Internet anonymously.
É claro, estas tecnologias implicam

[268] 11:32We can send emails that can only be read
uma mudança de custos e receitas

[269] 11:35by the intended recipient, not even the NSA.
entre os detentores de dados e os titulares dos dados,

[270] 11:38We can have even privacy-preserving data mining.
o que é, talvez, a razão de não se ouvir falar mais sobre isto.

[271] 11:41In other words, we can have the benefits of big data
O que me traz de novo ao jardim do Éden.

[272] 11:45while protecting privacy.
Há uma segunda interpretação da privacidade

[273] 11:47Of course, these technologies imply a shifting
na história do jardim do Éden

[274] 11:51of cost and revenues
que não tem a ver com o facto

[275] 11:53between data holders and data subjects,
de Adão e Eva se sentirem nus e envergonhados.

[276] 11:55which is why, perhaps, you don't hear more about them.
É possível encontrar ecos desta interpretação

[277] 11:58Which brings me back to the Garden of Eden.
em "Paraíso Perdido", de John Milton.

[278] 12:02There is a second privacy interpretation
No jardim, Adão e Eva estavam materialmente contentes.

[279] 12:05of the story of the Garden of Eden
Eram felizes. Estavam satisfeitos.

[280] 12:07which doesn't have to do with the issue
Contudo, eles não possuíam conhecimento nem consciência.

[281] 12:09of Adam and Eve feeling naked
No momento em que comem

[282] 12:11and feeling ashamed.
o apropriadamente chamado "fruto do conhecimento",

[283] 12:13You can find echoes of this interpretation
descobrem-se a eles próprios.

[284] 12:16in John Milton's "Paradise Lost."
Tornam-se conscientes. Alcançam a autonomia.

[285] 12:19In the garden, Adam and Eve are materially content.
O preço a pagar, porém, é sair do jardim.

[286] 12:23They're happy. They are satisfied.
Daí que a privacidade engloba igualmente

[287] 12:25However, they also lack knowledge
os meios e o preço a pagar pela liberdade.

[288] 12:27and self-awareness.
De novo, os publicitários dizem-nos

[289] 12:29The moment they eat the aptly named
que os metadados e as redes sociais

[290] 12:32fruit of knowledge,
não são apenas um paraíso de lucro para eles,

[291] 12:34that's when they discover themselves.
mas um Jardim do Éden para todos nós.

[292] 12:36They become aware. They achieve autonomy.
Temos um conteúdo livre.

[293] 12:40The price to pay, however, is leaving the garden.
Podemos jogar Angry Birds. Temos aplicativos direcionados.

[294] 12:43So privacy, in a way, is both the means
Mas, na verdade, dentro de poucos anos,

[295] 12:47and the price to pay for freedom.
as organizações vão saber tanto sobre nós

[296] 12:50Again, marketers tell us
que serão capazes de inferir os nossos desejos

[297] 12:53that big data and social media
antes de nós os formularmos,

[298] 12:56are not just a paradise of profit for them,
e talvez até comprar produtos em nosso nome

[299] 12:59but a Garden of Eden for the rest of us.
antes sequer de sabermos que precisamos deles.

[300] 13:02We get free content.
Existiu um autor inglês

[301] 13:03We get to play Angry Birds. We get targeted apps.
que previu este tipo de futuro

[302] 13:06But in fact, in a few years, organizations
em que trocaremos a nossa autonomia e liberdade pelo conforto,

[303] 13:09will know so much about us,
ainda mais do que George Orwell,

[304] 13:10they will be able to infer our desires
O autor é, naturalmente, Aldous Huxley.

[305] 13:13before we even form them, and perhaps
Em "Admirável Mundo Novo", ele imagina uma sociedade

[306] 13:15buy products on our behalf
em que as tecnologias que criámos,

[307] 13:18before we even know we need them.
inicialmente para a liberdade,

[308] 13:20Now there was one English author
acabam por nos controlar.

[309] 13:23who anticipated this kind of future
No entanto, no livro, ele também nos oferece uma saída dessa sociedade,

[310] 13:26where we would trade away
semelhante ao caminho que Adão e Eva tiveram de seguir

[311] 13:28our autonomy and freedom for comfort.
para sair do jardim.

[312] 13:31Even more so than George Orwell,
Nas palavras da personagem Selvagem,

[313] 13:33the author is, of course, Aldous Huxley.
é possível recuperar a autonomia e a liberdade ,

[314] 13:36In "Brave New World," he imagines a society
embora o preço a pagar seja acentuado.

[315] 13:39where technologies that we created
Então, eu acredito que uma das lutas decisivas dos nossos tempos

[316] 13:41originally for freedom
será a luta pelo controlo dessas informações pessoais,

[317] 13:43end up coercing us.
a luta sobre se os metadados vão tornar-se uma força pela liberdade,

[318] 13:46However, in the book, he also offers us a way out
em vez duma força que nos manipula secretamente.

[319] 13:50of that society, similar to the path
Neste momento, muitos de nós

[320] 13:54that Adam and Eve had to follow to leave the garden.
nem sequer sabemos que a luta está a acontecer,

[321] 13:58In the words of the Savage,
mas está, gostem ou não.

[322] 14:00regaining autonomy and freedom is possible,
Correndo o risco de fazer o papel da serpente,

[323] 14:03although the price to pay is steep.
vou dizer-vos que as ferramentas para a luta

[324] 14:06So I do believe that one of the defining fights
estão aqui, a consciência do que está a acontecer,

[325] 14:11of our times will be the fight
e nas nossas mãos,

[326] 14:14for the control over personal information,
apenas a alguns cliques de distância.

[327] 14:16the fight over whether big data will become a force
Obrigado.

[328] 14:20for freedom,
(Aplausos)

[329] 14:21rather than a force which will hiddenly manipulate us.
--329--

[330] 14:26Right now, many of us
--330--

[331] 14:29do not even know that the fight is going on,
--331--

[332] 14:31but it is, whether you like it or not.
--332--

[333] 14:34And at the risk of playing the serpent,
--333--

[334] 14:37I will tell you that the tools for the fight
--334--

[335] 14:40are here, the awareness of what is going on,
--335--

[336] 14:43and in your hands,
--336--

[337] 14:44just a few clicks away.
--337--

[338] 14:48Thank you.
--338--

[339] 14:49(Applause)
--339--