[1] 00:12I would like to tell you a story
Eu gostaria de contar-lhes uma história
[2] 00:14connecting the notorious privacy incident
que conecta o famoso incidente de privacidade
[3] 00:18involving Adam and Eve,
envolvendo Adão e Eva,
[4] 00:20and the remarkable shift in the boundaries
e a notável mudança no limite
[6] 00:27in the past 10 years.
nos últimos 10 anos.
[7] 00:28You know the incident.
Vocês conhecem o incidente.
[8] 00:30Adam and Eve one day in the Garden of Eden
Adão e Eva, um dia, no Jardim do Éden,
[9] 00:33realize they are naked.
se dão conta de que estão nus.
[10] 00:35They freak out.
Eles se apavoram.
[11] 00:36And the rest is history.
E o resto vocês já conhecem.
[12] 00:39Nowadays, Adam and Eve
Hoje em dia, Adão e Eva
[13] 00:41would probably act differently.
provavelmente reagiriam diferente.
[16] 00:48We do reveal so much more information
Nós publicamos muito mais informações
[17] 00:50about ourselves online than ever before,
sobre nós mesmos on-line do que jamais antes,
[18] 00:54and so much information about us
e tanta informação sobre nós
[19] 00:55is being collected by organizations now.
está sendo coletada por organizações agora.
[20] 00:58There is much to gain and benefit
Há muito a se ganhar e a se beneficiar
[22] 01:03or big data,
ou big data,
[23] 01:05but there are also complex tradeoffs that come
mas há também desvantagens complexas
[24] 01:08from giving away our privacy.
ao abrir mão da privacidade.
[25] 01:11And my story is about these tradeoffs.
E minha história é sobre essas desvantagens.
[28] 01:21that any personal information
de que qualquer informação pessoal
[29] 01:23can become sensitive information.
pode se tornar delicada.
[31] 01:30were shot worldwide,
foram tiradas em todo o mundo,
[32] 01:31but only a minuscule proportion of them
mas somente uma porção minúscula delas
[33] 01:34were actually uploaded online.
acabou sendo carregada na Internet.
[35] 01:402.5 billion photos were uploaded,
2,5 bilhões de fotos foram carregadas,
[36] 01:43most of them identified.
a maioria identificada.
[37] 01:45In the same span of time,
No mesmo período de tempo,
[39] 01:52improved by three orders of magnitude.
melhorou em três ordens de grandeza.
[40] 01:55What happens when you combine
O que acontece quando colocamos
[41] 01:57these technologies together:
essas tecnologias juntas:
[42] 01:59increasing availability of facial data;
crescente disponibilidade de informações faciais;
[44] 02:05but also cloud computing,
mas também computação em nuvem,
[45] 02:07which gives anyone in this theater
que oferece a qualquer um neste salão
[46] 02:09the kind of computational power
o tipo de poder computacional
[47] 02:11which a few years ago was only the domain
que há alguns anos era somente o domínio
[48] 02:12of three-letter agencies;
de agências de três letras;
[49] 02:14and ubiquitous computing,
e computação ubíqua,
[51] 02:18to connect to the Internet
conecte-se à Internet
[52] 02:20and do there hundreds of thousands
e faça lá centenas de milhares
[53] 02:23of face metrics in a few seconds?
de correspondências faciais em alguns segundos?
[54] 02:25Well, we conjecture that the result
Bem, nós conjecturamos que o resultado
[55] 02:28of this combination of technologies
dessa combinação de tecnologias
[56] 02:30will be a radical change in our very notions
será uma mudança radical em nossas noções
[57] 02:33of privacy and anonymity.
de privacidade e anonimato.
[58] 02:35To test that, we did an experiment
Para testar isso, fizemos um experimento
[59] 02:37on Carnegie Mellon University campus.
no campus da universidade de Carnegie Mellon.
[60] 02:39We asked students who were walking by
Nós pedimos a estudantes que estavam passando
[61] 02:41to participate in a study,
para participarem em um estudo,
[62] 02:43and we took a shot with a webcam,
e tiramos uma foto com uma webcam,
[64] 02:48While they were filling out the survey,
Enquanto estavam preenchendo a pesquisa,
[66] 02:53and we started using a facial recognizer
e começamos a usar um reconhecedor facial
[67] 02:55to match that shot to a database
para equiparar aquela foto com um banco de dados
[68] 02:57of some hundreds of thousands of images
de algumas centenas de milhares de fotos
[69] 03:00which we had downloaded from Facebook profiles.
que tínhamos baixado de perfis do Facebook.
[72] 03:10with the 10 best matching photos
com as 10 fotos que melhor se ajustavam
[73] 03:12which the recognizer had found,
e que o reconhecedor tinha encontrado,
[74] 03:14and we asked the subjects to indicate
e pedimos que os participantes indicassem
[75] 03:16whether he or she found themselves in the photo.
se eles estavam ou não na foto.
[76] 03:20Do you see the subject?
Você vê o participante?
[77] 03:24Well, the computer did, and in fact did so
Bem, o computador viu e, de fato, viu
[78] 03:27for one out of three subjects.
para um em cada três participantes.
[81] 03:36to give a name to that anonymous face
para dar um nome a um rosto anônimo,
[82] 03:38thanks to social media data.
graças a dados de mídia social.
[84] 03:42We started from social media data,
Nós partimos de dados de mídia social,
[85] 03:44we combined it statistically with data
combinamos estatisticamente com dados
[86] 03:47from U.S. government social security,
da seguridade social do governo americano,
[88] 03:52which in the United States
que nos Estados Unidos
[89] 03:54are extremely sensitive information.
são informações extremamente delicadas.
[90] 03:56Do you see where I'm going with this?
Vocês veem onde estou indo com isso?
[91] 03:58So if you combine the two studies together,
Então, se combinarmos os dois estudos,
[92] 04:01then the question becomes,
a questão se torna:
[93] 04:02can you start from a face and,
dá para partir de um rosto e,
[94] 04:05using facial recognition, find a name
usando reconhecimento facial, encontrar um nome
[95] 04:07and publicly available information
e informação disponível publicamente
[96] 04:10about that name and that person,
sobre esse nome e essa pessoa,
[97] 04:12and from that publicly available information
e dessa informação publicamente disponível
[98] 04:14infer non-publicly available information,
inferir informação indisponível publicamente,
[99] 04:16much more sensitive ones
muito mais delicada,
[100] 04:18which you link back to the face?
que podemos conectar de volta com o rosto?
[102] 04:21Of course, the accuracy keeps getting worse.
Claro, a precisão continua caindo.
[105] 04:29which uses the phone's internal camera
que usa a câmera interna do celular
[106] 04:31to take a shot of a subject
para tirar a foto de um indivíduo
[107] 04:33and then upload it to a cloud
e então envia para a nuvem
[110] 04:39trying to infer sensitive information,
tenta inferir informação delicada,
[111] 04:41and then sending back to the phone
e então envia de volta ao iPhone
[113] 04:47an example of augmented reality,
um exemplo de realidade aumentada,
[116] 04:55just as a proof of concept.
somente como prova de conceito.
[117] 04:57In fact, take these technologies
De fato, pegue essas tecnologias
[118] 04:59and push them to their logical extreme.
e coloque-as até seu extremo lógico.
[120] 05:04will look at you through their Google Glasses
olharão para você por seus Google Glasses
[121] 05:06or, one day, their contact lenses,
ou, um dia, suas lentes de contato,
[123] 05:12to infer anything else
para inferir qualquer outra coisa
[124] 05:15which may be known about you.
que se possa saber sobre você.
[125] 05:17What will this future without secrets look like?
Como será esse futuro sem segredos?
[126] 05:22And should we care?
E deveríamos nos preocupar?
[127] 05:24We may like to believe
Nós talvez queiramos acreditar
[128] 05:26that the future with so much wealth of data
que o futuro com tanta riqueza de dados
[129] 05:29would be a future with no more biases,
será um futuro sem preconceitos,
[130] 05:32but in fact, having so much information
mas na verdade, ter tanta informação
[131] 05:35doesn't mean that we will make decisions
não quer dizer que tomaremos decisões
[132] 05:37which are more objective.
que sejam mais objetivas.
[136] 05:47to some funny, absolutely legal,
a informações engraçadas, totalmente legais,
[137] 05:50but perhaps slightly embarrassing information
mas talvez levemente constrangedoras
[138] 05:52that the subject had posted online.
que o participante tinha postado on-line.
[139] 05:54Now interestingly, among our subjects,
Agora, curiosamente, entre os participantes,
[140] 05:57some had posted comparable information,
alguns tinham postado informações comparáveis,
[141] 06:00and some had not.
e outros não.
[142] 06:02Which group do you think
Que grupo vocês acham
[144] 06:09Paradoxically, it was the group
Paradoxalmente, foi o grupo
[145] 06:10who had posted similar information,
que tinha postado informação similar,
[146] 06:12an example of moral dissonance.
um exemplo de dissonância moral.
[147] 06:15Now you may be thinking,
Você podem estar pensando.
[148] 06:17this does not apply to me,
isso não se aplica a mim,
[149] 06:19because I have nothing to hide.
porque não tenho nada a esconder.
[150] 06:21But in fact, privacy is not about
Mas na verdade, privacidade não se trata
[151] 06:23having something negative to hide.
de ter algo negativo a esconder.
[152] 06:27Imagine that you are the H.R. director
Imagine que você é o diretor de RH
[155] 06:35Therefore, you Google their names
Portanto, você pesquisa seus nomes
[156] 06:37and in a certain universe,
e em um certo universo,
[157] 06:39you find this information.
você encontra esta informação.
[159] 06:46Do you think that you would be equally likely
Você acha que estaria igualmente disposto
[160] 06:49to call either candidate for an interview?
a chamar o candidato para uma entrevista?
[161] 06:51If you think so, then you are not
Se você pensa que sim, então você não é
[162] 06:54like the U.S. employers who are, in fact,
como os empregadores americanos que, na verdade,
[166] 07:06and we detected, we monitored,
e detectamos, monitoramos,
[168] 07:10and whether they were acting on the information
e se estavam reagindo às informações
[169] 07:12they found on social media. And they were.
que encontravam na mídia social. E estavam.
[171] 07:16for equally skilled candidates.
para candidatos igualmente capazes.
[172] 07:19Now marketers like us to believe
Marqueteiros gostam que acreditemos
[173] 07:23that all information about us will always
que toda informação sobre nós sempre será
[174] 07:26be used in a manner which is in our favor.
usada de uma maneira a nosso favor.
[176] 07:33In a movie which came out a few years ago,
Em um filme que saiu há alguns anos,
[177] 07:35"Minority Report," a famous scene
"Minority Report", uma cena famosa
[178] 07:38had Tom Cruise walk in a mall
tinha Tom Cruise entrando em um shopping
[179] 07:40and holographic personalized advertising
e anúncios holográficos personalizados
[180] 07:44would appear around him.
apareciam a sua volta.
[181] 07:46Now, that movie is set in 2054,
Agora, esse filme acontece em 2054,
[182] 07:49about 40 years from now,
cerca de daqui a 40 anos,
[184] 07:54it already vastly underestimates
ela já subestima enormemente
[186] 07:59can gather about you, and how they can use it
podem juntar sobre você, e como podem usá-la
[188] 08:04So as an example, this is another experiment
E como exemplo, este é um outro experimento
[189] 08:07actually we are running, not yet completed.
que estamos fazendo, ainda não terminamos.
[190] 08:09Imagine that an organization has access
Imagine que uma organização tem acesso
[191] 08:11to your list of Facebook friends,
à sua lista de amigos no Facebook,
[192] 08:13and through some kind of algorithm
e através de algum tipo de algoritmo
[194] 08:19And then they create, in real time,
E eles criam, em tempo real,
[195] 08:21a facial composite of these two friends.
uma composição facial desses dois amigos.
[197] 08:27don't recognize any longer even themselves
não reconhecem mais, mesmo se forem elas mesmas
[198] 08:30in facial composites, but they react
em composições faciais, mas elas reagem
[199] 08:32to those composites in a positive manner.
a essas composições de maneira positiva.
[202] 08:40it will not be just a standard spokesperson.
não será somente um porta-voz em geral.
[203] 08:43It will be one of your friends,
Será um de seus amigos,
[205] 08:49Now the problem is that
E o problema é que
[206] 08:51the current policy mechanisms we have
os mecanismos de políticas que temos atualmente
[208] 08:57are like bringing a knife to a gunfight.
são como levar uma faca para um tiroteio.
[209] 09:00One of these mechanisms is transparency,
Um desses mecanismos é a transparência,
[211] 09:06And in principle, that's a very good thing.
E, em princípio, isso é uma coisa muito boa.
[212] 09:08It's necessary, but it is not sufficient.
É necessário, mas não é suficiente.
[213] 09:12Transparency can be misdirected.
A transparência pode ser mal direcionada.
[214] 09:16You can tell people what you are going to do,
Você pode dizer às pessoas o que vai fazer,
[215] 09:18and then you still nudge them to disclose
e você ainda avisa para revelar
[218] 09:26we asked them to provide information
nós pedimos que eles fornecessem informações
[219] 09:29about their campus behavior,
a respeito de seu comportamento no campus,
[221] 09:34[Have you ever cheated in an exam?]
[Você já colou em uma prova?]
[229] 09:51It makes sense, right?
Faz sentido, certo?
[230] 09:52But then we added the misdirection.
Mas aí adicionamos um despiste.
[232] 09:57this time adding a delay
desta vez adicionando uma demora
[233] 09:59between the time we told subjects
entre o momento quando dizíamos aos participantes
[234] 10:02how we would use their data
como usaríamos seus dados
[237] 10:11in order to nullify the inhibitory effect
para anular o efeito inibitório
[239] 10:19Ten minutes?
Dez minutos?
[240] 10:21Five minutes?
Cinco minutos?
[241] 10:23One minute?
Um minuto?
[242] 10:25How about 15 seconds?
Que tal 15 segundos?
[244] 10:29disclose the same amount of information,
expusessem a mesma quantidade de informação,
[245] 10:31as if the second group now no longer cares
como se o segundo grupo não se importasse mais
[246] 10:34for faculty reading their answers.
com os professores lendo suas respostas.
[248] 10:40may sound exceedingly gloomy,
pode parecer excessivamente sombria,
[249] 10:42but that is not my point.
mas não é esse meu argumento.
[251] 10:46there are alternatives.
há alternativas.
[254] 10:54they can be done.
pelo qual podem ser feitas.
[256] 11:00consider whether the game has been designed
pense que o jogo foi projetado
[259] 11:09is already halfway through the process
já é metade do caminho
[260] 11:10of being able to protect yourself.
para ser capaz de se proteger.
[262] 11:16with the benefits of big data,
com os benefícios da big data,
[263] 11:18consider that in the last 20 years,
considere que nos últimos 20 anos,
[264] 11:20researchers have created technologies
pesquisadores criaram tecnologias
[266] 11:26to take place in a more privacy-preserving manner.
aconteça protegendo mais a privacidade.
[267] 11:29We can browse the Internet anonymously.
Podemos navegar pela internet anonimamente.
[268] 11:32We can send emails that can only be read
Podemos enviar e-mails que só podem ser lidos
[269] 11:35by the intended recipient, not even the NSA.
pelo destinatário desejado, nem mesmo a NSA.
[272] 11:45while protecting privacy.
e proteger a privacidade ao mesmo tempo.
[274] 11:51of cost and revenues
de custos e receitas
[277] 11:58Which brings me back to the Garden of Eden.
O que me leva de volta ao Jardim do Éden.
[278] 12:02There is a second privacy interpretation
Há uma segunda interpretação de privacidade
[279] 12:05of the story of the Garden of Eden
da história do Jardim do Éden
[280] 12:07which doesn't have to do with the issue
que não tem a ver com a questão
[281] 12:09of Adam and Eve feeling naked
de Adão e Eva se sentirem nus
[282] 12:11and feeling ashamed.
e envergonhados.
[283] 12:13You can find echoes of this interpretation
Dá para encontrar ecos desta interpretação
[284] 12:16in John Milton's "Paradise Lost."
no poema de John Milton, "Paraíso Perdido".
[286] 12:23They're happy. They are satisfied.
Estão felizes. Estão satisfeitos.
[287] 12:25However, they also lack knowledge
Entretanto, eles também não têm conhecimento
[288] 12:27and self-awareness.
e autoconsciência.
[289] 12:29The moment they eat the aptly named
No momento em que eles comem o que é
[290] 12:32fruit of knowledge,
chamado apropriadamente de fruta do conhecimento,
[291] 12:34that's when they discover themselves.
é aí que eles se descobrem.
[292] 12:36They become aware. They achieve autonomy.
Eles se tornam cientes. Eles atingem autonomia.
[295] 12:47and the price to pay for freedom.
quanto o preço a se pagar pela liberdade.
[296] 12:50Again, marketers tell us
Novamente, marqueteiros nos dizem
[297] 12:53that big data and social media
que big data e mídia social
[299] 12:59but a Garden of Eden for the rest of us.
mas um Jardim do Éden para o resto de nós.
[300] 13:02We get free content.
Nós temos conteúdo gratuito.
[302] 13:06But in fact, in a few years, organizations
Mas na verdade, em alguns anos, organizações
[303] 13:09will know so much about us,
saberão tanto sobre nós,
[304] 13:10they will be able to infer our desires
que conseguirão inferir nossos desejos
[305] 13:13before we even form them, and perhaps
antes mesmo que os tenhamos e, talvez,
[306] 13:15buy products on our behalf
comprar produtos em nosso nome
[307] 13:18before we even know we need them.
antes mesmo de sabermos que precisamos deles.
[308] 13:20Now there was one English author
Bom, havia um escritor inglês
[309] 13:23who anticipated this kind of future
que antecipou esse tipo de futuro
[310] 13:26where we would trade away
onde ofereceríamos
[311] 13:28our autonomy and freedom for comfort.
nossa autonomia e liberdade em troca de conforto.
[312] 13:31Even more so than George Orwell,
Mais ainda do que George Orwell,
[313] 13:33the author is, of course, Aldous Huxley.
o escritor é, obviamente, Aldous Huxley.
[315] 13:39where technologies that we created
onde as tecnologias que criamos
[316] 13:41originally for freedom
originalmente por liberdade
[317] 13:43end up coercing us.
acabam nos reprimindo.
[319] 13:50of that society, similar to the path
dessa sociedade, parecida com o caminho
[321] 13:58In the words of the Savage,
No mundo dos Selvagens,
[323] 14:03although the price to pay is steep.
porém o preço a se pagar é alto.
[325] 14:11of our times will be the fight
nossa época será a luta
[326] 14:14for the control over personal information,
pelo controle de informações pessoais,
[328] 14:20for freedom,
pela liberdade,
[330] 14:26Right now, many of us
Agora mesmo, muitos de nós
[331] 14:29do not even know that the fight is going on,
nem mesmo sabem que a luta está acontecendo,
[332] 14:31but it is, whether you like it or not.
mas ela está, quer vocês gostem ou não.
[333] 14:34And at the risk of playing the serpent,
E com o risco de fazer o papel da serpente,
[334] 14:37I will tell you that the tools for the fight
vou lhes dizer que as ferramentas para a luta
[336] 14:43and in your hands,
e em suas mãos,
[337] 14:44just a few clicks away.
só a alguns cliques de distância.
[338] 14:48Thank you.
Obrigado.
[339] 14:49(Applause)
(Aplausos)