Alterar formato do vídeo:Ocultar legendas incorporadasTela 21:9 (Cinema) |
Alterar modo de reproduçãoModo atual: Tocar normalmenteTocar e Pausar |
[2] 00:14connecting the notorious privacy incident
Gostava de vos contar uma história
[3] 00:18involving Adam and Eve,
que liga o conhecido incidente de privacidade
[4] 00:20and the remarkable shift in the boundaries
que envolveu Adão e Eva,
[5] 00:24between public and private which has occurred
e a mudança notável nas fronteiras
[6] 00:27in the past 10 years.
entre o público e o privado,
[7] 00:28You know the incident.
que ocorreu nos últimos 10 anos.
[8] 00:30Adam and Eve one day in the Garden of Eden
Vocês conhecem o incidente.
[9] 00:33realize they are naked.
Um dia, no jardim do Éden,
[10] 00:35They freak out.
Adão e Eva apercebem-se de que estão nus.
[11] 00:36And the rest is history.
Ficam doidos.
[12] 00:39Nowadays, Adam and Eve
E o resto é história.
[16] 00:48We do reveal so much more information
Hoje, revelamos "online" mais informações
[17] 00:50about ourselves online than ever before,
sobre nós próprios do que nunca.
[18] 00:54and so much information about us
Essas informações todas sobre nós
[19] 00:55is being collected by organizations now.
estão a ser recolhidas por organizações.
[20] 00:58There is much to gain and benefit
Hoje, há muito a ganhar e a beneficiar
[22] 01:03or big data,
ou seja, os metadados,
[23] 01:05but there are also complex tradeoffs that come
mas há também complexos inconvenientes,
[24] 01:08from giving away our privacy.
que advêm de abdicarmos da nossa privacidade.
[25] 01:11And my story is about these tradeoffs.
A minha história é sobre esses inconvenientes.
[28] 01:21that any personal information
quaisquer informações pessoais
[29] 01:23can become sensitive information.
podem tornar-se em informações sensíveis.
[30] 01:25Back in the year 2000, about 100 billion photos
No ano 2000, tiraram-se em todo o mundo
[31] 01:30were shot worldwide,
cerca de 100 mil milhões de fotos,
[32] 01:31but only a minuscule proportion of them
mas apenas uma proporção minúscula dessas fotos
[33] 01:34were actually uploaded online.
foram carregadas na Internet.
[34] 01:36In 2010, only on Facebook, in a single month,
Em 2010, só no Facebook, num único mês,
[35] 01:402.5 billion photos were uploaded,
foram carregadas 2500 milhões de fotos,
[36] 01:43most of them identified.
a maior parte delas identificadas.
[37] 01:45In the same span of time,
No mesmo período de tempo,
[39] 01:52improved by three orders of magnitude.
aumentou para o triplo.
[40] 01:55What happens when you combine
O que acontece quando combinamos
[41] 01:57these technologies together:
todas as tecnologias?
[42] 01:59increasing availability of facial data;
a crescente disponibilidade de dados faciais;
[44] 02:05but also cloud computing,
e também a computação em nuvem,
[45] 02:07which gives anyone in this theater
que fornece a qualquer pessoa neste teatro
[46] 02:09the kind of computational power
o tipo de poder computacional
[48] 02:12of three-letter agencies;
e a computação omnipresente,
[50] 02:16which allows my phone, which is not a supercomputer,
se ligue à Internet
[51] 02:18to connect to the Internet
e realize centenas de milhares
[52] 02:20and do there hundreds of thousands
de medições faciais em poucos segundos.
[53] 02:23of face metrics in a few seconds?
Bem, nós presumimos que o resultado
[54] 02:25Well, we conjecture that the result
desta combinação de tecnologias
[55] 02:28of this combination of technologies
será uma mudança radical
[56] 02:30will be a radical change in our very notions
nas nossas noções de privacidade e anonimato.
[57] 02:33of privacy and anonymity.
Para testar isso, fizemos uma experiência
[58] 02:35To test that, we did an experiment
no campus da Universidade de Carnegie Mellon.
[59] 02:37on Carnegie Mellon University campus.
Pedimos a estudantes, que estavam a passar,
[60] 02:39We asked students who were walking by
para participarem num estudo,
[61] 02:41to participate in a study,
e tirámos-lhes uma fotografia com uma "webcam".
[64] 02:48While they were filling out the survey,
carregámos a fotografia numa nuvem de computação
[66] 02:53and we started using a facial recognizer
para combinar essa foto com uma base de dados
[67] 02:55to match that shot to a database
de algumas centenas de milhares de imagens
[68] 02:57of some hundreds of thousands of images
que tínhamos descarregado dos perfis no Facebook.
[70] 03:03By the time the subject reached the last page
a página tinha-se alterado dinamicamente
[72] 03:10with the 10 best matching photos
que o programa de reconhecimento tinha encontrado.
[73] 03:12which the recognizer had found,
Pedimos aos participantes para indicar
[74] 03:14and we asked the subjects to indicate
se se conseguiam encontrar nas fotos.
[75] 03:16whether he or she found themselves in the photo.
Veem o indivíduo?
[76] 03:20Do you see the subject?
O computador conseguiu ver, e de facto fê-lo
[77] 03:24Well, the computer did, and in fact did so
para um em cada três participantes.
[78] 03:27for one out of three subjects.
Portanto, podemos começar com uma face anónima
[80] 03:32offline or online, and we can use facial recognition
para dar um nome a essa face anónima,
[81] 03:36to give a name to that anonymous face
graças aos dados das redes sociais.
[82] 03:38thanks to social media data.
Aqui há uns anos, fizemos outra coisa.
[83] 03:40But a few years back, we did something else.
Começámos com dados de redes sociais,
[84] 03:42We started from social media data,
que combinámos estatisticamente
[85] 03:44we combined it statistically with data
com dados da Segurança Social do governo dos EUA,
[86] 03:47from U.S. government social security,
e acabámos por prever números da segurança social,
[88] 03:52which in the United States
Percebem onde quero chegar com isto?
[89] 03:54are extremely sensitive information.
Portanto, se combinarmos os dois estudos,
[90] 03:56Do you see where I'm going with this?
a pergunta passa a ser:
[91] 03:58So if you combine the two studies together,
Podemos começar com uma face
[92] 04:01then the question becomes,
e, usando o reconhecimento facial,
[93] 04:02can you start from a face and,
encontrar um nome e informações disponíveis publicamente
[94] 04:05using facial recognition, find a name
acerca desse nome e dessa pessoa?
[95] 04:07and publicly available information
A partir dessa informação pública disponível,
[96] 04:10about that name and that person,
inferir as que não estão disponíveis,
[97] 04:12and from that publicly available information
muito mais confidenciais,
[98] 04:14infer non-publicly available information,
que poderemos relacionar com a face?
[99] 04:16much more sensitive ones
A resposta é: "Sim, podemos e fizemos".
[100] 04:18which you link back to the face?
É claro, a precisão vai ficando pior.
[101] 04:19And the answer is, yes, we can, and we did.
[27% (em 4 tentativas)]
[105] 04:29which uses the phone's internal camera
Faz em tempo real o que descrevi:
[106] 04:31to take a shot of a subject
procura uma compatibilidade, informações públicas,
[107] 04:33and then upload it to a cloud
tenta inferir informações confidenciais,
[110] 04:39trying to infer sensitive information,
É um exemplo de "realidade aumentada",
[113] 04:47an example of augmented reality,
mas apenas como validação do conceito.
[114] 04:49probably a creepy example of augmented reality.
Peguem nestas tecnologias
[116] 04:55just as a proof of concept.
Imaginem um futuro em que estranhos à nossa volta
[117] 04:57In fact, take these technologies
vão olhar para nós com os seus óculos Google
[118] 04:59and push them to their logical extreme.
ou, um dia, com as suas lentes de contacto,
[119] 05:01Imagine a future in which strangers around you
e vão usar sete ou oito dados sobre nós
[120] 05:04will look at you through their Google Glasses
para deduzir tudo o resto
[121] 05:06or, one day, their contact lenses,
que pode ser conhecida sobre nós.
[123] 05:12to infer anything else
Devemo-nos importar?
[124] 05:15which may be known about you.
Podemos querer acreditar
[125] 05:17What will this future without secrets look like?
que o futuro, com tanta riqueza de dados,
[126] 05:22And should we care?
será um futuro sem mais preconceitos,
[127] 05:24We may like to believe
mas o facto de termos tanta informação
[129] 05:29would be a future with no more biases,
Noutra experiência, apresentámos aos participantes
[132] 05:37which are more objective.
a informações engraçadas, absolutamente legais,
[133] 05:39In another experiment, we presented to our subjects
mas talvez um pouco embaraçosas,
[134] 05:42information about a potential job candidate.
que o indivíduo tinha publicado na Internet.
[135] 05:44We included in this information some references
Curiosamente, entre os participantes,
[136] 05:47to some funny, absolutely legal,
alguns tinham publicado "online" informações semelhantes,
[137] 05:50but perhaps slightly embarrassing information
outros não.
[138] 05:52that the subject had posted online.
Que grupo acham
[139] 05:54Now interestingly, among our subjects,
que avaliou mais severamente o indivíduo?
[140] 05:57some had posted comparable information,
Paradoxalmente, foi o grupo
[141] 06:00and some had not.
que tinha colocado informações semelhantes.
[142] 06:02Which group do you think
Um exemplo de dissonância moral.
[143] 06:04was more likely to judge harshly our subject?
Podem estar a pensar:
[144] 06:09Paradoxically, it was the group
"Isto não se aplica a mim,
[145] 06:10who had posted similar information,
"porque eu não tenho nada a esconder."
[146] 06:12an example of moral dissonance.
Mas, na realidade, a privacidade
[147] 06:15Now you may be thinking,
não se trata de ter coisas negativas a esconder.
[148] 06:17this does not apply to me,
Imaginem que são o diretor de Recursos Humanos
[149] 06:19because I have nothing to hide.
duma certa organização, recebem currículos,
[150] 06:21But in fact, privacy is not about
e decidem procurar mais informações sobre os candidatos.
[151] 06:23having something negative to hide.
Por isso, procuram os nomes no Google
[152] 06:27Imagine that you are the H.R. director
e, num determinado universo,
[153] 06:29of a certain organization, and you receive résumés,
encontram esta informação.
[156] 06:37and in a certain universe,
para uma entrevista seria a mesma?
[157] 06:39you find this information.
Se concordam, então não são
[161] 06:51If you think so, then you are not
e depois enviámos currículos para empresas nos EUA.
[162] 06:54like the U.S. employers who are, in fact,
Detetámos, monitorizámos
[164] 07:00We created Facebook profiles, manipulating traits,
e se agiram baseando-se nas informações
[166] 07:06and we detected, we monitored,
A discriminação acontecia a partir das redes sociais
[167] 07:07whether they were searching for our candidates,
entre candidatos com habilitações iguais.
[169] 07:12they found on social media. And they were.
que todas as nossas informações pessoais
[170] 07:14Discrimination was happening through social media
serão sempre usadas em nosso favor.
[171] 07:16for equally skilled candidates.
Mas pensem novamente. Por que razão será sempre assim?
[172] 07:19Now marketers like us to believe
Num filme que saiu há uns anos,
[175] 07:29But think again. Why should that be always the case?
e, à sua volta, aparece
[176] 07:33In a movie which came out a few years ago,
publicidade holográfica personalizada.
[177] 07:35"Minority Report," a famous scene
Esse filme passa-se em 2054,
[178] 07:38had Tom Cruise walk in a mall
daqui a cerca de 40 anos.
[179] 07:40and holographic personalized advertising
Por mais empolgante que essa tecnologia pareça,
[180] 07:44would appear around him.
subestima largamente
[182] 07:49about 40 years from now,
e a maneira como a podem usar
[184] 07:54it already vastly underestimates
Como exemplo, eis outra experiência
[186] 07:59can gather about you, and how they can use it
Imaginem que uma organização tem acesso
[188] 08:04So as an example, this is another experiment
e, através de um qualquer algoritmo,
[190] 08:09Imagine that an organization has access
Depois criam, em tempo real,
[191] 08:11to your list of Facebook friends,
um compósito facial desses dois amigos.
[192] 08:13and through some kind of algorithm
Estudos anteriores ao nosso mostram que as pessoas
[194] 08:19And then they create, in real time,
mas reagem a eles duma maneira positiva.
[197] 08:27don't recognize any longer even themselves
não será um apresentador qualquer.
[198] 08:30in facial composites, but they react
será um dos nossos amigos,
[199] 08:32to those composites in a positive manner.
e nós nem percebemos que isso está a acontecer.
[200] 08:34So next time you are looking for a certain product,
Neste momento, o problema
[203] 08:43It will be one of your friends,
funcionam como levar uma faca para um duelo de pistolas.
[204] 08:46and you will not even know that this is happening.
Um destes mecanismos é a transparência,
[205] 08:49Now the problem is that
dizer às pessoas o que vão fazer com os seus dados.
[206] 08:51the current policy mechanisms we have
Em princípio, isso é uma coisa boa.
[208] 08:57are like bringing a knife to a gunfight.
A transparência pode ser mal direcionada.
[209] 09:00One of these mechanisms is transparency,
Podem dizer às pessoas o que vão fazer,
[210] 09:03telling people what you are going to do with their data.
e, mesmo assim, incitá-las
[213] 09:12Transparency can be misdirected.
pedimos para fornecerem informações
[214] 09:16You can tell people what you are going to do,
sobre o seu comportamento no campus,
[215] 09:18and then you still nudge them to disclose
incluindo algumas questões sensíveis, como esta.
[216] 09:20arbitrary amounts of personal information.
[Alguma vez copiaram num exame?]
[217] 09:23So in yet another experiment, this one with students,
A um grupo dissemos:
[218] 09:26we asked them to provide information
"As respostas só serão vistas por outros estudantes".
[219] 09:29about their campus behavior,
A outro grupo dissemos:
[221] 09:34[Have you ever cheated in an exam?]
Transparência. Notificação. Isso resultou.
[222] 09:34Now to one group of subjects, we told them,
O primeiro grupo de participantes
[224] 09:39To another group of subjects, we told them,
Faz sentido, não faz?
[225] 09:41"Students and faculty will see your answers."
Mas depois induzimo-los em erro.
[227] 09:47in the sense that the first group of subjects
mas desta vez adicionando um atraso
[228] 09:48were much more likely to disclose than the second.
entre a altura em que lhes dissemos
[229] 09:51It makes sense, right?
como iríamos usar os dados deles
[230] 09:52But then we added the misdirection.
e a altura em que começámos a fzer as perguntas.
[232] 09:57this time adding a delay
no sentido de anular o efeito inibitório
[234] 10:02how we would use their data
Dez minutos?
[235] 10:04and the time we actually started answering the questions.
Cinco minutos?
[236] 10:09How long a delay do you think we had to add
Um minuto?
[237] 10:11in order to nullify the inhibitory effect
Que tal quinze segundos?
[239] 10:19Ten minutes?
revelassem a mesma quantidade de informações,
[240] 10:21Five minutes?
como se o segundo grupo já não se importasse
[241] 10:23One minute?
com o facto de os membros da faculdade irem ler as suas respostas.
[242] 10:25How about 15 seconds?
Tenho que reconhecer que esta palestra, até agora,
[244] 10:29disclose the same amount of information,
mas não é isso que me interessa.
[245] 10:31as if the second group now no longer cares
Quero partilhar convosco o facto
[246] 10:34for faculty reading their answers.
de que existem alternativas.
[247] 10:36Now I have to admit that this talk so far
A maneira como estamos a fazer as coisas
[248] 10:40may sound exceedingly gloomy,
não é a única maneira de as fazer
[249] 10:42but that is not my point.
e certamente também não é a melhor maneira de serem feitas.
[251] 10:46there are alternatives.
considerem se a ideia foi desenvolvida
[254] 10:54they can be done.
é já meio caminho andado para sermos capazes de nos protegermos.
[256] 11:00consider whether the game has been designed
com os benefícios dos metadados,
[257] 11:03and rigged so that they cannot care about privacy,
considerem que, nos últimos 20 anos,
[262] 11:16with the benefits of big data,
Podemos enviar "emails" que só poderão ser lidos
[263] 11:18consider that in the last 20 years,
pelo destinatário pretendido, nem mesmo pela NSA.
[267] 11:29We can browse the Internet anonymously.
É claro, estas tecnologias implicam
[268] 11:32We can send emails that can only be read
uma mudança de custos e receitas
[272] 11:45while protecting privacy.
Há uma segunda interpretação da privacidade
[273] 11:47Of course, these technologies imply a shifting
na história do jardim do Éden
[274] 11:51of cost and revenues
que não tem a ver com o facto
[275] 11:53between data holders and data subjects,
de Adão e Eva se sentirem nus e envergonhados.
[277] 11:58Which brings me back to the Garden of Eden.
em "Paraíso Perdido", de John Milton.
[279] 12:05of the story of the Garden of Eden
Eram felizes. Estavam satisfeitos.
[281] 12:09of Adam and Eve feeling naked
No momento em que comem
[282] 12:11and feeling ashamed.
o apropriadamente chamado "fruto do conhecimento",
[283] 12:13You can find echoes of this interpretation
descobrem-se a eles próprios.
[284] 12:16in John Milton's "Paradise Lost."
Tornam-se conscientes. Alcançam a autonomia.
[286] 12:23They're happy. They are satisfied.
Daí que a privacidade engloba igualmente
[287] 12:25However, they also lack knowledge
os meios e o preço a pagar pela liberdade.
[288] 12:27and self-awareness.
De novo, os publicitários dizem-nos
[289] 12:29The moment they eat the aptly named
que os metadados e as redes sociais
[290] 12:32fruit of knowledge,
não são apenas um paraíso de lucro para eles,
[291] 12:34that's when they discover themselves.
mas um Jardim do Éden para todos nós.
[292] 12:36They become aware. They achieve autonomy.
Temos um conteúdo livre.
[294] 12:43So privacy, in a way, is both the means
Mas, na verdade, dentro de poucos anos,
[295] 12:47and the price to pay for freedom.
as organizações vão saber tanto sobre nós
[296] 12:50Again, marketers tell us
que serão capazes de inferir os nossos desejos
[297] 12:53that big data and social media
antes de nós os formularmos,
[298] 12:56are not just a paradise of profit for them,
e talvez até comprar produtos em nosso nome
[299] 12:59but a Garden of Eden for the rest of us.
antes sequer de sabermos que precisamos deles.
[300] 13:02We get free content.
Existiu um autor inglês
[301] 13:03We get to play Angry Birds. We get targeted apps.
que previu este tipo de futuro
[303] 13:09will know so much about us,
ainda mais do que George Orwell,
[304] 13:10they will be able to infer our desires
O autor é, naturalmente, Aldous Huxley.
[305] 13:13before we even form them, and perhaps
Em "Admirável Mundo Novo", ele imagina uma sociedade
[306] 13:15buy products on our behalf
em que as tecnologias que criámos,
[307] 13:18before we even know we need them.
inicialmente para a liberdade,
[308] 13:20Now there was one English author
acabam por nos controlar.
[310] 13:26where we would trade away
semelhante ao caminho que Adão e Eva tiveram de seguir
[311] 13:28our autonomy and freedom for comfort.
para sair do jardim.
[312] 13:31Even more so than George Orwell,
Nas palavras da personagem Selvagem,
[313] 13:33the author is, of course, Aldous Huxley.
é possível recuperar a autonomia e a liberdade ,
[314] 13:36In "Brave New World," he imagines a society
embora o preço a pagar seja acentuado.
[316] 13:41originally for freedom
será a luta pelo controlo dessas informações pessoais,
[317] 13:43end up coercing us.
a luta sobre se os metadados vão tornar-se uma força pela liberdade,
[319] 13:50of that society, similar to the path
Neste momento, muitos de nós
[321] 13:58In the words of the Savage,
mas está, gostem ou não.
[322] 14:00regaining autonomy and freedom is possible,
Correndo o risco de fazer o papel da serpente,
[323] 14:03although the price to pay is steep.
vou dizer-vos que as ferramentas para a luta
[325] 14:11of our times will be the fight
e nas nossas mãos,
[326] 14:14for the control over personal information,
apenas a alguns cliques de distância.
[327] 14:16the fight over whether big data will become a force
Obrigado.
[328] 14:20for freedom,
(Aplausos)
[329] 14:21rather than a force which will hiddenly manipulate us.
--329--
[330] 14:26Right now, many of us
--330--
[331] 14:29do not even know that the fight is going on,
--331--
[332] 14:31but it is, whether you like it or not.
--332--
[333] 14:34And at the risk of playing the serpent,
--333--
[334] 14:37I will tell you that the tools for the fight
--334--
[335] 14:40are here, the awareness of what is going on,
--335--
[336] 14:43and in your hands,
--336--
[337] 14:44just a few clicks away.
--337--