Alterar formato do vídeo:Ocultar legendas incorporadasTela 21:9 (Cinema) |
Alterar modo de reproduçãoModo atual: Tocar e PausarTocar normalmente |
[1] 00:15Mark Zuckerberg,
Tradutor: Miguel Rodrigues Revisora: Ana Sofia Pinho
[3] 00:20And the journalist was asking him,
sobre o "feed" de notícias.
[4] 00:22"Why is this so important?"
e o jornalista perguntou-lhe:
[5] 00:24And Zuckerberg said,
"Porque é que isso é tão importante?"
[6] 00:26"A squirrel dying in your front yard
Ao que Zuckerberg respondeu:
[7] 00:28may be more relevant to your interests right now
"Um esquilo a morrer no nosso quintal
[9] 00:34And I want to talk about
"do que pessoas a morrer em África."
[11] 00:40So when I was growing up
de uma web baseada nesta ideia de relevância.
[12] 00:42in a really rural area in Maine,
À medida que fui crescendo numa zona rural em Maine
[14] 00:47It meant a connection to the world.
Significava uma ligação ao mundo.
[17] 00:55and for our society.
e para a nossa sociedade.
[18] 00:58But there's this shift
Mas houve uma mudança
[19] 01:00in how information is flowing online,
na forma como as informações circulam online,
[20] 01:02and it's invisible.
e são invisíveis.
[21] 01:05And if we don't pay attention to it,
Se não lhe prestarmos atenção,
[22] 01:07it could be a real problem.
poderá ser um grande problema.
[24] 01:13my Facebook page.
a minha página do Facebook.
[27] 01:20I like hearing what they're thinking about;
Gosto de saber em que estão a pensar.
[28] 01:22I like seeing what they link to;
Gosto de ver em que ligações clicam.
[29] 01:24I like learning a thing or two.
Gosto de saber uma ou duas coisas.
[30] 01:26And so I was surprised when I noticed one day
Fiquei surpreendido quando um dia reparei
[32] 01:33And what it turned out was going on
O que realmente se passava
[34] 01:39and it was noticing that, actually,
e reparou que eu clicava mais
[35] 01:41I was clicking more on my liberal friends' links
nas ligações dos meus amigos liberais
[36] 01:43than on my conservative friends' links.
do que nos de amigos conservadores.
[37] 01:46And without consulting me about it,
E sem sequer me consultar sobre isso,
[38] 01:48it had edited them out.
acabou por filtrá-los.
[39] 01:50They disappeared.
Desapareceram.
[40] 01:54So Facebook isn't the only place
O Facebook não é o único sítio
[42] 01:58editing of the Web.
O Google também o faz.
[43] 02:01Google's doing it too.
Se eu pesquisar qualquer coisa e vocês também o fizerem,
[47] 02:11Even if you're logged out, one engineer told me,
há 57 sinais
[48] 02:14there are 57 signals
para os quais a Google olha
[49] 02:16that Google looks at --
- tudo, desde o tipo de computador em que nos encontramos
[50] 02:19everything from what kind of computer you're on
até que tipo de navegador utilizamos
[51] 02:22to what kind of browser you're using
até onde nos encontramos -
[52] 02:24to where you're located --
e os utiliza para personalizar os nossos resultados de pesquisa.
[53] 02:26that it uses to personally tailor your query results.
Pensem nisto por instantes.
[54] 02:29Think about it for a second:
Já não há um Google igual para todos.
[57] 02:38You can't see how different your search results are
dos de qualquer outra pessoa.
[58] 02:40from anyone else's.
Aqui há umas semanas,
[59] 02:42But a couple of weeks ago,
pedi a uns quantos amigos que pesquisassem "Egito" no Google
[61] 02:47and to send me screen shots of what they got.
Esta é a imagem do meu amigo Scott.
[62] 02:50So here's my friend Scott's screen shot.
E esta é a imagem do meu amigo Daniel.
[63] 02:54And here's my friend Daniel's screen shot.
Quando as pomos lado a lado,
[64] 02:57When you put them side-by-side,
não precisamos de ler os resultados
[65] 02:59you don't even have to read the links
para ver quão diferentes são estas duas páginas.
[66] 03:01to see how different these two pages are.
Mas quando lemos os resultados,
[67] 03:03But when you do read the links,
é de facto bastante notável.
[70] 03:12in his first page of Google results.
Os resultados do Scott estavam cheios deles.
[71] 03:14Scott's results were full of them.
Na altura, esta era a grande notícia do dia.
[73] 03:18That's how different these results are becoming.
Isto não é apenas no Google e no Facebook.
[74] 03:21So it's not just Google and Facebook either.
Isto é uma coisa que está a varrer a web.
[80] 03:39all flirting with personalization in various ways.
Isto leva-nos muito rapidamente
[81] 03:42And this moves us very quickly
na direção de um mundo em que a Internet nos mostra
[82] 03:45toward a world in which
o que ela acha que nós queremos ver,
[84] 03:51but not necessarily what we need to see.
Como disse Eric Schmidt:
[85] 03:54As Eric Schmidt said,
"Será muito difícil fazer com que as pessoas vejam ou adquiram algo
[87] 04:00that has not in some sense
Eu penso que isto é um problema.
[88] 04:02been tailored for them."
E penso que, se agarrarmos em todos estes filtros,
[89] 04:05So I do think this is a problem.
se agarrarmos em todos estes algoritmos,
[91] 04:10you take all these algorithms,
E a nossa bolha de filtros
[92] 04:12you get what I call a filter bubble.
é o nosso universo de informações pessoal e único.
[93] 04:16And your filter bubble is your own personal,
em que vivemos online.
[94] 04:19unique universe of information
O que está na nossa bolha de filtros
[95] 04:21that you live in online.
depende de quem somos e depende do que fazemos.
[96] 04:23And what's in your filter bubble
O problema é que não decidimos o que entra na bolha.
[97] 04:26depends on who you are, and it depends on what you do.
E mais importante ainda,
[98] 04:29But the thing is that you don't decide what gets in.
não vemos o que fica de fora.
[99] 04:33And more importantly,
Um dos problemas da bolha de filtros
[100] 04:35you don't actually see what gets edited out.
foi descoberto por investigadores na Netflix.
[102] 04:40was discovered by some researchers at Netflix.
em que talvez já tenham reparado.
[104] 04:46that a lot of us probably have noticed,
Vão para a fila e saem logo.
[105] 04:48which is there are some movies
Ou seja, o "Iron Man" sai logo,
[108] 04:56So "Iron Man" zips right out,
decorre uma luta épica
[109] 04:58and "Waiting for Superman"
entre a nossa pessoa, futura e aspiracional,
[110] 05:00can wait for a really long time.
e a nossa pessoa, mais impulsiva e presente.
[111] 05:02What they discovered
Todos sabemos que queremos ser
[112] 05:04was that in our Netflix queues
alguém que viu o "Rashomon",
[113] 05:06there's this epic struggle going on
mas, neste momento,
[114] 05:09between our future aspirational selves
queremos ver o "Ace Ventura" pela quarta vez.
[115] 05:12and our more impulsive present selves.
(Risos)
[116] 05:15You know we all want to be someone
Portanto, o melhor ajuste dá-nos um bocado dos dois.
[117] 05:17who has watched "Rashomon,"
Dá-nos um bocado de Justin Bieber
[118] 05:19but right now
e um bocado do Afeganistão.
[119] 05:21we want to watch "Ace Ventura" for the fourth time.
Dá-nos informações tipo vegetais,
[120] 05:24(Laughter)
e dá-nos informações tipo sobremesa.
[122] 05:29It gives us a little bit of Justin Bieber
com estes filtros personalizados,
[124] 05:33It gives us some information vegetables;
podem desequilibrar esse balanço.
[125] 05:35it gives us some information dessert.
Em vez de uma dieta equilibrada de informações ,
[126] 05:38And the challenge with these kinds of algorithmic filters,
podemos encontrar-nos rodeados
[127] 05:40these personalized filters,
de informações tipo "comida de plástico".
[128] 05:42is that, because they're mainly looking
O que isto sugere
[129] 05:44at what you click on first,
é que podemos ficar com uma ideia errada da Internet.
[130] 05:48it can throw off that balance.
Numa sociedade difundida
[132] 05:55you can end up surrounded
numa sociedade difundida,
[133] 05:57by information junk food.
havia os porteiros, os editores,
[134] 05:59What this suggests
que controlavam os fluxos de informações.
[136] 06:04In a broadcast society --
e permitiu-nos ligar uns aos outros,
[137] 06:06this is how the founding mythology goes --
o que era ótimo.
[138] 06:08in a broadcast society,
Mas, na verdade, não é o que acontece neste momento.
[139] 06:10there were these gatekeepers, the editors,
O que estamos a ver é antes a passagem do facho
[140] 06:12and they controlled the flows of information.
dos porteiros humanos
[142] 06:18and it allowed all of us to connect together,
O problema é que os algoritmos
[143] 06:20and it was awesome.
ainda não têm incorporada
[146] 06:29from human gatekeepers
se vão decidir o que podemos ver e o que não podemos ver,
[147] 06:31to algorithmic ones.
então temos que ter a certeza
[148] 06:34And the thing is that the algorithms
que não estão apenas ligados à relevância.
[150] 06:40that the editors did.
que são desconfortáveis ou desafiadoras ou importantes
[151] 06:43So if algorithms are going to curate the world for us,
- é isto o que o TED faz -
[153] 06:49then we need to make sure
E o problema é que já passámos por isto
[154] 06:51that they're not just keyed to relevance.
enquanto sociedade.
[157] 06:59this is what TED does --
Depois as pessoas repararam
[158] 07:01other points of view.
que eles estavam a fazer uma coisa muito importante.
[160] 07:05as a society.
se os cidadãos não obtivessem um bom fluxo de informações.
[162] 07:11about their civic responsibilities.
e aí desenvolveu-se a ética do jornalismo.
[163] 07:14Then people noticed
Não era perfeita,
[165] 07:19That, in fact, you couldn't have
Portanto agora,
[166] 07:21a functioning democracy
é como se voltássemos a 1915, na web.
[167] 07:23if citizens didn't get a good flow of information,
É preciso que estes novos porteiros
[169] 07:31and then journalistic ethics developed.
no código daquilo que estão a escrever.
[170] 07:33It wasn't perfect,
Eu sei que há aqui bastantes pessoas do Facebook e do Google
[171] 07:35but it got us through the last century.
- Larry e Sergey -
[172] 07:38And so now,
pessoas que ajudaram a construir a web tal como é
[173] 07:40we're kind of back in 1915 on the Web.
- e eu estou grato por isso.
[174] 07:44And we need the new gatekeepers
Mas precisamos que vocês tenham a certeza
[175] 07:47to encode that kind of responsibility
de que estes algoritmos tenham neles inscritos
[178] 07:54Larry and Sergey --
de que são suficientemente transparentes
[179] 07:56people who have helped build the Web as it is,
para conseguirmos ver quais são as regras
[180] 07:58and I'm grateful for that.
que determinam o que é que passa através dos nossos filtros.
[181] 08:00But we really need you to make sure
Precisamos que nos deem algum controlo,
[183] 08:06a sense of the public life, a sense of civic responsibility.
Porque eu acho que precisamos
[184] 08:09We need you to make sure that they're transparent enough
que a Internet seja aquela coisa
[185] 08:12that we can see what the rules are
que todos nós sonhávamos que era.
[187] 08:17And we need you to give us some control
Precisamos que nos dê a conhecer novas ideias
[188] 08:19so that we can decide
e novas pessoas e diferentes perspetivas.
[189] 08:21what gets through and what doesn't.
E não vai fazer isso
[190] 08:24Because I think
se nos deixar a todos isolados na web de um só.
[191] 08:26we really need the Internet to be that thing
Obrigado.
[192] 08:28that we all dreamed of it being.
(Aplausos)
[193] 08:30We need it to connect us all together.
--193--
[194] 08:33We need it to introduce us to new ideas
--194--
[195] 08:36and new people and different perspectives.
--195--
[196] 08:40And it's not going to do that
--196--
[197] 08:42if it leaves us all isolated in a Web of one.
--197--