fix bar
fix bar
fix bar
fix bar
fix bar
fix bar

Beware online \"filter bubbles\" | Eli Pariser

TED

Alterar formato do vídeo:

Ocultar legendas incorporadas

Tela 21:9 (Cinema)

Alterar modo de reprodução

Modo atual: Tocar normalmente

Tocar e Pausar

Lento Devagar Normal
Rápido
Acelerado
Frenético
 


. . .



 


. . .



 

00:00...
...

[1] 00:15Mark Zuckerberg,
Tradutor: Miguel Rodrigues Revisora: Ana Sofia Pinho

[2] 00:17a journalist was asking him a question about the news feed.
Um jornalista entrevistava Mark Zuckerberg,

[3] 00:20And the journalist was asking him,
sobre o "feed" de notícias.

[4] 00:22"Why is this so important?"
e o jornalista perguntou-lhe:

[5] 00:24And Zuckerberg said,
"Porque é que isso é tão importante?"

[6] 00:26"A squirrel dying in your front yard
Ao que Zuckerberg respondeu:

[7] 00:28may be more relevant to your interests right now
"Um esquilo a morrer no nosso quintal

[8] 00:31than people dying in Africa."
"pode ser mais relevante para os nossos interesses neste momento

[9] 00:34And I want to talk about
"do que pessoas a morrer em África."

[10] 00:36what a Web based on that idea of relevance might look like.
Eu quero falar sobre como será o aspeto

[11] 00:40So when I was growing up
de uma web baseada nesta ideia de relevância.

[12] 00:42in a really rural area in Maine,
À medida que fui crescendo numa zona rural em Maine

[13] 00:44the Internet meant something very different to me.
a Internet significava uma coisa muito diferente para mim.

[14] 00:47It meant a connection to the world.
Significava uma ligação ao mundo.

[15] 00:49It meant something that would connect us all together.
Era uma coisa que nos ligaria a todos.

[16] 00:52And I was sure that it was going to be great for democracy
E eu tinha a certeza que seria ótimo para a democracia

[17] 00:55and for our society.
e para a nossa sociedade.

[18] 00:58But there's this shift
Mas houve uma mudança

[19] 01:00in how information is flowing online,
na forma como as informações circulam online,

[20] 01:02and it's invisible.
e são invisíveis.

[21] 01:05And if we don't pay attention to it,
Se não lhe prestarmos atenção,

[22] 01:07it could be a real problem.
poderá ser um grande problema.

[23] 01:10So I first noticed this in a place I spend a lot of time --
Reparei nisto pela primeira vez num local onde passo muito tempo,

[24] 01:13my Facebook page.
a minha página do Facebook.

[25] 01:15I'm progressive, politically -- big surprise --
Sou progressista, politicamente - grande surpresa -

[26] 01:18but I've always gone out of my way to meet conservatives.
mas sempre me esforcei para conhecer conservadores.

[27] 01:20I like hearing what they're thinking about;
Gosto de saber em que estão a pensar.

[28] 01:22I like seeing what they link to;
Gosto de ver em que ligações clicam.

[29] 01:24I like learning a thing or two.
Gosto de saber uma ou duas coisas.

[30] 01:26And so I was surprised when I noticed one day
Fiquei surpreendido quando um dia reparei

[31] 01:29that the conservatives had disappeared from my Facebook feed.
que os conservadores tinham desaparecido do meu "feed" de notícias do Facebook.

[32] 01:33And what it turned out was going on
O que realmente se passava

[33] 01:35was that Facebook was looking at which links I clicked on,
era que o Facebook andava a ver em que ligações eu clicava,

[34] 01:39and it was noticing that, actually,
e reparou que eu clicava mais

[35] 01:41I was clicking more on my liberal friends' links
nas ligações dos meus amigos liberais

[36] 01:43than on my conservative friends' links.
do que nos de amigos conservadores.

[37] 01:46And without consulting me about it,
E sem sequer me consultar sobre isso,

[38] 01:48it had edited them out.
acabou por filtrá-los.

[39] 01:50They disappeared.
Desapareceram.

[40] 01:54So Facebook isn't the only place
O Facebook não é o único sítio

[41] 01:56that's doing this kind of invisible, algorithmic
a fazer este tipo de edição da web - invisível, algorítmica.

[42] 01:58editing of the Web.
O Google também o faz.

[43] 02:01Google's doing it too.
Se eu pesquisar qualquer coisa e vocês também o fizerem,

[44] 02:03If I search for something, and you search for something,
mesmo agora, exatamente ao mesmo tempo,

[45] 02:06even right now at the very same time,
é possível que obtenhamos resultados de pesquisa muito diferentes.

[46] 02:08we may get very different search results.
Mesmo que estejam desligados - disse-me um engenheiro -

[47] 02:11Even if you're logged out, one engineer told me,
há 57 sinais

[48] 02:14there are 57 signals
para os quais a Google olha

[49] 02:16that Google looks at --
- tudo, desde o tipo de computador em que nos encontramos

[50] 02:19everything from what kind of computer you're on
até que tipo de navegador utilizamos

[51] 02:22to what kind of browser you're using
até onde nos encontramos -

[52] 02:24to where you're located --
e os utiliza para personalizar os nossos resultados de pesquisa.

[53] 02:26that it uses to personally tailor your query results.
Pensem nisto por instantes.

[54] 02:29Think about it for a second:
Já não há um Google igual para todos.

[55] 02:31there is no standard Google anymore.
A piada disto está no facto de que é difícil de se ver.

[56] 02:35And you know, the funny thing about this is that it's hard to see.
Não temos a noção de que os nossos resultados são diferentes

[57] 02:38You can't see how different your search results are
dos de qualquer outra pessoa.

[58] 02:40from anyone else's.
Aqui há umas semanas,

[59] 02:42But a couple of weeks ago,
pedi a uns quantos amigos que pesquisassem "Egito" no Google

[60] 02:44I asked a bunch of friends to Google "Egypt"
e me mandassem uma imagem do seu ecrã com os resultados da pesquisa.

[61] 02:47and to send me screen shots of what they got.
Esta é a imagem do meu amigo Scott.

[62] 02:50So here's my friend Scott's screen shot.
E esta é a imagem do meu amigo Daniel.

[63] 02:54And here's my friend Daniel's screen shot.
Quando as pomos lado a lado,

[64] 02:57When you put them side-by-side,
não precisamos de ler os resultados

[65] 02:59you don't even have to read the links
para ver quão diferentes são estas duas páginas.

[66] 03:01to see how different these two pages are.
Mas quando lemos os resultados,

[67] 03:03But when you do read the links,
é de facto bastante notável.

[68] 03:05it's really quite remarkable.
O Daniel não obteve absolutamente nada sobre os protestos no Egito

[69] 03:09Daniel didn't get anything about the protests in Egypt at all
na sua primeira página de resultados no Google.

[70] 03:12in his first page of Google results.
Os resultados do Scott estavam cheios deles.

[71] 03:14Scott's results were full of them.
Na altura, esta era a grande notícia do dia.

[72] 03:16And this was the big story of the day at that time.
Isto é o quão diferente estão a ficar estes resultados.

[73] 03:18That's how different these results are becoming.
Isto não é apenas no Google e no Facebook.

[74] 03:21So it's not just Google and Facebook either.
Isto é uma coisa que está a varrer a web.

[75] 03:24This is something that's sweeping the Web.
Há uma série de empresas que estão a fazer este tipo de personalização.

[76] 03:26There are a whole host of companies that are doing this kind of personalization.
A Yahoo News, o maior site de notícias na Internet,

[77] 03:29Yahoo News, the biggest news site on the Internet,
é agora personalizado - pessoas diferentes obtêm resultados diferentes.

[78] 03:32is now personalized -- different people get different things.
O Huffington Post, o Washington Post, o New York Times

[79] 03:36Huffington Post, the Washington Post, the New York Times --
- todos a namoriscar a personalização de diferentes maneiras.

[80] 03:39all flirting with personalization in various ways.
Isto leva-nos muito rapidamente

[81] 03:42And this moves us very quickly
na direção de um mundo em que a Internet nos mostra

[82] 03:45toward a world in which
o que ela acha que nós queremos ver,

[83] 03:47the Internet is showing us what it thinks we want to see,
mas não necessariamente aquilo que temos de ver.

[84] 03:51but not necessarily what we need to see.
Como disse Eric Schmidt:

[85] 03:54As Eric Schmidt said,
"Será muito difícil fazer com que as pessoas vejam ou adquiram algo

[86] 03:57"It will be very hard for people to watch or consume something
"que não foi de alguma forma feito para elas."

[87] 04:00that has not in some sense
Eu penso que isto é um problema.

[88] 04:02been tailored for them."
E penso que, se agarrarmos em todos estes filtros,

[89] 04:05So I do think this is a problem.
se agarrarmos em todos estes algoritmos,

[90] 04:07And I think, if you take all of these filters together,
ficamos com aquilo a que eu chamo uma "bolha de filtros".

[91] 04:10you take all these algorithms,
E a nossa bolha de filtros

[92] 04:12you get what I call a filter bubble.
é o nosso universo de informações pessoal e único.

[93] 04:16And your filter bubble is your own personal,
em que vivemos online.

[94] 04:19unique universe of information
O que está na nossa bolha de filtros

[95] 04:21that you live in online.
depende de quem somos e depende do que fazemos.

[96] 04:23And what's in your filter bubble
O problema é que não decidimos o que entra na bolha.

[97] 04:26depends on who you are, and it depends on what you do.
E mais importante ainda,

[98] 04:29But the thing is that you don't decide what gets in.
não vemos o que fica de fora.

[99] 04:33And more importantly,
Um dos problemas da bolha de filtros

[100] 04:35you don't actually see what gets edited out.
foi descoberto por investigadores na Netflix.

[101] 04:38So one of the problems with the filter bubble
Estavam a ver as filas na Netflix e repararam numa coisa com piada

[102] 04:40was discovered by some researchers at Netflix.
em que talvez já tenham reparado.

[103] 04:43And they were looking at the Netflix queues, and they noticed something kind of funny
Há certos filmes que entram e saem logo de nossa casa

[104] 04:46that a lot of us probably have noticed,
Vão para a fila e saem logo.

[105] 04:48which is there are some movies
Ou seja, o "Iron Man" sai logo,

[106] 04:50that just sort of zip right up and out to our houses.
e o "Waiting for Superman" pode esperar muito tempo.

[107] 04:53They enter the queue, they just zip right out.
Descobriram que, nas nossas filas da Netflix,

[108] 04:56So "Iron Man" zips right out,
decorre uma luta épica

[109] 04:58and "Waiting for Superman"
entre a nossa pessoa, futura e aspiracional,

[110] 05:00can wait for a really long time.
e a nossa pessoa, mais impulsiva e presente.

[111] 05:02What they discovered
Todos sabemos que queremos ser

[112] 05:04was that in our Netflix queues
alguém que viu o "Rashomon",

[113] 05:06there's this epic struggle going on
mas, neste momento,

[114] 05:09between our future aspirational selves
queremos ver o "Ace Ventura" pela quarta vez.

[115] 05:12and our more impulsive present selves.
(Risos)

[116] 05:15You know we all want to be someone
Portanto, o melhor ajuste dá-nos um bocado dos dois.

[117] 05:17who has watched "Rashomon,"
Dá-nos um bocado de Justin Bieber

[118] 05:19but right now
e um bocado do Afeganistão.

[119] 05:21we want to watch "Ace Ventura" for the fourth time.
Dá-nos informações tipo vegetais,

[120] 05:24(Laughter)
e dá-nos informações tipo sobremesa.

[121] 05:27So the best editing gives us a bit of both.
O problema com este tipo de filtros algorítmicos,

[122] 05:29It gives us a little bit of Justin Bieber
com estes filtros personalizados,

[123] 05:31and a little bit of Afghanistan.
é que, devido ao facto de estarem a olhar para o que se clica primeiro,

[124] 05:33It gives us some information vegetables;
podem desequilibrar esse balanço.

[125] 05:35it gives us some information dessert.
Em vez de uma dieta equilibrada de informações ,

[126] 05:38And the challenge with these kinds of algorithmic filters,
podemos encontrar-nos rodeados

[127] 05:40these personalized filters,
de informações tipo "comida de plástico".

[128] 05:42is that, because they're mainly looking
O que isto sugere

[129] 05:44at what you click on first,
é que podemos ficar com uma ideia errada da Internet.

[130] 05:48it can throw off that balance.
Numa sociedade difundida

[131] 05:52And instead of a balanced information diet,
- é assim que funciona a mitologia de fundação -

[132] 05:55you can end up surrounded
numa sociedade difundida,

[133] 05:57by information junk food.
havia os porteiros, os editores,

[134] 05:59What this suggests
que controlavam os fluxos de informações.

[135] 06:01is actually that we may have the story about the Internet wrong.
Entretanto, veio a Internet, varreu-os para fora do seu caminho,

[136] 06:04In a broadcast society --
e permitiu-nos ligar uns aos outros,

[137] 06:06this is how the founding mythology goes --
o que era ótimo.

[138] 06:08in a broadcast society,
Mas, na verdade, não é o que acontece neste momento.

[139] 06:10there were these gatekeepers, the editors,
O que estamos a ver é antes a passagem do facho

[140] 06:12and they controlled the flows of information.
dos porteiros humanos

[141] 06:15And along came the Internet and it swept them out of the way,
para os porteiros algorítmicos.

[142] 06:18and it allowed all of us to connect together,
O problema é que os algoritmos

[143] 06:20and it was awesome.
ainda não têm incorporada

[144] 06:22But that's not actually what's happening right now.
o tipo de ética que os editores tinham.

[145] 06:26What we're seeing is more of a passing of the torch
Portanto, se são os algoritmos que vão filtrar o mundo por nós,

[146] 06:29from human gatekeepers
se vão decidir o que podemos ver e o que não podemos ver,

[147] 06:31to algorithmic ones.
então temos que ter a certeza

[148] 06:34And the thing is that the algorithms
que não estão apenas ligados à relevância.

[149] 06:37don't yet have the kind of embedded ethics
Temos que ter a certeza que também nos mostram coisas

[150] 06:40that the editors did.
que são desconfortáveis ou desafiadoras ou importantes

[151] 06:43So if algorithms are going to curate the world for us,
- é isto o que o TED faz -

[152] 06:46if they're going to decide what we get to see and what we don't get to see,
outros pontos de vista.

[153] 06:49then we need to make sure
E o problema é que já passámos por isto

[154] 06:51that they're not just keyed to relevance.
enquanto sociedade.

[155] 06:54We need to make sure that they also show us things
Em 1915, os jornais não se preocupavam muito

[156] 06:56that are uncomfortable or challenging or important --
com as suas responsabilidades cívicas.

[157] 06:59this is what TED does --
Depois as pessoas repararam

[158] 07:01other points of view.
que eles estavam a fazer uma coisa muito importante.

[159] 07:03And the thing is, we've actually been here before
Que, de facto, não era possível ter uma democracia funcional

[160] 07:05as a society.
se os cidadãos não obtivessem um bom fluxo de informações.

[161] 07:08In 1915, it's not like newspapers were sweating a lot
Que os jornais eram críticos, porque estavam a agir como filtro,

[162] 07:11about their civic responsibilities.
e aí desenvolveu-se a ética do jornalismo.

[163] 07:14Then people noticed
Não era perfeita,

[164] 07:16that they were doing something really important.
mas foi com ela que passámos o século passado.

[165] 07:19That, in fact, you couldn't have
Portanto agora,

[166] 07:21a functioning democracy
é como se voltássemos a 1915, na web.

[167] 07:23if citizens didn't get a good flow of information,
É preciso que estes novos porteiros

[168] 07:28that the newspapers were critical because they were acting as the filter,
inscrevam esse tipo de responsabilidade

[169] 07:31and then journalistic ethics developed.
no código daquilo que estão a escrever.

[170] 07:33It wasn't perfect,
Eu sei que há aqui bastantes pessoas do Facebook e do Google

[171] 07:35but it got us through the last century.
- Larry e Sergey -

[172] 07:38And so now,
pessoas que ajudaram a construir a web tal como é

[173] 07:40we're kind of back in 1915 on the Web.
- e eu estou grato por isso.

[174] 07:44And we need the new gatekeepers
Mas precisamos que vocês tenham a certeza

[175] 07:47to encode that kind of responsibility
de que estes algoritmos tenham neles inscritos

[176] 07:49into the code that they're writing.
um sentido de vida pública, um sentido de responsabilidade cívica.

[177] 07:51I know that there are a lot of people here from Facebook and from Google --
Precisamos que vocês tenham a certeza

[178] 07:54Larry and Sergey --
de que são suficientemente transparentes

[179] 07:56people who have helped build the Web as it is,
para conseguirmos ver quais são as regras

[180] 07:58and I'm grateful for that.
que determinam o que é que passa através dos nossos filtros.

[181] 08:00But we really need you to make sure
Precisamos que nos deem algum controlo,

[182] 08:03that these algorithms have encoded in them
para podermos decidir o que passa e o que não passa.

[183] 08:06a sense of the public life, a sense of civic responsibility.
Porque eu acho que precisamos

[184] 08:09We need you to make sure that they're transparent enough
que a Internet seja aquela coisa

[185] 08:12that we can see what the rules are
que todos nós sonhávamos que era.

[186] 08:14that determine what gets through our filters.
Precisamos que nos ligue todos uns aos outros.

[187] 08:17And we need you to give us some control
Precisamos que nos dê a conhecer novas ideias

[188] 08:19so that we can decide
e novas pessoas e diferentes perspetivas.

[189] 08:21what gets through and what doesn't.
E não vai fazer isso

[190] 08:24Because I think
se nos deixar a todos isolados na web de um só.

[191] 08:26we really need the Internet to be that thing
Obrigado.

[192] 08:28that we all dreamed of it being.
(Aplausos)

[193] 08:30We need it to connect us all together.
--193--

[194] 08:33We need it to introduce us to new ideas
--194--

[195] 08:36and new people and different perspectives.
--195--

[196] 08:40And it's not going to do that
--196--

[197] 08:42if it leaves us all isolated in a Web of one.
--197--

[198] 08:45Thank you.
--198--

[199] 08:47(Applause)
--199--