Algoritmo ajuda a reduzir a diversidade ideológica das páginas, mas não é maior culpado
Usuários se fecham em suas próprias ideias, aponta estudo com 10 milhões de pessoas
Embora ainda muita gente não saiba, o Facebook
seleciona o que os usuários veem em seu mural. Um algoritmo filtra o
que é mostrado para, em princípio, dar ao usuário apenas o que mais lhe
agrada ver e não enchê-lo com informações que não lhe interessem tanto. A
dúvida é se esse algoritmo que nos conhece tão bem está nos alimentando
apenas com o que gostamos, criando uma bolha a nosso redor na
qual não entra nada que desafie nosso modo de pensar. Para dissipar
dúvidas, os cientistas sociais do Facebook publicaram na quinta-feira na
revista Science o primeiro estudo que analisa a influência dessa fórmula que manipula os murais: a bolha ideológica existe, mas é mais culpa dos próprios usuários do que da programação de Mark Zuckerberg.
Depois de estudar mais de 10 milhões de usuários e sua interação com
os links de notícias políticas, os cientistas do Facebook descobriram
que a rede social é uma caixa de ressonância para nossas próprias
ideias, com poucas janelas para o exterior. Assim, de todos os links
vistos pelas pessoas que se consideram progressistas, apenas 22%
desafiam sua forma de pensar. Os conservadores veem cerca de 33% de
notícias que não correspondem com sua ideologia.
Sem a intervenção do algoritmo, os progressistas teriam visto 24% de
notícias incômodas e, os conservadores, 35%. Ou seja, essa fórmula
idealizada nos computadores do Facebook ajuda a reduzir a diversidade
ideológica do mural dos usuários, mas não é a principal culpada. De
acordo com o estudo, os usuários são os responsáveis por se fechar em
suas próprias ideias: se não escolhessem suas amizades como o fazem, mas
de forma aleatória, os progressistas veriam cerca de 45% de notícias
contrárias às suas ideias, em comparação a 40% pelos conservadores.
Logicamente, o ambiente off line, as pessoas com as quais os
usuários se relacionam fisicamente, tampouco é aleatório. Mas é muito
mais difícil medir essa bolha ideológica na ruas do que nas redes
sociais. A vasta quantidade de informação que uma empresa como o
Facebook pode compilar sobre seus usuários (e os que não são) lhe
permite medir a tendência dos que se fecham em grupos de pensamento mais
ou menos isolados. Por exemplo, a probabilidade de clicar no mural em
uma notícia favorável às próprias ideias —um eleitor do conservador
Partido Republicano dos Estados Unidos ler uma notícia da Fox News— em
relação a uma contrária é esmagadora.
Um dos pontos fracos do estudo é que são analisados apenas os
usuários dos EUA que definiram sua posição ideológica em uma seção do
Facebook —mais fácil de ser mostrada em lados opostos—, o que gera um
viés significativo e deixa dúvidas sobre o comportamento dos usuários
que têm ideologia, mas não a selecionaram em seu perfil. Para Pablo Barberá,
que estuda a polarização das redes na Universidade de Nova York, os
usuários estudados provavelmente têm uma rede de contatos mais homogênea
no Facebook: “Se o estudo tivesse incluído todos os usuários,
certamente observaríamos níveis ainda mais altos de exposição à
diversidade de opiniões e um efeito maior dos algoritmos”.
especialista em redes sociais da Universidade Carlos III. “O Facebook
tem um problema de imagem, por causa dos algoritmos que filtram a
informação que vemos e queria demonstrar que o filtro algorítmico não
tem tanta influência como o filtro social”, resume o pesquisador.
Vivemos na era dos algoritmos. O que nos é mostrado nos resultados do
Google, no mural do Facebook ou em outras plataformas é decido por uma
fórmula cada vez mais complexa que seleciona o melhor para satisfazer os
interesses do usuário e da empresa. No entanto, ainda há muitos os que
pensam que veem o que existe e não o que o algoritmo acredita
que devem ver. Mas não é assim: em função da interação dos usuários com
os amigos e atividade, o Facebook define seus interesses e mostra o que
provocará mais interação, para que permaneçam mais tempo na rede e,
deste modo, gerem mais receita para a empresa.
Este ciclo de retroalimentação despertou o interesse do ativista Eli Pariser, que publicou em 2012 um livro chamado Filter Bubble (A Bolha dos Filtros),
referindo-se ao efeito do algoritmo em nossas vidas: ao buscar “Egito”
no Google, alguns usuários recebem informações sobre revoltas e, outros,
apenas sobre férias nas pirâmides, tudo em função de seu comportamento
prévio.
Em meados de 2014, o Facebook divulgou outro de seus estudos
—publicados regularmente sobre o comportamento na rede— que gerou uma
polêmica inusitada, porque revelou que manipulava emocionalmente seus usuários,
mostrando-lhes mais mensagens negativas ou positivas de seus contatos,
para verificar se havia certo contágio na forma de expressão. Em grande
parte, a polêmica surgiu porque o público descobriu que o Facebook manipula os murais e, portanto, o comportamento das pessoas.
ideológica nos EUA. Estudaram 10,1 milhões dos quase um bilhão de
usuários ativos diários registrados atualmente.
Apenas 13% dos links de notícias estudadas correspondiam a informações factuais, notícias políticas válidas para o estudo.
Dos 903 milhões de notícias vistas pelos usuários estudados, foram clicadas apenas 59 milhões de vezes.
Apenas 20% das notícias que os progressistas clicaram eram contrarias às suas ideias, comparadas aos 29% dos conservadores.
Os pesquisadores explicam que essa diferença entre progressistas e
conservadores é devido ao fato de que os usuários de esquerda são mais
propensos a compartilhar links com notícias de sua ideologia.Não é algo que faça questão de esconder, muito pelo contrário: o
Facebook gaba-se de influenciar de forma notável a participação
eleitoral em todo mundo, depois de arrastar às urnas cerca de 340.000
pessoas que não tinham intenção de votar nas legislativas dos EUA.
Nesse cenário, os cientistas da empresa comandada por Zuckerberg mostram que o contágio social ou a bolha ideológica que se forma em sua rede social é semelhante ou mais moderada à que se produz off line.
De fato, já em 2012, havia publicado um estudo que negava que a bolha
fosse tão grave, mas naquela ocasião o importante era diminuir a culpa
do algoritmo.
A pesquisa preliminar de Barberá e este estudo destacam que as redes
sociais poderiam ser um mecanismo para receber informação diferente da
habitual. “Por exemplo, um eleitor de direita que apenas vê Antena 3 e lê La Razón
[jornal ultraconservador da Espanha] poderia ser exposto pela primeira
vez a um conteúdo com um viés de esquerda compartilhado por seus
contatos no Facebook”, explica Barberá.
No entanto, esse é outro ponto fraco deste último estudo da equipe do
Facebook, como lamenta Moro, da Carlos III. “O problema é que não
compara com nada. Não podemos saber se o que ocorre é pior ou melhor
fora do Facebook.”
seleciona o que os usuários veem em seu mural. Um algoritmo filtra o
que é mostrado para, em princípio, dar ao usuário apenas o que mais lhe
agrada ver e não enchê-lo com informações que não lhe interessem tanto. A
dúvida é se esse algoritmo que nos conhece tão bem está nos alimentando
apenas com o que gostamos, criando uma bolha a nosso redor na
qual não entra nada que desafie nosso modo de pensar. Para dissipar
dúvidas, os cientistas sociais do Facebook publicaram na quinta-feira na
revista Science o primeiro estudo que analisa a influência dessa fórmula que manipula os murais: a bolha ideológica existe, mas é mais culpa dos próprios usuários do que da programação de Mark Zuckerberg.
Depois de estudar mais de 10 milhões de usuários e sua interação com
os links de notícias políticas, os cientistas do Facebook descobriram
que a rede social é uma caixa de ressonância para nossas próprias
ideias, com poucas janelas para o exterior. Assim, de todos os links
vistos pelas pessoas que se consideram progressistas, apenas 22%
desafiam sua forma de pensar. Os conservadores veem cerca de 33% de
notícias que não correspondem com sua ideologia.
Sem a intervenção do algoritmo, os progressistas teriam visto 24% de
notícias incômodas e, os conservadores, 35%. Ou seja, essa fórmula
idealizada nos computadores do Facebook ajuda a reduzir a diversidade
ideológica do mural dos usuários, mas não é a principal culpada. De
acordo com o estudo, os usuários são os responsáveis por se fechar em
suas próprias ideias: se não escolhessem suas amizades como o fazem, mas
de forma aleatória, os progressistas veriam cerca de 45% de notícias
contrárias às suas ideias, em comparação a 40% pelos conservadores.
Logicamente, o ambiente off line, as pessoas com as quais os
usuários se relacionam fisicamente, tampouco é aleatório. Mas é muito
mais difícil medir essa bolha ideológica na ruas do que nas redes
sociais. A vasta quantidade de informação que uma empresa como o
Facebook pode compilar sobre seus usuários (e os que não são) lhe
permite medir a tendência dos que se fecham em grupos de pensamento mais
ou menos isolados. Por exemplo, a probabilidade de clicar no mural em
uma notícia favorável às próprias ideias —um eleitor do conservador
Partido Republicano dos Estados Unidos ler uma notícia da Fox News— em
relação a uma contrária é esmagadora.
É um estudo na defensiva. O Facebook tem um problema de imagem e
queria demonstrar que o filtro algorítmico não tem tanta influência como
o filtro social
Esteban Moro, pesquisador
usuários dos EUA que definiram sua posição ideológica em uma seção do
Facebook —mais fácil de ser mostrada em lados opostos—, o que gera um
viés significativo e deixa dúvidas sobre o comportamento dos usuários
que têm ideologia, mas não a selecionaram em seu perfil. Para Pablo Barberá,
que estuda a polarização das redes na Universidade de Nova York, os
usuários estudados provavelmente têm uma rede de contatos mais homogênea
no Facebook: “Se o estudo tivesse incluído todos os usuários,
certamente observaríamos níveis ainda mais altos de exposição à
diversidade de opiniões e um efeito maior dos algoritmos”.
A era dos algoritmos
“É um estudo na defensiva”, explica Esteban Moro,especialista em redes sociais da Universidade Carlos III. “O Facebook
tem um problema de imagem, por causa dos algoritmos que filtram a
informação que vemos e queria demonstrar que o filtro algorítmico não
tem tanta influência como o filtro social”, resume o pesquisador.
Não é fácil saber se a bolha ideológica é maior
ou menor fora do Facebook, mas alguns estudos indicam que as redes
ajudam a diminuí-la
ou menor fora do Facebook, mas alguns estudos indicam que as redes
ajudam a diminuí-la
Google, no mural do Facebook ou em outras plataformas é decido por uma
fórmula cada vez mais complexa que seleciona o melhor para satisfazer os
interesses do usuário e da empresa. No entanto, ainda há muitos os que
pensam que veem o que existe e não o que o algoritmo acredita
que devem ver. Mas não é assim: em função da interação dos usuários com
os amigos e atividade, o Facebook define seus interesses e mostra o que
provocará mais interação, para que permaneçam mais tempo na rede e,
deste modo, gerem mais receita para a empresa.
Este ciclo de retroalimentação despertou o interesse do ativista Eli Pariser, que publicou em 2012 um livro chamado Filter Bubble (A Bolha dos Filtros),
referindo-se ao efeito do algoritmo em nossas vidas: ao buscar “Egito”
no Google, alguns usuários recebem informações sobre revoltas e, outros,
apenas sobre férias nas pirâmides, tudo em função de seu comportamento
prévio.
Em meados de 2014, o Facebook divulgou outro de seus estudos
—publicados regularmente sobre o comportamento na rede— que gerou uma
polêmica inusitada, porque revelou que manipulava emocionalmente seus usuários,
mostrando-lhes mais mensagens negativas ou positivas de seus contatos,
para verificar se havia certo contágio na forma de expressão. Em grande
parte, a polêmica surgiu porque o público descobriu que o Facebook manipula os murais e, portanto, o comportamento das pessoas.
Dados do estudo
O estudo foi realizado com usuários que informaram sua posiçãoideológica nos EUA. Estudaram 10,1 milhões dos quase um bilhão de
usuários ativos diários registrados atualmente.
Apenas 13% dos links de notícias estudadas correspondiam a informações factuais, notícias políticas válidas para o estudo.
Dos 903 milhões de notícias vistas pelos usuários estudados, foram clicadas apenas 59 milhões de vezes.
Apenas 20% das notícias que os progressistas clicaram eram contrarias às suas ideias, comparadas aos 29% dos conservadores.
Os pesquisadores explicam que essa diferença entre progressistas e
conservadores é devido ao fato de que os usuários de esquerda são mais
propensos a compartilhar links com notícias de sua ideologia.
Facebook gaba-se de influenciar de forma notável a participação
eleitoral em todo mundo, depois de arrastar às urnas cerca de 340.000
pessoas que não tinham intenção de votar nas legislativas dos EUA.
Nesse cenário, os cientistas da empresa comandada por Zuckerberg mostram que o contágio social ou a bolha ideológica que se forma em sua rede social é semelhante ou mais moderada à que se produz off line.
De fato, já em 2012, havia publicado um estudo que negava que a bolha
fosse tão grave, mas naquela ocasião o importante era diminuir a culpa
do algoritmo.
A pesquisa preliminar de Barberá e este estudo destacam que as redes
sociais poderiam ser um mecanismo para receber informação diferente da
habitual. “Por exemplo, um eleitor de direita que apenas vê Antena 3 e lê La Razón
[jornal ultraconservador da Espanha] poderia ser exposto pela primeira
vez a um conteúdo com um viés de esquerda compartilhado por seus
contatos no Facebook”, explica Barberá.
No entanto, esse é outro ponto fraco deste último estudo da equipe do
Facebook, como lamenta Moro, da Carlos III. “O problema é que não
compara com nada. Não podemos saber se o que ocorre é pior ou melhor
fora do Facebook.”
fonte: Algoritmo Facebook: Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas | Tecnologia | EL PAÍS Brasil
Comentários
Postar um comentário