Qualquer usuário do
Facebook já percebeu que nem todas as novidades dos amigos ou
atualizações das páginas curtidas aparecem na linha do tempo. Enquanto dezenas
de teorias responsabilizam a rede social e seu algoritmo por isso, que
censurariam parte do conteúdo, o verdadeiro responsável por essa seleção seria
o próprio usuário.
De acordo com um
estudo publicado na revista "Science" por três pesquisadores da
Universidade de Michigan que são funcionários do Facebook, é a própria pessoa
quem acaba selecionando, a partir de suas interações na rede social, os
conteúdos que aparecem para ela na rede social. Com isso, ela evitaria se expor
a temas que vão contra seu pensamento e suas ideias.
Como a plataforma
pretende mostrar cada vez mais aquilo que o usuário deseja ver, isso poderia
gerar uma "bolha" ideológica no Facebook, em que dificilmente alguém
seria exposto a opiniões diferentes. Se isso acontece ou não, diz o estudo, a
responsável seria a própria pessoa — e não o site.
No ano passado, a
pesquisa analisou mais de 10 milhões de perfis, o viés ideológico e a
preferência política de cada um, assim como as notícias compartilhadas por
eles, e cruzou com a informação de quais conteúdos apareceram em suas linhas do
tempo.
A conclusão é que a
escolha individual seria mais importante do que o código do site na hora de
limitar a exposição a conteúdos que desagradariam o usuário.
O algoritmo do Facebook que
define o que aparece na linha do tempo seria responsável por uma mudança de 1%
na proporção de notícias que desafiariam as crenças dos usuários. Já as
escolhas pessoais, por sua vez, produziriam uma mudança de quatro pontos
percentuais nessa proporção.
Fonte: Folha de São Paulo