Ir para o conteúdo PET Sistemas de Informação Ir para o menu PET Sistemas de Informação Ir para a busca no site PET Sistemas de Informação Ir para o rodapé PET Sistemas de Informação
  • International
  • Acessibilidade
  • Sítios da UFSM
  • Área restrita

Aviso de Conectividade Saber Mais

Início do conteúdo

Influência dos algoritmos de recomendação no comportamentodos usuários



Os algoritmos de recomendação passaram a atuar como um mecanismo automatizado de seleção de conteúdo no cotidiano digital. Em vez de vermos conteúdos apenas na ordem em que foram publicados, muitas plataformas organizam o feed com base no que tende a prender nossa atenção. Esse detalhe muda a experiência de navegação, fazendo com que o usuário não escolha apenas entre opções prontas, mas passe a interagir com um sistema que aprende seus padrões e apresenta conteúdos semelhantes aos que já geraram engajamento.

Uma consequência direta é a forma como esses sistemas moldam hábitos de consumo de informação. Em redes sociais, por exemplo, parte do que a pessoa lê depende dos amigos e páginas que segue, mas também do filtro algorítmico aplicado depois disso. No estudo “Exposure to ideologically diverse news and opinion on Facebook”, os autores analisaram dados de milhões de usuários e observaram que tanto a rede de amizades (homofilia) quanto o ranqueamento do feed reduzem a exposição a conteúdos ideologicamente divergentes, embora por mecanismos diferentes. Em paralelo, ao investigar históricos de navegação, o trabalho “Filter Bubbles, Echo Chambers, and Online News Consumption” encontrou evidências de que redes sociais e mecanismos de busca podem estar associados a uma maior segregação ideológica no consumo de notícias, contribuindo para ambientes em que visões diferentes circulam menos entre grupos.

Esse cenário se conecta ao debate sobre “bolhas” e polarização, mas com um cuidado importante: ver o outro lado não garante diálogo e, em alguns casos, pode produzir o efeito oposto. No experimento de campo realizado no X (antigo Twitter), intitulado “Exposure to opposing views on social media can increase political polarization”, participantes foram incentivados a seguir bots que retuitavam mensagens associadas a posições políticas divergentes das suas, e os autores encontraram evidências de aumento da polarização em parte dos usuários, sugerindo que a simples exposição a visões opostas pode reforçar identidades políticas e desencadear reações defensivas. Além disso, há evidências de que a ordenação algorítmica do conteúdo não é neutra, podendo influenciar a visibilidade e a circulação de conteúdos políticos. Ao analisar a diferença entre feeds ranqueados, o estudo “Algorithmic amplification of politics on Twitter” mostra que a ordenação algorítmica pode influenciar a circulação de conteúdos políticos, afetando o ambiente informacional em que o debate ocorre.

Um ponto que ajuda a entender por que isso se sustenta ao longo do tempo é o efeito de retroalimentação. Conforme o algoritmo aprende com o que o usuário consome, ele tende a oferecer mais do mesmo, e isso influencia as próximas escolhas do próprio usuário. O resultado pode ser um caminho cada vez mais estreito de conteúdos e preferências, porque o sistema “educa” o comportamento que ele mesmo irá medir depois. Esse tipo de ciclo é discutido no estudo “How Algorithmic Confounding in Recommendation Systems Increases Homogeneity and Decreases Utility”, que mostra como recomendações podem aumentar a homogeneidade do que é consumido e produzir vieses na própria avaliação do sistema.

Além do que aparece no feed, a forma como o conteúdo é apresentado também pesa. Na revisão “Addictive Features of Social Media/Messenger Platforms and Freemium Games against the Background of Psychological and Economic Theories”, os autores descrevem como elementos de design como rolagem infinita, notificações e mecanismos de recompensa intermitente podem prolongar o tempo de uso e reforçar o hábito de checar o aplicativo repetidamente. Nesse contexto, a influência dos algoritmos vai além de recomendar “o que você gosta”. Ela contribui para a criação de rotinas de atenção.

Esse conjunto de dinâmicas aponta para um funcionamento dos sistemas de recomendação que ultrapassa a personalização individual e se aproxima de um processo coletivo de coordenação informacional. A ideia de hive mind, presente na série Stranger Things, oferece uma analogia pertinente: indivíduos distintos, embora separados, respondem a estímulos semelhantes e passam a agir de forma sincronizada. De maneira análoga, a distribuição algorítmica de conteúdos pode levar grandes grupos de usuários a compartilhar repertórios informacionais parecidos, reforçando padrões de atenção, interpretação e comportamento. Nesse cenário, a influência dos algoritmos se manifesta não apenas no nível individual, mas na própria configuração do espaço público digital.

Autor: Renan Bordignon Poy

REFERÊNCIAS:

BAKSHY, E.; MESSING, S.; ADAMIC, L. A. Exposure to ideologically diverse newsand opinion on Facebook. Science, v. 348, n. 6239, p. 1130–1132, 2015.

FLAXMAN, S.; GOEL, S.; RAO, J. M. Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly, v. 80, S1, p. 298–320, 2016.

BAIL, C. A. et al. Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences (PNAS), v. 115, n. 37, p. 9216–9221, 2018.

HUSZÁR, F. et al. Algorithmic amplification of politics on Twitter. Proceedings of the National Academy of Sciences (PNAS), v. 119, n. 1, e2025334119, 2022.

CHANEY, A. J. B.; STEWART, B. M.; ENGELHARDT, B. E. How algorithmic confounding in recommendation systems increases homogeneity and decreases utility. In: Proceedings of the 12th ACM Conference on Recommender Systems (RecSys ’18). ACM, 2018.

MONTAG, C.; LACHMANN, B.; HERRLICH, M.; ZWEIG, K. Addictive features of social media/messenger platforms and freemium games against the background of psychological and economic theories. International Journal of Environmental Research and Public Health, v. 16, n. 14, 2019.

Divulgue este conteúdo:
https://ufsm.br/r-791-3669

Publicações Recentes