domingo, 8 de junho de 2025

O Algoritmo como Arquitetura Social: como as redes moldam o comportamento coletivo


Disciplina: EGC5020-09318/10316 (20251) - Redes Sociais e Virtuais
Autor: Marco Aurélio Pase Filho
Matrícula: 19203305



"Algoritmos não apenas mostram o que queremos ver, 
eles moldam o que passamos a desejar."

Você realmente escolhe o que vê nas redes?

As redes sociais virtuais se tornaram centrais no modo como vivemos, nos informamos e nos relacionamos. Mas o que muitos não percebem é que, por trás do conteúdo que aparece no nosso feed, há um mecanismo invisível moldando comportamentos: o algoritmo. Essa estrutura digital, baseada em dados e padrões de engajamento, define o que é relevante, o que viraliza — e até o que pensamos ser espontâneo.

Como os algoritmos funcionam?

Os algoritmos das redes sociais funcionam como sistemas de recomendação que priorizam conteúdos com maior probabilidade de engajamento. Curtidas, comentários, tempo de visualização e compartilhamentos alimentam esse processo. A lógica é simples: quanto mais tempo o usuário passa na plataforma, maior a receita publicitária para a empresa. Isso transforma o algoritmo em uma espécie de “curador automático” da nossa experiência online.

Segundo um estudo publicado na revista Science Advances (Guess et al., 2019), conteúdos falsos se espalham mais rápido que conteúdos verdadeiros justamente por ativarem emoções fortes — algo que os algoritmos “gostam”.

Impactos sociais e culturais

Esse mecanismo tem efeitos diretos na formação de comunidades virtuais. Em vez de ampliar horizontes, o algoritmo pode reforçar bolhas informacionais e polarizar debates. Um estudo de 2020 mostrou que, no YouTube, a própria recomendação automática pode levar usuários a conteúdos conspiratórios em questão de minutos (Ribeiro et al., 2020).

Além disso, a lógica algorítmica influencia o comportamento dos criadores de conteúdo. Para se manterem visíveis, muitos adaptam sua linguagem, imagem e até seu ritmo de fala. A consequência é uma cultura digital padronizada, onde a performance vale mais que a autenticidade — algo que o filósofo Byung-Chul Han (2018) chama de “sociedade da exposição”.

Comunidades e subversões

Apesar desses desafios, usuários têm encontrado maneiras criativas de burlar a lógica dominante. Hashtags como #BookTok e #NeurodivergentTikTok mostram que é possível formar redes de apoio, troca de experiências e aprendizado genuíno — mesmo dentro de plataformas comerciais.

Essas comunidades criam novos espaços de pertencimento e empoderamento, muitas vezes invisíveis para o olhar tradicional da mídia. Elas reforçam a ideia de que, mesmo em uma rede controlada por algoritmos, ainda há espaço para agência humana e construção coletiva.

Plataformas, responsabilidade e transparência

Diante do papel central que os algoritmos desempenham na construção da realidade digital, cresce o debate sobre a responsabilidade das plataformas que os operam. Empresas como Meta, Google e ByteDance não são apenas hospedeiras de conteúdo: são agentes que moldam o comportamento coletivo, influenciam eleições, afetam a saúde mental de milhões de usuários e determinam quais vozes ganham visibilidade.

Essa realidade tem provocado ações regulatórias ao redor do mundo. Um exemplo importante é o Digital Services Act (DSA), aprovado pela União Europeia em 2022. O DSA estabelece obrigações para grandes plataformas digitais, exigindo maior transparência sobre como os algoritmos funcionam, acesso a dados para pesquisadores e responsabilidade sobre a moderação de conteúdo.

No Brasil, o debate ainda avança de forma mais lenta. O Projeto de Lei das Fake News (PL 2630/2020), por exemplo, propõe medidas de responsabilização e dever de transparência para as redes, mas enfrenta resistência política e o lobby das big techs. Enquanto isso, os usuários continuam operando em ambientes pouco claros, guiados por lógicas que não compreendem plenamente.

A ausência de regulação efetiva reforça a importância da educação midiática. Capacitar usuários para interpretar criticamente o que consomem, entender a lógica das plataformas e desenvolver habilidades de curadoria pessoal é tão essencial quanto qualquer política pública. Afinal, a soberania digital começa com a consciência de quem está do outro lado da tela.


"Entender o algoritmo é o primeiro passo para não ser apenas 
mais um dado dentro dele."


Vídeo recomendado: The danger of social media algorithms 




Referências

CÂMARA DOS DEPUTADOS. Projeto de Lei nº 2630, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Diário da Câmara dos Deputados, Brasília, DF, 2020.

GUESS, Andrew; NAGLER, Jonathan; TUCKER, Joshua. Less than you think: prevalence and predictors of fake news dissemination on Facebook. Science Advances, Washington, v. 5, n. 1, p. eaau4586, 2019.

HAN, Byung-Chul. No enxame: perspectivas do digital. Petrópolis: Vozes, 2018.

RIBEIRO, Manoel Horta et al. Auditing radicalization pathways on YouTube. In: CONFERENCE ON FAIRNESS, ACCOUNTABILITY, AND TRANSPARENCY, 2020, Barcelona. Proceedings [...]. New York: ACM, 2020. p. 131–141.

UNIÃO EUROPEIA. Digital Services Act: ensuring a safe and accountable online environment. Bruxelas: Comissão Europeia, 2022.



Declaração de IA e tecnologias assistidas por IA no processo de escrita: Eu, Marco Aurélio Pase Filho, declaro que, na elaboração deste trabalho, utilizei a inteligência artificial ChatGPT como apoio para aprimorar o texto. Enviei ideias e trechos de minha autoria para que a IA reestruturasse, com o objetivo de melhorar a clareza, a organização e a coesão das informações. Além disso, as ferramentas foram utilizadas para automatizar tarefas como a formatação de referências conforme as normas da ABNT. Reforço que, após o uso dessas tecnologias, todo o conteúdo foi cuidadosamente revisado e editado por mim, assegurando sua adequação ao método científico. Assumo total responsabilidade pelo conteúdo final desta publicação.




Nenhum comentário:

Postar um comentário