Disciplina: Ambientes Virtuais de aprendizagem
Aluna: Letícia Pereira Rodrigues de Jesus
Matrícula: 22250134
DISCURSO DE ÓDIO NAS REDES: UM PROBLEMA EMERGENTE E PERSISTENTE
Plataformas de mídia social enfrentam dificuldades na detecção e no controle desse tipo de discurso, pois ele pode assumir diferentes formas, como comentários diretos, memes ou vídeos que contenham mensagens de ódio sutis. Além disso, usuários frequentemente utilizam abreviações, códigos ou figuras de linguagem que burlam as barreiras automatizadas, dificultando a identificação precisa. A pressão para conter esses conteúdos prejudiciais fez com que as empresas de tecnologia recorressem à IA para monitorar, identificar e remover esse tipo de material de forma eficiente.
O PAPEL DA IA NA MODERAÇÃO DO DISCURSO DE ÓDIO: EFICIÊNCIA E LIMITAÇÕES
A inteligência artificial tem um papel essencial no combate ao discurso de ódio online. Algoritmos de IA são capazes de processar milhões de dados em tempo real, ajudando a detectar conteúdos inapropriados e impedindo sua disseminação. Plataformas como o TikTok relataram um aumento de mais de 2500% na remoção de conteúdos problemáticos graças ao uso de IA. A capacidade da IA de escanear, categorizar e sinalizar conteúdos é inigualável em termos de velocidade e volume, permitindo uma resposta quase instantânea a conteúdos sensíveis.
No entanto, a IA enfrenta limitações ao lidar com nuances e contextos culturais e linguísticos. O discurso de ódio muitas vezes utiliza referências culturais, ironia ou sarcasmo, elementos que passam despercebidos pelos algoritmos. Palavras e frases usadas em um contexto irônico podem ser interpretadas como sérias pela IA, levando à remoção inadequada de conteúdos legítimos. Casos recentes exemplificam esses desafios: conteúdos educativos e de saúde, como postagens sobre amamentação, foram rotulados como impróprios, assim como mensagens de minorias que ressignificam termos considerados ofensivos.
Além disso, a IA ainda enfrenta obstáculos quando os usuários adotam estratégias para driblar a tecnologia, como substituir letras em palavras ofensivas por caracteres especiais. Essa adaptação humana revela uma fragilidade do sistema automatizado e sugere que a IA ainda depende da supervisão humana para lidar com complexidades e intenções nas postagens.
O EQUILÍBRIO NECESSÁRIO ENTRE IA E MODERAÇÃO HUMANA
Moderadores de plataformas como YouTube e Meta relatam, no entanto, que seu papel mudou: muitas vezes, eles apenas validam respostas sugeridas pelo sistema automatizado. Esse processo tem gerado insatisfação e preocupações com a redução da presença humana, já que alguns moderadores se veem limitados a responder “sim” ou “não” para confirmar ou rejeitar a decisão da IA. Com isso, a qualidade do processo de moderação pode ser comprometida.
Especialistas defendem que a moderação de conteúdo necessita de um equilíbrio entre tecnologia e julgamento humano, especialmente em casos culturalmente sensíveis ou que envolvem figuras de linguagem. Uma moderação bem-sucedida requer que plataformas invistam na capacitação de suas equipes e na criação de uma estrutura de revisão que permita uma análise contextual, complementando o trabalho dos algoritmos.
Fonte: MILAGRE DIGITAL, 2024
SOLUÇÕES PARA MELHORAR A MODERAÇÃO DO DISCURSO
- Transparência e prestação de contas: Plataformas devem manter suas práticas de moderação acessíveis e permitir que os usuários saibam como as decisões são tomadas.
- Equipes interdisciplinares e diversificadas: Envolver moderadores humanos com conhecimentos regionais e culturais para lidar com conteúdos complexos.
- Investimento contínuo em IA e adaptação contextual: A IA precisa ser constantemente aprimorada, especialmente para reconhecer nuances linguísticas, como sarcasmo e ironia, e diferentes contextos culturais.
Empresas como Meta e TikTok, cientes das falhas de seus sistemas, afirmam estar trabalhando para aprimorar suas ferramentas de IA, buscando um ponto de equilíbrio onde a tecnologia possa ser mais eficaz na detecção de conteúdos nocivos sem comprometer a liberdade de expressão.
Declaração de IA e tecnologias assistidas por IA no processo de escrita: durante a preparação deste trabalho, os autores utilizaram ferramentas de IAG (Exemplos: ChatGPT, Claude, outros) no processo de planejamento, para aperfeiçoamento do texto e melhoria da legibilidade. Após o uso destas ferramentas, os textos foram revisados, editados e o conteúdo está em conformidade com o método científico. O(s) autor(es) assume(m) total responsabilidade pelo conteúdo da publicação.
REFERÊNCIAS:
LOBATO, Gisele. "Com falhas estruturais, IA avança na moderação de conteúdo em meio a demissões em massa". Aos Fatos, 11 de julho de 2024. Disponível em: https://www.aosfatos.org/noticias/falhas-ia-moderacao-redes-sociais/. Acesso em: 1 nov. 2024.
MILAGRE DIGITAL. IA da Meta: Descubra Benefícios e Desafios na Personalização e Moderação. Disponível em: https://milagredigital.com/beneficios-desafios-ia-meta/. Acesso em: 2 nov. 2024.
SEBRAE RS. Inteligência Artificial nas Redes Sociais. Disponível em: https://digital.sebraers.com.br/blog/inovacao/inteligencia-artificial-nas-redes-sociais/. Acesso em: 2 nov. 2024.
TUDOCELULAR. Moderação de redes sociais: como funciona e por que não é perfeito? Disponível em: https://www.tudocelular.com/seguranca/noticias/n176699/moderacao-redes-sociais-funcionamento-exemplos.html. Acesso em: 2 nov. 2024.
Nenhum comentário:
Postar um comentário