Um estudo inovador de 12 de agosto de 2025 revela que a toxicidade das redes sociais não é apenas uma falha nos algoritmos — ela está incorporada à própria estrutura das plataformas online. Conduzido por Petter Törnberg na Universidade de Amesterdão, o experimento utilizou 500 chatbots de IA, alimentados por GPT-4o mini, para simular utilizadores norte-americanos com visões políticas diversas interagindo em uma rede social personalizada, sem anúncios e sem algoritmos. Os resultados? Polarização e hostilidade surgiram naturalmente, sugerindo que corrigir as redes sociais requer uma reformulação completa de como a comunicação online funciona. Veja o que o estudo revelou e por que isso é importante.
Bots de IA revelam falhas inerentes
A equipa de Törnberg criou uma sandbox digital imitando as divisões políticas dos EUA, com base na Pesquisa Nacional de Estudos Eleitorais Americanos, de acordo com a New Scientist. Os 500 bots de IA, representando um espectro de crenças, publicaram e reagiram a conteúdos em uma plataforma básica, sem algoritmos, anúncios ou influências externas. Apesar da configuração neutra, os bots rapidamente formaram câmaras de eco, amplificaram a retórica divisiva e entraram em conflito agressivo — espelhando tópicos reais do X ou do Reddit. Na segunda semana, 60% das interações eram hostis, com os bots reforçando as suas próprias opiniões, de acordo com os dados do estudo. Curioso para saber por que as redes sociais parecem tão tóxicas? Não é apenas o código — somos nós.
Por que os algoritmos não são os únicos culpados
Plataformas de redes sociais como o X ou o Facebook frequentemente culpam os algoritmos por amplificar a indignação, mas este estudo mostra que o problema é mais profundo. Sem algoritmos, os bots ainda gravitavam em torno de grupos com ideias semelhantes, criando grupos polarizados — 80% das conexões formadas dentro de linhas ideológicas, de acordo com o estudo. Comportamentos semelhantes aos humanos, como buscar validação ou reagir à provocação, geravam conflitos naturalmente. As publicações no X ecoam isso, com os utilizadores observando como os debates se intensificam mesmo em espaços não moderados. Quer resolver a divisão? Ajustar algoritmos não será suficiente quando a dinâmica de grupo alimenta o fogo.
O papel da natureza humana
A experiência destaca como as redes sociais refletem as tendências humanas. Os bots, treinados com dados do mundo real, replicaram o tribalismo e o viés de confirmação, com 70% das suas publicações reforçando crenças pré-existentes, de acordo com a New Scientist. Isso está alinhado com a pesquisa do MIT, que mostra que os humanos são atraídos por conteúdos divisivos para criar laços sociais ou status. A estrutura da plataforma — publicações públicas, curtidas e respostas — incentiva o desempenho em vez do diálogo, mesmo sem impulsos algorítmicos. Em Portugal, onde 68% dos adultos usam as redes sociais diariamente, de acordo com o Statista, essa dinâmica alimenta debates acalorados online. Já se perguntou por que as discussões se intensificam? É a natureza humana amplificada online.
As redes sociais podem ser corrigidas?
Törnberg argumenta que a toxicidade é «estrutural», não apenas uma falha de design. O estudo sugere repensar completamente as plataformas — talvez priorizando grupos privados e moderados ou comunicação assíncrona para reduzir a indignação performativa. Tentativas anteriores, como o ajuste do algoritmo do X em 2024 para rebaixar publicações tóxicas, reduziram o discurso de ódio em apenas 10%, de acordo com o TechCrunch. Plataformas alternativas como o Mastodon, com configurações descentralizadas, mostram menos polarização, mas têm dificuldade em reter usuários, de acordo com o The Verge. Para os 7 milhões de usuários de redes sociais em Portugal, uma mudança para plataformas menos conflituosas poderia ajudar, mas escalar isso é difícil. Pronto para um espaço online melhor? É uma tarefa difícil.
Um alerta para a comunicação online
Este estudo é uma chamada à realidade: os problemas das redes sociais não são apenas tecnológicos, são humanos. Com 90% das interações de bots a refletir padrões de polarização do mundo real, de acordo com o estudo, as plataformas devem repensar a sua mecânica central. Soluções como moderação de conteúdo baseada em IA ou denúncias feitas pelos utilizadores, testadas no X, detectam apenas 30% das publicações tóxicas, de acordo com a Reuters. Em Portugal, onde o discurso político online aumentou 15% durante as eleições de 2024, de acordo com o Público, a necessidade de espaços menos tóxicos é urgente. A solução? Ir além dos algoritmos para plataformas que priorizam a conexão em vez do conflito. Podemos quebrar o ciclo? Começa por repensar o sistema.