Um estudo recente revelou que as ferramentas de segurança do Instagram para contas de adolescentes, implementadas pela Meta, não estão a impedir a exposição a conteúdos sobre suicídio, autolesão e distúrbios alimentares, violando as próprias regras da plataforma. Publicado a 25 de setembro de 2025 pela BBC, o relatório da Cybersecurity for Democracy e grupos como a Molly Rose Foundation expõe falhas graves, com 30 de 47 ferramentas classificadas como “substancialmente ineficazes ou inexistentes”. Este texto, otimizado para o Google Discover e adaptado para os portugueses fãs de tecnologia na Comic Con Portugal e MEO XL Games, analisa os resultados, os riscos e as implicações, com um tom leve e envolvente.
Falhas nas Ferramentas de Segurança
A pesquisa, conduzida com contas falsas de adolescentes, testou 47 ferramentas de segurança anunciadas pela Meta. Apenas oito foram eficazes, enquanto nove reduziram danos, mas com limitações, e 30 não funcionaram ou já não existem. Exemplos incluem:
- Sugestões automáticas de pesquisa que recomendam termos ligados a suicídio, autolesão e distúrbios alimentares.
- Conteúdo inapropriado, como posts descrevendo “atos sexuais degradantes”, exibidos a menores, apesar das restrições.
- Mensagens ofensivas: A funcionalidade de “palavras ocultas” falhou ao permitir mensagens como “és uma prostituta e devias te matar”, sem filtros ou alertas.
Os investigadores, incluindo o denunciante Arturo Béjar, descobriram que adolescentes, incluindo menores de 13 anos, publicavam vídeos arriscados, como uma menina pedindo avaliações de atratividade, recebendo comentários sexualizados de adultos. Andy Burrows, da Molly Rose Foundation, critica a Meta por priorizar “engajamento e lucro em vez de segurança”, apontando para uma cultura corporativa que falha em proteger os jovens.
Contexto e Impacto
A Molly Rose Foundation, criada após o suicídio de Molly Russell (14 anos) em 2017, cujo inquérito de 2022 ligou a sua morte a “efeitos negativos de conteúdo online”, lidera a luta por leis de segurança mais rigorosas. Um estudo da The Guardian (2024) revelou que 97% dos vídeos recomendados em Instagram Reels para contas de adolescentes que interagiram com conteúdo de autolesão eram prejudiciais, com 44% mencionando suicídio ou autolesão. A Euronews confirmou que o algoritmo do Instagram amplifica esses conteúdos, especialmente em Reels, agravando riscos para adolescentes vulneráveis.
A Online Safety Act do Reino Unido, implementada em 2025, exige que plataformas como o Instagram protejam jovens de conteúdos prejudiciais, mas os investigadores afirmam que pouco mudou desde a morte de Molly. Laura Edelson, coautora do estudo, diz que as ferramentas “estão longe de serem adequadas”. Um relatório da Reuters indicou que a Meta negligenciou sistemas automáticos de deteção de conteúdos de autolesão, permitindo a sua promoção.
Resposta da Meta
A Meta contesta as conclusões, afirmando que as contas para adolescentes, lançadas em 2024 e expandidas para o Facebook e Messenger em 2025, reduziram a exposição a conteúdos sensíveis e o tempo noturno na plataforma. Um porta-voz disse que o estudo “deturpa” as ferramentas, destacando funcionalidades como o “modo silencioso” e aprovações parentais. No entanto, os investigadores refutam, apontando que ferramentas como o “Take A Break” foram descontinuadas ou integradas de forma ineficaz.
O Que Fazer?
Para os portugueses na Comic Con Portugal, onde a cultura digital é celebrada, este caso é um alerta. Adolescentes e pais devem:
- Usar configurações de privacidade rigorosas e o Family Pairing do Instagram.
- Denunciar conteúdos prejudiciais e monitorizar interações.
- Procurar apoio em linhas como a SOS Voz Amiga (213 544 545) em Portugal.
Comparado com um gadget como o Meta Quest 3 (519€), proteger adolescentes online exige vigilância constante. A tecnologia conecta, mas a segurança vem primeiro. Fica atento e mantém as tuas redes seguras!