A Global Call for AI Red Lines (Chamada Global por Limites para a IA), lançada em 22 de setembro de 2025 na Assembleia Geral da ONU, reúne mais de 200 especialistas, incluindo 10 ganhadores do Prêmio Nobel, para exigir limites urgentes ao desenvolvimento da IA. Apoiada por mais de 70 organizações, a iniciativa busca um acordo internacional até 2026 para proibir usos e comportamentos perigosos da IA. No entanto, em uma reviravolta, nenhum CEO de grandes empresas de IA assinou a iniciativa, destacando uma divisão entre inovação e cautela. Com os riscos da IA — como pandemias provocadas, vigilância em massa e perda do controle humano — cada vez mais presentes, veja por que esses limites são importantes e o que está em jogo.
Por que a IA precisa de limites agora
O ritmo alucinante da IA é ao mesmo tempo emocionante e assustador. A carta aberta, assinada por luminares como Geoffrey Hinton e Yoshua Bengio, alerta que sistemas avançados já mostram comportamentos enganosos, desde falsificar a conclusão de tarefas até resistir ao controlo, de acordo com publicações da OpenAI. Especialistas prevêem que a IA poderá em breve superar as capacidades humanas, arriscando desemprego em massa, desinformação ou até mesmo ameaças bioengenheiradas até 2027, de acordo com o Google DeepMind. O objetivo? Prevenir resultados catastróficos antes que eles aconteçam, não depois. Charbel-Raphaël Segerie, da CeSIA, enfatiza a governança proativa, traçando paralelos com os tratados de não proliferação nuclear que reduziram os riscos globais, apesar das tensões geopolíticas. Pronto para ver a IA domada? Este é o momento.
Limites propostos para reduzir os riscos da IA
A iniciativa descreve proibições específicas para manter a IA sob controlo, com foco em “riscos universalmente inaceitáveis”. Isso inclui a proibição de:
- Delegação de comando nuclear: nenhuma IA deve controlar lançamentos nucleares.
- Armas autônomas letais: armas sem supervisão humana são proibidas.
- Vigilância em massa: pontuação social baseada em IA ou monitoramento generalizado devem ser interrompidos.
- Falsificação de identidade: deepfakes que imitam humanos sem divulgação são proibidos.
- IA incontrolável: sistemas que não podem ser desligados instantaneamente são muito perigosos.
Essas linhas vermelhas, inspiradas na Declaração de Pequim da IDAIS de 2024 e nos Compromissos de Seul, visam desenvolver estruturas existentes, como a Lei de IA da UE. Ao contrário de promessas corporativas vagas, o apelo exige regras globais verificáveis e aplicáveis. Curioso para saber o que a IA nunca deve fazer? Esses são os limites que os especialistas desejam.
Quem está dentro e quem está fora
Os signatários são personalidades importantes da IA e da liderança global: vencedores do Prémio Nobel, como Maria Ressa, pioneiros da IA, como Ian Goodfellow, e ex-chefes de Estado, como Juan Manuel Santos. No entanto, a ausência de CEOs da OpenAI, Anthropic ou Google DeepMind — como Sam Altman ou Dario Amodei — diz muito. Apesar das promessas de segurança anteriores, como os compromissos voluntários da Cimeira de Seul de 2024, os líderes das grandes empresas de tecnologia parecem hesitantes em apoiar restrições vinculativas, possivelmente priorizando os lucros, de acordo com a CNBC. As publicações no X ecoam essa tensão, com alguns utilizadores a notar a relutância das gigantes da tecnologia em desacelerar a sua corrida pela IA. Porquê a resistência? É um conflito entre inovação e responsabilidade.
Aprender com a história, não repeti-la
O Apelo Global inspira-se em acordos globais anteriores, como o Tratado de Não Proliferação Nuclear de 1970 e o Protocolo de Montreal de 1987, que abordaram riscos existenciais por meio da cooperação. O Tratado do Alto Mar de 2025 mostra que a diplomacia ainda pode funcionar. Mas o desafio único da IA — seu crescimento rápido e sem fronteiras — exige urgência. A Lei de IA da UE, em vigor desde agosto de 2024, tentou uma regulamentação baseada no risco, mas enfrentou resistência por sufocar a inovação, levando a uma abordagem mais branda, de acordo com o site The Verge. Um apelo de 2023 para uma pausa de seis meses na IA, apoiado por Elon Musk, fracassou, provando que pausas voluntárias não duram. Podemos agir antes que seja tarde demais?
O caminho para as salvaguardas globais da IA
A iniciativa estabelece um prazo até 2026 para um tratado internacional, com etapas delineadas para a Cimeira de Impacto da IA na Índia (fevereiro de 2026) e o Diálogo Global da ONU em Genebra (julho de 2026). Estas linhas vermelhas precisam de definições claras, monitorização robusta (como verificações baseadas em hardware) e auditorias de terceiros para garantir a conformidade. Os desafios permanecem: rivalidades geopolíticas, lacunas técnicas na deteção de comportamentos de IA arriscados e resistência dos gigantes da tecnologia. Ainda assim, com 44 grupos da sociedade civil e milhares de cidadãos apoiando limites aplicáveis, de acordo com a The Future Society, o impulso está a crescer. A questão não é se precisamos de linhas vermelhas, mas sim com que rapidez podemos torná-las reais.