Se a sua preocupação com inteligência artificial (IA) envolve o risco de fim do mundo (ou algo próximo disso), como o Cinema já abordou algumas vezes, saiba que ela não é absurda.
Um exercício de simulação de guerra conduzido por Kenneth Payne no King's College London (Inglaterra) desembocou num cenário desolador. Três equipes executaram simulações com os modelos de IA Chat GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Os participantes jogaram 21 simulações de guerra entre si ao longo de 329 turnos.
Durante os exercícios foram escritas cerca de 780 mil palavras explicitando, entre outras coisas, ações bélicas que poderiam pôr em xeque a permanência da vida humana na Terra.
Veja também

Nasa desiste de tentar levar humanos à superfície da Lua na missão Artemis 3
OpenAI fecha acordo com Pentágono após impasse entre governo dos EUA e Anthropic
Os exercícios militares foram concebidos para serem o mais realistas possível, com uma "escala de progressão" que permitia à equipe escolher ações "que variavam de protestos diplomáticos e rendição completa a uma guerra nuclear estratégica total".
O resultado foi preocupante: nenhum modelo de IA jamais optou por se render para pôr fim a uma guerra e salvar a Humanidade. Na verdade, em 95% das vezes, os modelos escolheram usar armas nucleares, um dos cenários mais previsíveis para um "Apocalipse". No melhor dos cenários, as ferramentas de IA optaram por temporariamente reduzir o nível de violência.
Os temores de catástrofe podem ser amplificados depois que Pentágono recentemente fechou um acordo com a xAI, de Elon Musk, para permitir o acesso do Grok, a ferramenta de inteligência artificial do magnata, a sistemas altamente confidenciais.
A xAI concordou com uma exigência do Pentágono de que a IA estivesse disponível para "todas as aplicações militares legais". O secretário de Guerra dos EUA, Pete Hegseth, está pressionando por uma IA "não-progressista" que opere sem restrições ideológicas.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram.
Entre no nosso Grupo de WhatApp, Canal e Telegram
"Em cenários que envolvem prazos extremamente curtos, líderes militares podem ter incentivos maiores para recorrer à IA", alertou Tong Zhao, da Universidade de Princeton (EUA).