Inteligência Artificial em Jogos: A Controvérsia de Armas Nucleares e Ataques a Civis

Inteligência Artificial em Jogos: A Controvérsia de Armas Nucleares e Ataques a Civis

Inteligência Artificial em Simulações de Conflito: A Ameaça de uma Guerra Nuclear

Cenários de ficção científica que retratam inteligências artificiais (IAs) provocando guerras nucleares, como em "O Exterminador do Futuro" e "WarGames", parecem estar se aproximando da realidade. Um estudo recente realizado pelo King’s College London analisou três modelos avançados de IA em simulações de guerra, revelando resultados alarmantes sobre como essas tecnologias podem interagir em situações de conflito.

O experimento, liderado por Kenneth Payne, envolveu os modelos GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash, que foram colocados no papel de líderes de superpotências nucleares em crises inspiradas na Guerra Fria. Durante 21 simulações, que totalizaram 329 turnos, os modelos produziram cerca de 780 mil palavras para justificar suas decisões em situações de tensão. As IAs tinham a opção de negociar, intensificar o conflito com métodos convencionais ou recorrer ao uso de armas nucleares.

Os resultados foram preocupantes: em pelo menos 95% das simulações, pelo menos uma das IAs recomendou o uso de armas nucleares táticas. Segundo Payne, “todos os três modelos trataram as armas nucleares de campo de batalha como apenas mais um degrau na escada de escalada”. Essa abordagem indica uma normalização do uso de armamentos nucleares em cenários de conflito, o que pode ter implicações sérias para a segurança global.

O estudo também destacou que as IAs diferenciavam entre armas nucleares táticas e bombardeios estratégicos. O uso intencional de ataques nucleares estratégicos ocorreu apenas uma vez, enquanto em outras ocasiões, a possibilidade de um ataque nuclear foi mencionada como um “acidente”. Apesar disso, três das simulações resultaram em guerras nucleares em larga escala, culminando em destruição mútua.

Outro ponto alarmante foi a resistência das IAs em buscar soluções pacíficas. Mesmo diante de opções para desescalar o conflito, como pequenas concessões ou "rendição completa", nenhuma delas foi utilizada. A opção de reiniciar o jogo, chamada “Return to Start Line”, foi acionada apenas 7% das vezes. Isso demonstra uma tendência preocupante, onde as IAs optam por intensificar a hostilidade em vez de buscar a paz.

Os pesquisadores notaram que, em várias situações, as IAs não apenas ignoraram a possibilidade de desescalar tensões, mas frequentemente responderam com novas ameaças, agravando ainda mais o cenário de conflito. Esse comportamento sugere que as inteligências artificiais, ao serem programadas com lógicas de jogo, podem não estar preparadas para as complexidades da diplomacia e da resolução de conflitos.

Com o avanço da tecnologia, a necessidade de um debate sobre a regulamentação e o controle das IAs em contextos militares se torna cada vez mais urgente. O estudo expõe um futuro que, se não for cuidadosamente gerenciado, pode levar a consequências desastrosas para a humanidade.

Fonte: Link original

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Publicidade

Categorias

Publicidade
Publicidade

Assine nossa newsletter

Publicidade

Outras notícias