Drone de IA resolve eliminar alvos humanos por conta própria

Se isto parece algo saído de algum filme de O Exterminador do Futuro ou de algum jogo, bem, não é. Algo inesperado aconteceu em um teste simulado de um drone militar alimentado por IA. A Inteligência Artificial encarregada de eliminar alvos específicos com a aprovação de um operador humano, decidiu apenas eliminar o humano para poder acabar com todos os alvos aos quais o humano poderia dizer não.

As discussões sobre o uso das IA tem ganhado mais repercussão a cada dia, já que – novamente – a cada dia, elas ganham mais espaço e desenvolvimento, com empresas como o Google e Meta apenas investindo mais dinheiro na área, assim como – já era de se esperar – os militares, como o que aconteceu recentemente.

A Força Aérea dos EUA testou drones movidos a IA em uma simulação que terminou no que parece ser uma prequel das máquinas de assassinato distópicas fictícias de Horizon Zero Dawn. Conforme descoberto por Armand Domalewski no Twitter (retirado do ar), um relatório publicado recentemente pela Royal Aeronautical Society – depois de sediar “The Future Combat Air & Space Capabilities Summit” – continha uma anedota de levantar a sobrancelha compartilhada pelo Chefe de Testes e Operações de IA da USAF, Cel. Tucker “Cinco” Hamilton.

Parece que durante um teste simulado (não está claro se era puramente virtual ou não), um drone habilitado para IA foi encarregado de destruir locais de mísseis superfície-ar (SAM). Antes de puxar o gatilho, ele precisava verificar com um operador humano antes que pudesse atacar qualquer alvo. No entanto, conforme explicado por Hamilton, a IA do drone foi treinada para entender que eliminar os locais do SAM era a tarefa mais importante.

E quando seu operador simulado negou seus pedidos para eliminar alvos detectados como locais SAM, a IA percebeu que o humano estava atrapalhando sua missão e seus pontos – que ganhou por eliminar alvos. “Então o que isso fez? Isso matou o operador. Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, disse Hamilton.

Depois daquele momento arrepiante, mas educativo, os programadores do drone treinaram o sistema de IA para entender que matar humanos no comando era “ruim” e que “perderia pontos” se atacasse o operador. Isso impediu o drone de matar o humano, mas não de se comportar mal. “Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo”, disse Hamilton.

O coronel Hamilton então explicou que esse era um exemplo de como não podemos falar sobre IA ou aprendizado de máquina sem também discutir “ética”. Mas nem tudo está perdido, pois alguns soldados conseguiram um tempo atrás enganar um robô com uma caixa de papelão e deram cambalhotas no melhor estilo Metal Gear Solid.

Via: Kotaku/Armand Domalewski

Alan Uemura , Observatório de Games.

Fonte: Observatório de Games.

seg, 05 jun 2023 16:00:00 -0300

Publicidade

Jogue agora!

Veja as últimas noticias!

12503

Publicidade