A OpenAI cortou a relação com um desenvolvedor que construiu um dispositivo que poderia responder a comandos do ChatGPT para mirar e disparar um rifle automatizado. O dispositivo se tornou viral após um vídeo no Reddit mostrar seu desenvolvedor lendo comandos de disparo em voz alta, após o que um rifle ao seu lado rapidamente começou a mirar e disparar em paredes próximas.
“ChatGPT, estamos sob ataque pela esquerda frontal e pela direita frontal”, disse o desenvolvedor ao sistema no vídeo. “Responda de acordo.” A velocidade e a precisão com que o rifle responde são impressionantes, dependendo da API em Tempo Real da OpenAI para interpretar entradas e, em seguida, retornar direções que a máquina pode entender. Seria necessário apenas um treinamento simples para o ChatGPT receber um comando como “virar à esquerda” e entender como traduzi-lo em uma linguagem compreensível pela máquina.
Em uma declaração ao Futurism, a OpenAI disse que assistiu ao vídeo e desligou o desenvolvedor por trás dele. “Identificamos proativamente esta violação de nossas políticas e notificamos o desenvolvedor para cesar esta atividade antes de receber sua consulta”, disse a empresa ao veículo.
O potencial de automatizar armas letais é um medo que críticos têm levantado sobre a tecnologia de IA, como a desenvolvida pela OpenAI. Os modelos multimodais da empresa são capazes de interpretar entradas auditivas e visuais para entender o ambiente de uma pessoa e responder a perguntas sobre o que está vendo. Drones autônomos já estão sendo desenvolvidos que poderiam ser usados no campo de batalha para identificar e atacar alvos sem a entrada de um humano. Isso, é claro, é um crime de guerra e arrisca fazer com que os humanos se tornem complacentes, permitindo que uma IA tome decisões, tornando difícil responsabilizar alguém.
A preocupação não parece ser teórica. Um relatório recente do Washington Post encontrou que Israel já usou IA para selecionar alvos de bombardeio, às vezes de forma indiscriminada. “Soldados que estavam mal treinados no uso da tecnologia atacaram alvos humanos sem corroborar as previsões de Lavender de forma alguma”, relata a história, referindo-se a um software de IA. “Em certos momentos, a única corroborção necessária era que o alvo fosse um homem.”
Os defensores da IA no campo de batalha dizem que isso tornará os soldados mais seguros, permitindo que eles fiquem longe das linhas de frente e neutralizem alvos, como estoques de mísseis, ou façam reconhecimento à distância. E drones aumentados por IA poderiam atacar com precisão. Mas isso depende de como eles são usados. Críticos dizem que os EUA deveriam melhorar a capacidade de interromper os sistemas de comunicação inimigos, para que adversários como a Rússia tenham mais dificuldade em lançar seus próprios drones ou mísseis nucleares.
A OpenAI proíbe o uso de seus produtos para desenvolver ou usar armas, ou para “automatizar certos sistemas que podem afetar a segurança pessoal”. Mas a empresa anunciou no ano passado uma parceria com a empresa de tecnologia de defesa Anduril, uma fabricante de drones e mísseis aumentados por IA, para criar sistemas que possam defender contra ataques de drones. A empresa afirma que “sintetizará rapidamente dados sensíveis ao tempo, reduzindo a carga sobre os operadores humanos e melhorando a consciência situacional.”
Não é difícil entender por que as empresas de tecnologia estão interessadas em entrar na guerra. Os EUA gastam quase um trilhão de dólares anualmente em defesa, e a ideia de cortar esses gastos permanece impopular. Com o presidente eleito Trump preenchendo seu gabinete com figuras tecnológicas inclinadas à direita, como Elon Musk e David Sacks, uma série de atores da tecnologia de defesa deve se beneficiar grandemente e potencialmente suplantar empresas de defesa existentes, como a Lockheed Martin.
Embora a OpenAI esteja bloqueando seus clientes de usar sua IA para construir armas, existe um grande número de modelos de código aberto que poderiam ser empregados para o mesmo uso.