O Vale do Silício está debatendo se armas de IA devem ser autorizadas a decidir matar

No final de setembro, o cofundador da Shield AI, Brandon Tseng, jurou que armas nos EUA nunca seriam totalmente autônomas — significando que um algoritmo de IA tomaria a decisão final de matar alguém. “O Congresso não quer isso”, disse o fundador da tecnologia de defesa ao TechCrunch. “Ninguém quer isso.”

Mas Tseng falou cedo demais. Cinco dias depois, o cofundador da Anduril, Palmer Luckey, expressou uma abertura para armas autônomas — ou pelo menos um ceticismo pesado em relação aos argumentos contra elas. Os adversários dos EUA “usam frases que soam muito bem em uma declaração: Bem, você não pode concordar que um robô nunca deve ser capaz de decidir quem vive e quem morre?” disse Luckey durante uma palestra no início deste mês na Universidade de Pepperdine. “E meu ponto para eles é, onde está o alto moral em uma mina terrestre que não pode distinguir entre um ônibus escolar cheio de crianças e um tanque russo?”

Quando questionado para mais comentários, Shannon Prior, uma porta-voz da Anduril, disse que Luckey não quis dizer que robôs deveriam ser programados para matar pessoas por conta própria, apenas que ele estava preocupado com “pessoas más usando IA ruim.”

No passado, o Vale do Silício se inclinou para a cautela. Leve isso do cofundador de Luckey, Trae Stephens. “Acho que as tecnologias que estamos construindo estão tornando possível que os humanos tomem as decisões certas sobre essas coisas”, disse ele a Kara Swisher no ano passado. “Assim, há uma parte responsável e responsável no processo para todas as decisões que podem envolver letalidade, obviamente.”

A porta-voz da Anduril negou qualquer dissonância entre as perspectivas de Luckey (na foto acima) e Stephens, e disse que Stephens não quis dizer que um humano deveria sempre tomar a decisão, mas apenas que alguém é responsável.

Para ser justo, a posição do próprio governo dos EUA é igualmente ambígua. O exército dos EUA atualmente não compra armas totalmente autônomas; mas não proíbe as empresas de fabricá-las nem proíbe explicitamente a venda de tais coisas para países estrangeiros. No ano passado, os EUA liberaram diretrizes atualizadas para a segurança da IA no exército que foram endossadas por muitos aliados dos EUA e exigem que os principais oficiais militares aprovem qualquer nova arma autônoma; no entanto, as diretrizes são voluntárias (a Anduril disse que está comprometida em segui-las), e os oficiais dos EUA disseram continuamente que “não é o momento certo” para considerar qualquer proibição vinculativa sobre armas autônomas.

No mês passado, o cofundador da Palantir e investidor da Anduril, Joe Lonsdale, também mostrou disposição para considerar armas totalmente autônomas. Em um evento organizado pelo think tank Hudson Institute, Lonsdale expressou frustração que essa questão está sendo enquadrada como um sim ou não. Ele, em vez disso, apresentou uma hipótese onde a China adotou armas de IA, mas os EUA têm que “pressionar o botão toda vez que dispara.” Ele incentivou os formuladores de políticas a adotar uma abordagem mais flexível sobre quanta IA está nas armas.

“Você rapidamente percebe, bem, minhas suposições estavam erradas se eu apenas colocar uma regra rígida de cima para baixo, porque sou um funcionário que nunca jogou esse jogo antes”, disse ele. “Eu poderia nos destruir na batalha.”

Quando TC perguntou a Lonsdale para mais comentários, ele enfatizou que as empresas de tecnologia de defesa não deveriam ser as responsáveis por definir a agenda sobre IA letal. “O contexto chave do que eu estava dizendo é que nossas empresas não fazem a política, e não querem fazer a política: é trabalho dos oficiais eleitos fazer a política”, disse ele. “Mas eles precisam se educar sobre a nuance para fazer um bom trabalho.”

Ele também reiterou a disposição de considerar mais autonomia nas armas. “Não é binário como você sugere — ‘totalmente autônomo ou não’ não é a questão de política correta. Há um dial sofisticado ao longo de algumas dimensões diferentes para o que você pode fazer com um soldado e o que você faz com o sistema de armas”, disse ele. “Antes que os formuladores de políticas coloquem essas regras em prática e decidam onde os dials precisam ser ajustados em que circunstância, eles precisam aprender o jogo e aprender o que os maus podem estar fazendo, e o que é necessário para vencer com vidas americanas em jogo.”

Ativistas e grupos de direitos humanos há muito tentam e falham em estabelecer proibições internacionais sobre armas letais autônomas — proibições que os EUA resistiram em assinar. Mas a guerra na Ucrânia pode ter mudado a maré contra os ativistas, fornecendo tanto um tesouro de dados de combate quanto um campo de batalha para os fundadores de tecnologia de defesa testarem. Atualmente, as empresas integram IA em sistemas de armas, embora ainda requeiram um humano para tomar a decisão final de matar.

Enquanto isso, oficiais ucranianos pressionaram por mais automação nas armas, esperando que isso lhes dê uma vantagem sobre a Rússia. “Precisamos de máxima automação”, disse Mykhailo Fedorov, ministro da transformação digital da Ucrânia, em uma entrevista ao The New York Times. “Essas tecnologias são fundamentais para nossa vitória.”

Para muitos no Vale do Silício e em D.C., o maior medo é que a China ou a Rússia lancem armas totalmente autônomas primeiro, forçando a mão dos EUA. Em um debate da ONU sobre armas de IA no ano passado, um diplomata russo foi notavelmente evasivo. “Entendemos que para muitas delegações a prioridade é o controle humano”, disse ele. “Para a Federação Russa, as prioridades são um pouco diferentes.”

No evento do Hudson Institute, Lonsdale disse que o setor de tecnologia precisa se responsabilizar por “ensinar a Marinha, ensinar o DoD, ensinar o Congresso” sobre o potencial da IA para “esperançosamente nos colocar à frente da China.”

As empresas afiliadas de Lonsdale e Luckey estão trabalhando para fazer o Congresso ouvi-los. A Anduril e a Palantir gastaram cumulativamente mais de $4 milhões em lobby este ano, de acordo com a OpenSecrets.

Fonte