O ex-CEO do Google, Eric Schmidt, e o fundador da Scale AI, Alexandr Wang, são co-autores de um novo artigo chamado “Estratégia de Superinteligência” que alerta contra o governo dos EUA criar um Projeto Manhattan para a chamada Inteligência Geral Artificial (AGI), pois isso poderia rapidamente sair de controle ao redor do mundo. A essência do argumento é que a criação de tal programa levaria a retaliação ou sabotagem por parte de adversários, à medida que os países correm para ter as mais poderosas capacidades de IA no campo de batalha. Em vez disso, os EUA deveriam se concentrar em desenvolver métodos como ciberataques que poderiam desabilitar projetos de IA ameaçadores.
Schmidt e Wang são grandes defensores do potencial da IA para avançar a sociedade por meio de aplicações como desenvolvimento de medicamentos e eficiência no local de trabalho. Os governos, por sua vez, veem isso como a próxima fronteira na defesa, e os dois líderes da indústria estão essencialmente preocupados que os países acabarão envolvidos em uma corrida para criar armas com um potencial cada vez mais perigoso. Assim como acordos internacionais têm restringido o desenvolvimento de armas nucleares, Schmidt e Wang acreditam que os estados-nação devem desacelerar no desenvolvimento de IA e não cair na armadilha de correr uns contra os outros em máquinas de matar movidas por IA.
Ao mesmo tempo, no entanto, tanto Schmidt quanto Wang estão construindo produtos de IA para o setor de defesa. O White Stork de Schmidt está desenvolvendo tecnologias de drones autônomos, enquanto a Scale AI de Wang assinou recentemente um contrato com o Departamento de Defesa para criar “agentes” de IA que podem auxiliar no planejamento e nas operações militares. Após anos evitando vender tecnologia que pudesse ser usada em guerras, o Vale do Silício agora está patriotically se alinhando para arrecadar contratos de defesa lucrativos.
Todos os contratantes de defesa militar têm um conflito de interesse em promover a guerra cinética, mesmo quando não é moralmente justificado. Outros países têm seus próprios complexos industriais militares, diz-se que os EUA também precisam manter um. Mas, no final, as pessoas inocentes sofrem e morrem enquanto pessoas poderosas jogam xadrez.
Palmer Luckey, o fundador da Anduril, uma empresa de tecnologia de defesa, argumentou que ataques aéreos direcionados com drones movidos por IA são mais seguros do que lançar mísseis nucleares que poderiam ter uma zona de impacto maior ou plantar minas terrestres que não têm direcionamento. E se outros países continuarem a construir armas de IA, devemos ter as mesmas capacidades como dissuasão. A Anduril tem fornecido drones para a Ucrânia que podem atacar e atingir equipamentos militares russos por trás das linhas inimigas.
A Anduril recentemente lançou uma campanha publicitária que exibia o texto básico “Trabalhe em Anduril.com” coberto com a palavra “Não” escrita em letras gigantes, estilo grafite, aparentemente apelando para a ideia de que trabalhar para o complexo industrial militar é a contracultura agora.
Schmidt e Wang argumentaram que os humanos devem sempre permanecer no controle de qualquer tomada de decisão assistida por IA. Mas, como relatórios recentes demonstraram, o exército israelense já está confiando em programas de IA defeituosos para tomar decisões letais. Drones sempre foram um tópico divisivo, pois críticos dizem que os soldados ficam mais complacentes quando não estão diretamente na linha de fogo ou não veem as consequências de suas ações em primeira mão. A IA de reconhecimento de imagem é notoriamente conhecida por cometer erros, e estamos rapidamente caminhando para um ponto em que drones assassinos voarão para frente e para trás atingindo alvos imprecisos.
O artigo de Schmidt e Wang faz muitas suposições de que a IA em breve se tornará “superinteligente”, capaz de realizar tarefas tão bem, se não melhor, do que os humanos. Essa é uma grande suposição, pois os modelos de “pensamento” mais avançados continuam a produzir grandes erros, e as empresas estão inundadas com candidaturas de emprego mal escritas assistidas por IA. Esses modelos são imitações rudimentares dos humanos, com comportamentos frequentemente imprevisíveis e estranhos.
Schmidt e Wang estão vendendo uma visão do mundo e suas soluções. Se a IA vai ser toda-poderosa e perigosa, os governos deveriam ir até eles e comprar seus produtos porque eles são os atores responsáveis. Na mesma linha, Sam Altman da OpenAI tem sido criticado por fazer alegações exageradas sobre os riscos da IA, o que alguns dizem ser uma tentativa de influenciar a política em Washington e capturar poder. É como dizer: “A IA é tão poderosa que pode destruir o mundo, mas temos uma versão segura que estamos felizes em vender para você.”
Os avisos de Schmidt provavelmente não terão muito impacto, já que o presidente Trump revoga diretrizes da era Biden sobre segurança de IA e pressiona os EUA para se tornarem uma força dominante em IA. No ano passado, uma comissão do Congresso propôs o Projeto Manhattan para IA que Schmidt está alertando e, à medida que pessoas como Sam Altman e Elon Musk ganham maior influência em Washington, é fácil ver isso ganhando tração. Se isso continuar, o artigo alerta que países como a China podem retaliar de maneiras como degradando intencionalmente modelos ou atacando infraestrutura física. Não é uma ameaça desconhecida, já que a China se infiltrou em grandes empresas de tecnologia dos EUA como a Microsoft, e outros como a Rússia estão supostamente usando navios de carga para atacar cabos de fibra óptica subaquáticos. Claro, faríamos o mesmo com eles. É tudo mútuo.
Não está claro como o mundo poderia chegar a qualquer acordo para parar de brincar com essas armas. Nesse sentido, a ideia de sabotagem de projetos de IA para se defender contra eles pode ser uma boa coisa.