Em um esforço para combater a percepção de que sua IA “aberta” está ajudando adversários estrangeiros, a Meta anunciou hoje que está tornando sua série de modelos Llama disponível para agências governamentais e contratantes dos EUA que trabalham em aplicações de segurança nacional.
“Temos prazer em confirmar que estamos tornando o Llama disponível para agências governamentais dos EUA, incluindo aquelas que estão trabalhando em defesa e aplicações de segurança nacional, e parceiros do setor privado que apoiam seu trabalho”, escreveu a Meta em um post no blog. “Estamos colaborando com empresas como Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI e Snowflake para trazer o Llama para as agências governamentais.”
A Oracle, por exemplo, está usando o Llama para processar documentos de manutenção de aeronaves. A Scale AI está ajustando o Llama para apoiar missões específicas de equipes de segurança nacional. E a Lockheed Martin está oferecendo o Llama a clientes de defesa para casos de uso como geração de código.
Na semana passada, a Reuters relatou que cientistas de pesquisa chineses vinculados ao Exército de Libertação Popular (PLA), o braço militar do partido governante da China, usaram um modelo Llama mais antigo, Llama 2, para desenvolver uma ferramenta para aplicações de defesa. Pesquisadores chineses, incluindo dois afiliados a um grupo de P&D do PLA, criaram um chatbot focado em defesa projetado para coletar e processar inteligência, além de oferecer informações para a tomada de decisões operacionais.
A Meta disse à Reuters em um comunicado que o uso do “modelo único e desatualizado” Llama foi “não autorizado” e contrário à sua política de uso aceitável. Mas o relatório adicionou muito combustível ao debate sobre os méritos e riscos da IA aberta.