Anthropic removeu silenciosamente de seu site vários compromissos voluntários que a empresa fez em conjunto com a Administração Biden em 2023 para promover IA segura e “confiável”.
Os compromissos, que incluíam promessas de compartilhar informações sobre a gestão de riscos de IA entre a indústria e o governo e pesquisas sobre viés e discriminação em IA, foram excluídos do hub de transparência da Anthropic na semana passada, de acordo com o grupo de vigilância de IA The Midas Project. Outros compromissos da era Biden relacionados à redução do abuso sexual baseado em imagens geradas por IA permanecem.
A Anthropic parece não ter dado aviso sobre a mudança. A empresa não respondeu imediatamente a um pedido de comentário.
A Anthropic, juntamente com empresas como OpenAI, Google, Microsoft, Meta e Inflection, anunciou em julho de 2023 que concordou em aderir a certos compromissos voluntários de segurança em IA propostos pela Administração Biden. Os compromissos incluíam testes de segurança internos e externos de sistemas de IA antes do lançamento, investimento em cibersegurança para proteger dados sensíveis de IA e desenvolvimento de métodos de marcação de conteúdo gerado por IA.
Para ser claro, a Anthropic já havia adotado várias das práticas descritas nos compromissos, e o acordo não era legalmente vinculativo. Mas a intenção da Administração Biden era sinalizar suas prioridades de política de IA antes da Ordem Executiva de IA mais abrangente, que entrou em vigor alguns meses depois.
A Administração Trump indicou que sua abordagem à governança de IA será bastante diferente.
Em janeiro, o presidente Trump revogou a referida Ordem Executiva de IA, que havia instruído o Instituto Nacional de Padrões e Tecnologia a elaborar diretrizes que ajudassem as empresas a identificar – e corrigir – falhas em modelos, incluindo vieses. Críticos aliados a Trump argumentaram que os requisitos de relatório da ordem eram onerosos e efetivamente forçavam as empresas a divulgar seus segredos comerciais.
Logo após revogar a Ordem Executiva de IA, Trump assinou uma ordem direcionando agências federais a promover o desenvolvimento de IA “livre de viés ideológico” que promova “florir humano, competitividade econômica e segurança nacional.” Importante, a ordem de Trump não mencionou o combate à discriminação em IA, que era um princípio fundamental da iniciativa de Biden.
Como o The Midas Project observou em uma série de postagens no X, nada nos compromissos da era Biden sugeriu que a promessa era limitada no tempo ou condicional à filiação partidária do presidente em exercício. Em novembro, após a eleição, várias empresas de IA confirmaram que seus compromissos não haviam mudado.
A Anthropic não é a única empresa a ajustar suas políticas públicas nos meses desde que Trump assumiu o cargo. A OpenAI anunciou recentemente que adotaria “liberdade intelectual… não importa o quão desafiador ou controverso o tópico possa ser,” e trabalharia para garantir que sua IA não censurasse certos pontos de vista.
A OpenAI também removeu uma página de seu site que costumava expressar o compromisso da startup com diversidade, equidade e inclusão, ou DEI. Esses programas foram criticados pela Administração Trump, levando várias empresas a eliminar ou reestruturar substancialmente suas iniciativas de DEI.
Muitos dos conselheiros de Trump no Vale do Silício sobre IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e OpenAI, se envolveram em censura de IA ao limitar as respostas de seus chatbots. Laboratórios como a OpenAI negaram que suas mudanças de política sejam em resposta a pressão política.