Anthropic Quer Ser a Única Boa Empresa de IA na América de Trump

Anthropic, a empresa de inteligência artificial por trás do chatbot Claude, está tentando encontrar seu lugar como o Bom Cara no espaço de IA. Recentemente, foi a única grande empresa de IA a apoiar um projeto de lei sobre segurança em IA na Califórnia, e a empresa chamou a atenção do Semafor devido à sua aparente recusa em permitir que seu modelo seja usado para tarefas de vigilância, o que está irritando a administração Trump.

De acordo com o relatório, as agências de aplicação da lei se sentiram restringidas pela política de uso da Anthropic, que inclui uma seção que proíbe o uso de sua tecnologia para “Justiça Criminal, Censura, Vigilância ou Fins Proibidos de Aplicação da Lei”. Isso inclui a proibição do uso de suas ferramentas de IA para “Fazer determinações sobre aplicações de justiça criminal”, “Alvo ou rastrear a localização física, estado emocional ou comunicação de uma pessoa sem seu consentimento”, e “Analisar ou identificar conteúdo específico para censurar em nome de uma organização governamental”.

Isso tem sido um grande problema para agências federais, incluindo o FBI, o Serviço Secreto e a Imigração e Controle de Alfândega, segundo o Semafor, e gerou tensões entre a empresa e a administração atual, apesar de a Anthropic ter dado ao governo federal acesso ao seu chatbot Claude e conjunto de ferramentas de IA por apenas US$ 1. Segundo o relatório, a política da Anthropic é ampla, com menos exceções do que os concorrentes. Por exemplo, a política de uso da OpenAI restringe a “monitorização não autorizada de indivíduos”, o que pode não excluir o uso da tecnologia para monitoramento “legal”.

Uma fonte familiarizada com o assunto explicou que o Claude da Anthropic está sendo utilizado por agências para fins de segurança nacional, incluindo cibersegurança, mas a política de uso da empresa restringe usos relacionados à vigilância doméstica.

Um representante da Anthropic disse que a empresa desenvolveu o ClaudeGov especificamente para a comunidade de inteligência, e o serviço recebeu autorização “Alta” do Programa Federal de Gestão de Risco e Autorização (FedRAMP), permitindo seu uso com cargas de trabalho governamentais sensíveis. O representante disse que o Claude está disponível para uso em toda a comunidade de inteligência.

Um funcionário da administração lamentou ao Semafor que a política da Anthropic faz um juízo moral sobre como as agências de aplicação da lei fazem seu trabalho, o que, como… certo? Mas também é uma questão legal tanto quanto moral. Vivemos em um estado de vigilância, a aplicação da lei pode e já monitorou pessoas sem mandatos no passado e certamente continuará a fazê-lo no futuro.

Uma empresa que escolhe não participar disso, na medida em que pode resistir, está protegendo a si mesma tanto quanto está assumindo uma posição ética. Se o governo federal está irritado que a política de uso de uma empresa impede a realização de vigilância doméstica, talvez a principal conclusão seja que o governo está realizando vigilância doméstica generalizada e tentando automatizá-la com sistemas de IA.

De qualquer forma, a postura teoricamente principiada da Anthropic é o mais recente em seu esforço para se posicionar como a empresa de IA razoável. No início deste mês, apoiou um projeto de lei sobre segurança em IA na Califórnia que exigiria que ela e outras grandes empresas de IA se submetessem a novos e mais rigorosos requisitos de segurança para garantir que os modelos não estivessem em risco de causar danos catastróficos. A Anthropic foi a única grande empresa no espaço de IA a apoiar o projeto de lei, que aguarda a assinatura do Governador Newsom (que pode ou não ocorrer, já que ele anteriormente vetou um projeto de lei semelhante). A empresa também está em D.C., promovendo a adoção rápida de IA com guardrails (mas enfatizando a parte rápida).

Sua posição como a empresa de IA tranquila é talvez um pouco minada pelo fato de que piratou milhões de livros e artigos que usou para treinar seu grande modelo de linguagem, violando os direitos dos detentores de direitos autorais e deixando os autores sem pagamento. Um acordo de US$ 1,5 bilhão alcançado no início deste mês colocará pelo menos um pouco de dinheiro nos bolsos das pessoas que realmente criaram as obras usadas para treinar o modelo. Enquanto isso, a Anthropic foi recentemente avaliada em quase US$ 200 bilhões em uma rodada de financiamento que tornará essa penalidade ordenada pelo tribunal em um erro de arredondamento.

Fonte

Compartilhe esse conteúdo: