Anthropic endossa o projeto de lei de segurança de IA da Califórnia, SB 53

Na segunda-feira, a Anthropic anunciou um endosse oficial do SB 53, um projeto de lei da Califórnia do senador estadual Scott Wiener que imporá requisitos de transparência pioneiros para os maiores desenvolvedores de modelos de IA do mundo. O endosse da Anthropic marca uma vitória rara e significativa para o SB 53, em um momento em que grandes grupos de tecnologia, como a CTA e a Chamber for Progress, estão fazendo lobby contra o projeto de lei.

“Embora acreditemos que a segurança da IA de fronteira deve ser abordada em nível federal, em vez de um emaranhado de regulamentações estaduais, os poderosos avanços em IA não esperarão por um consenso em Washington”, disse a Anthropic em um post no blog. “A questão não é se precisamos de governança de IA – é se a desenvolveremos de forma reflexiva hoje ou reativa amanhã. O SB 53 oferece um caminho sólido para o primeiro.”

Se aprovado, o SB 53 exigirá que desenvolvedores de modelos de IA de fronteira, como OpenAI, Anthropic, Google e xAI, desenvolvam estruturas de segurança e publiquem relatórios de segurança e proteção pública antes de implantar modelos de IA poderosos. O projeto de lei também estabelecerá proteções para denunciantes que se manifestem com preocupações de segurança.

O projeto de lei foca especificamente em limitar modelos de IA que possam contribuir para “riscos catastróficos”, que o projeto define como a morte de pelo menos 50 pessoas ou mais de um bilhão de dólares em danos. O SB 53 concentra-se no lado extremo do risco de IA – limitando modelos de IA de serem usados para fornecer assistência em nível de especialista na criação de armas biológicas ou serem usados em ciberataques – em vez de preocupações mais imediatas, como deepfakes de IA ou bajulação.

O Senado da Califórnia aprovou uma versão anterior do SB 53, mas ainda precisa realizar uma votação final sobre o projeto de lei antes que ele possa avançar para a mesa do governador. O governador Gavin Newsom permaneceu em silêncio sobre o projeto de lei até agora, embora tenha vetado o último projeto de lei de IA do senador Weiner, o SB 1047, que incluía muitas das mesmas medidas.

Projetos de lei que regulam desenvolvedores de modelos de IA de fronteira enfrentaram uma resistência significativa tanto do Vale do Silício quanto da administração Trump, que argumentam que tais esforços poderiam limitar a inovação da América na corrida contra a China. Investidores como Andreessen Horowitz e Y Combinator lideraram parte da resistência contra o SB 1047, e nos últimos meses, a administração Trump ameaçou repetidamente bloquear estados de aprovarem regulamentações de IA.

Um dos argumentos mais comuns contra projetos de lei de segurança de IA é que os estados devem deixar a questão para os governos federais. Matt Perault, chefe de política de IA da Andreessen Horowitz, e Jai Ramaswamy, diretor jurídico, publicaram um post no blog na semana passada argumentando que muitos dos projetos de lei estaduais de IA de hoje correm o risco de violar a Cláusula de Comércio da Constituição – que limita os governos estaduais de aprovar leis que vão além de suas fronteiras e prejudicam o comércio interestadual.

No entanto, o cofundador da Anthropic, Jack Clark, argumenta em um post no X que a indústria de tecnologia construirá sistemas de IA poderosos nos próximos anos e não pode esperar que o governo federal aja.

“Sempre dissemos que preferiríamos um padrão federal”, disse Clark. “Mas na ausência disso, isso cria um sólido plano para a governança de IA que não pode ser ignorado.”

O diretor de assuntos globais da OpenAI, Chris Lehane, enviou uma carta ao governador Newsom em agosto argumentando que ele não deveria aprovar nenhuma regulamentação de IA que pudesse afastar startups da Califórnia – embora a carta não mencionasse o SB 53 pelo nome.

O ex-chefe de pesquisa de políticas da OpenAI, Miles Brundage, disse em um post no X que a carta de Lehane estava “cheia de lixo enganoso sobre o SB 53 e a política de IA em geral”. Notavelmente, o SB 53 visa regular exclusivamente as maiores empresas de IA do mundo – particularmente aquelas que geraram uma receita bruta de mais de 500 milhões de dólares.

Apesar das críticas, especialistas em políticas dizem que o SB 53 é uma abordagem mais modesta do que projetos de lei anteriores de segurança de IA. Dean Ball, um pesquisador sênior da Foundation for American Innovation e ex-assessor de políticas de IA da Casa Branca, disse em um post no blog de agosto que acredita que o SB 53 tem uma boa chance de se tornar lei. Ball, que criticou o SB 1047, disse que os redatores do SB 53 “demonstraram respeito pela realidade técnica”, bem como uma “medida de contenção legislativa”.

O senador Wiener disse anteriormente que o SB 53 foi fortemente influenciado por um painel de especialistas em políticas que o governador Newsom convocou – co-liderado pela renomada pesquisadora de Stanford e cofundadora do World Labs, Fei-Fei Li – para aconselhar a Califórnia sobre como regular a IA.

A maioria dos laboratórios de IA já possui alguma versão da política interna de segurança que o SB 53 exige. OpenAI, Google DeepMind e Anthropic publicam regularmente relatórios de segurança para seus modelos. No entanto, essas empresas não estão obrigadas por nenhuma lei a fazê-lo e, às vezes, não cumprem seus compromissos de segurança autoimpostos. O SB 53 visa estabelecer esses requisitos como lei.

No início de setembro, os legisladores da Califórnia alteraram o SB 53 para remover uma seção do projeto de lei que exigiria que os desenvolvedores de modelos de IA fossem auditados por terceiros. As empresas de tecnologia lutaram contra esses tipos de auditorias de terceiros em outras batalhas de políticas de IA anteriormente, argumentando que são excessivamente onerosas.

Fonte

Compartilhe esse conteúdo: