As leis dos EUA que regulam a IA se mostram elusivas, mas pode haver esperança

É possível que os EUA regulem a IA de forma significativa? Ainda não está claro. Os formuladores de políticas avançaram nos últimos meses, mas também enfrentaram retrocessos, ilustrando a natureza desafiadora das leis que impõem limites à tecnologia.

Em março, o Tennessee se tornou o primeiro estado a proteger artistas de voz contra clonagem não autorizada por IA. Neste verão, o Colorado adotou uma abordagem de política de IA baseada em risco e em níveis. E em setembro, o governador da Califórnia, Gavin Newsom, assinou dezenas de projetos de lei relacionados à IA, alguns dos quais exigem que as empresas divulguem detalhes sobre seu treinamento de IA.

Mas os EUA ainda carecem de uma política federal de IA comparável à Lei de IA da UE. Mesmo a nível estadual, a regulamentação continua a encontrar grandes obstáculos.

Após uma batalha prolongada com interesses especiais, o governador Newsom vetou o projeto de lei SB 1047, uma lei que teria imposto requisitos abrangentes de segurança e transparência às empresas que desenvolvem IA. Outro projeto de lei da Califórnia que visava os distribuidores de deepfakes de IA nas redes sociais foi suspenso neste outono, aguardando o resultado de um processo judicial.

No entanto, há motivos para otimismo, segundo Jessica Newman, co-diretora do AI Policy Hub da UC Berkeley. Falando em um painel sobre governança de IA no TechCrunch Disrupt 2024, Newman observou que muitos projetos de lei federais podem não ter sido escritos com a IA em mente, mas ainda se aplicam à IA — como a legislação de anti-discriminação e proteção ao consumidor.

“Frequentemente ouvimos falar dos EUA como uma espécie de ‘Fronteira Selvagem’ em comparação com o que acontece na UE”, disse Newman, “mas acho que isso é exagerado, e a realidade é mais nuançada do que isso.”

Para o ponto de Newman, a Comissão Federal de Comércio forçou empresas que estavam coletando dados de forma clandestina a deletar seus modelos de IA e está investigando se as vendas de startups de IA para grandes empresas de tecnologia violam a regulamentação antitruste. Enquanto isso, a Comissão Federal de Comunicações declarou ilegais as chamadas robocalls com voz de IA e sugeriu uma regra que exige a divulgação de conteúdo gerado por IA na publicidade política.

O presidente Joe Biden também tentou estabelecer certas regras de IA. Há cerca de um ano, Biden assinou a Ordem Executiva de IA, que apoia as práticas de relatórios e benchmarking voluntários que muitas empresas de IA já estavam escolhendo implementar.

Uma consequência da ordem executiva foi o Instituto de Segurança de IA dos EUA (AISI), um órgão federal que estuda os riscos em sistemas de IA. Operando dentro do Instituto Nacional de Padrões e Tecnologia, o AISI tem parcerias de pesquisa com grandes laboratórios de IA como OpenAI e Anthropic.

No entanto, o AISI pode ser encerrado com uma simples revogação da ordem executiva de Biden. Em outubro, uma coalizão de mais de 60 organizações pediu ao Congresso que promulgasse legislação codificando o AISI antes do final do ano.

“Acho que todos nós, como americanos, compartilhamos o interesse em garantir que mitigamos os potenciais downsides da tecnologia”, disse Elizabeth Kelly, diretora do AISI, que também participou do painel.

Então, há esperança para uma regulamentação abrangente de IA nos Estados? O fracasso do SB 1047, que Newman descreveu como um projeto de lei de “toque leve” com a contribuição da indústria, não é exatamente encorajador. Autorizado pelo senador estadual da Califórnia, Scott Wiener, o SB 1047 foi oposto por muitos em Silicon Valley, incluindo tecnólogos de alto perfil como o cientista-chefe de IA da Meta, Yann LeCun.

Dito isso, Wiener, outro painelista do Disrupt, disse que não teria redigido o projeto de lei de forma diferente — e ele está confiante de que uma ampla regulamentação de IA eventualmente prevalecerá.

“Acho que isso preparou o terreno para esforços futuros”, disse ele. “Espero que possamos fazer algo que possa unir mais pessoas, porque a realidade que todos os grandes laboratórios já reconheceram é que os riscos [da IA] são reais e queremos testá-los.”

De fato, a Anthropic alertou na semana passada sobre uma catástrofe de IA se os governos não implementarem regulamentações nos próximos 18 meses.

Os opositores apenas intensificaram sua retórica. Na última segunda-feira, o fundador da Khosla Ventures, Vinod Khosla, chamou Wiener de “totalmente desinformado” e “não qualificado” para regular os verdadeiros perigos da IA. E a Microsoft e a Andreessen Horowitz divulgaram uma declaração se opondo a regulamentações de IA que possam afetar seus interesses financeiros.

No entanto, Newman postula que a pressão para unificar o crescente emaranhado de regras de IA de estado para estado acabará gerando uma solução legislativa mais forte. Na ausência de consenso sobre um modelo de regulamentação, os formuladores de políticas estaduais introduziram quase 700 peças de legislação sobre IA apenas neste ano.

“Minha sensação é que as empresas não querem um ambiente de um sistema regulatório emaranhado onde cada estado é diferente”, disse ela, “e acho que haverá uma pressão crescente para ter algo em nível federal que forneça mais clareza e reduza parte dessa incerteza.”

Fonte

Compartilhe esse conteúdo: