O que a vitória de Trump pode significar para a regulação da IA

Um ciclo eleitoral extenuante chegou ao fim. Donald Trump será o 47º presidente dos EUA e, com os republicanos controlando o Senado — e possivelmente a Câmara — seus aliados estão prontos para trazer mudanças significativas aos mais altos níveis do governo.

Os efeitos serão sentidos agudamente na indústria de IA, que em grande parte se opôs à formulação de políticas federais. Trump disse repetidamente que planeja desmontar a estrutura de política de IA de Biden no “primeiro dia” e se alinhou com influentes que criticaram todas, exceto as regulações mais leves.

A abordagem de Biden

A política de IA de Biden entrou em vigor por meio de uma ordem executiva, a Ordem Executiva de IA, aprovada em outubro de 2023. A inação do Congresso em relação à regulação levou à ordem executiva, cujos preceitos são voluntários — não obrigatórios.

A OE de IA aborda tudo, desde o avanço da IA na saúde até o desenvolvimento de diretrizes projetadas para mitigar os riscos de roubo de propriedade intelectual. Mas duas de suas disposições mais consequentes — que levantaram a ira de alguns republicanos — referem-se aos riscos de segurança da IA e aos impactos na segurança do mundo real.

Uma disposição direciona as empresas que desenvolvem modelos de IA poderosos a relatar ao governo como estão treinando e segurando esses modelos, e fornecer os resultados de testes projetados para investigar as vulnerabilidades do modelo. A outra disposição direciona o Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio a elaborar diretrizes que ajudem as empresas a identificar — e corrigir — falhas nos modelos, incluindo preconceitos.

A OE de IA conseguiu muito. No último ano, o Departamento de Comércio estabeleceu o Instituto de Segurança de IA dos EUA (AISI), um órgão para estudar os riscos em sistemas de IA, inclusive sistemas com aplicações de defesa. Também lançou novos softwares para ajudar a melhorar a confiabilidade da IA e testou novos modelos de IA por meio de acordos com OpenAI e Anthropic.

Críticos alinhados com Trump argumentam que os requisitos de relatório da OE são onerosos e efetivamente forçam as empresas a divulgar seus segredos comerciais. Durante uma audiência na Câmara em março, a representante Nancy Mace (R-SC) disse que eles “podem afastar potenciais inovadores e impedir mais avanços do tipo ChatGPT.”

Em uma audiência no Senado em julho, o companheiro de chapa de Trump, JD Vance, expressou preocupações de que “tentativas de regulação excessiva pré-emptiva” “entranhariam os incumbentes de tecnologia que já temos.” Vance também tem apoiado ações antitruste, incluindo esforços da presidente da FTC, Lina Khan, que está liderando investigações sobre as aquisições de startups de IA por grandes empresas de tecnologia.

Vários republicanos equipararam o trabalho do NIST em IA com censura da fala conservadora. Eles acusam a administração Biden de tentar direcionar o desenvolvimento da IA com noções liberais sobre desinformação e preconceito; o senador Ted Cruz (R-TX) recentemente criticou os “padrões de ‘segurança’ de IA woke” do NIST como um “plano para controlar a fala” com base em “danos sociais amorfos.”

“Quando eu for reeleito,” disse Trump em um comício em Cedar Rapids, Iowa, no último dezembro, “eu cancelarei a ordem executiva de inteligência artificial de Biden e proibirei o uso de IA para censurar a fala dos cidadãos americanos no primeiro dia.”

Substituindo a OE de IA

Então, o que poderia substituir a OE de IA de Biden?

Pouco pode ser deduzido das ordens executivas de IA que Trump assinou durante seu último mandato presidencial, que fundaram institutos nacionais de pesquisa em IA e direcionaram as agências federais a priorizar P&D em IA. Suas ordens executivas mandaram que as agências “protegessem as liberdades civis, a privacidade e os valores americanos” na aplicação da IA, ajudassem os trabalhadores a adquirir habilidades relevantes em IA e promovesse o uso de tecnologias “confiáveis”.

Durante sua campanha, Trump prometeu políticas que “apoiassem o desenvolvimento de IA enraizado na liberdade de expressão e no florescimento humano” — mas não entrou em detalhes.

Alguns republicanos disseram que querem que o NIST se concentre nos riscos de segurança física da IA, incluindo sua capacidade de ajudar adversários a construir armas biológicas (que a OE de Biden também aborda). Mas também se afastaram de endossar novas restrições à IA, o que poderia jeopardizar partes das diretrizes do NIST.

De fato, o destino do AISI, que está hospedado dentro do NIST, é incerto. Embora tenha um orçamento, diretor e parcerias com institutos de pesquisa em IA em todo o mundo, o AISI poderia ser encerrado com uma simples revogação da OE de Biden.

Em uma carta aberta em outubro, uma coalizão de empresas, organizações sem fins lucrativos e universidades pediu ao Congresso que promulgasse uma legislação codificando o AISI antes do final do ano.

Trump reconheceu que a IA é “muito perigosa” e que exigirá enormes quantidades de energia para desenvolver e operar, sugerindo uma disposição de engajar-se com os crescentes riscos da IA.

Sendo assim, Sarah Kreps, uma cientista política que se concentra na política de defesa dos EUA, não espera que uma regulação significativa da IA surja da Casa Branca nos próximos quatro anos. “Não sei se as opiniões de Trump sobre regulação de IA subirão ao nível de antipatia que o leve a revogar a OE de IA de Biden,” ela disse ao TechCrunch.

Comércio e formulação de regras do estado

Dean Ball, um pesquisador do George Mason University, concorda que a vitória de Trump provavelmente pressagia um regime regulatório leve — um que dependerá da aplicação da legislação existente em vez da criação de novas leis. No entanto, Ball prevê que isso pode encorajar os governos estaduais, particularmente em redutos democratas como a Califórnia, a tentar preencher o vácuo.

Esforços liderados pelo estado estão bem encaminhados. Em março, o Tennessee aprovou uma lei protegendo artistas de voz da clonagem de IA. Neste verão, o Colorado adotou uma abordagem baseada em risco em camadas para implantações de IA. E em setembro, o governador da Califórnia, Gavin Newsom, assinou dezenas de projetos de lei relacionados à segurança de IA, alguns dos quais exigem que as empresas publiquem detalhes sobre seu treinamento de IA.

Os legisladores estaduais introduziram perto de 700 peças de legislação sobre IA apenas neste ano.

“Como o governo federal responderá a esses desafios é incerto,” disse Ball.

Hamid Ekbia, professor da Universidade de Syracuse que estuda assuntos públicos, acredita que as políticas protecionistas de Trump poderiam ter implicações regulatórias para a IA. Ele espera que a administração Trump imponha controles de exportação mais rígidos sobre a China, por exemplo — incluindo controles sobre as tecnologias necessárias para desenvolver a IA.

A administração Biden já tem em vigor uma série de proibições na exportação de chips e modelos de IA. No entanto, algumas empresas chinesas estão supostamente usando brechas para acessar as ferramentas por meio de serviços de nuvem.

“A regulação global da IA sofrerá como consequência [de novos controles], apesar das circunstâncias que pedem mais cooperação global,” disse Ekbia. “As ramificações políticas e geopolíticas disso podem ser enormes, permitindo usos mais autoritários e opressivos de IA em todo o mundo.”

Se Trump aplicar tarifas sobre a tecnologia necessária para construir a IA, isso também poderá restringir o capital necessário para financiar P&D em IA, diz Matt Mittelsteadt, outro pesquisador do George Mason University. Durante sua campanha, Trump propôs uma tarifa de 10% sobre todas as importações dos EUA e 60% sobre produtos fabricados na China.

“Talvez o maior impacto venha das políticas comerciais,” disse Mittelsteadt. “Espere que quaisquer tarifas potenciais tenham um impacto econômico massivo no setor de IA.”

Claro, é cedo. E, embora Trump tenha evitado em grande parte abordar a IA na campanha, grande parte de sua plataforma — como seu plano de restringir vistos H-1B e abraçar o petróleo e gás — pode ter efeitos colaterais na indústria de IA.

Sandra Wachter, professora de ética de dados no Oxford Internet Institute, instou os reguladores, independentemente de suas afiliações políticas, a não perderem de vista os perigos da IA em relação às suas oportunidades.

“Esses riscos existem independentemente de onde você esteja no espectro político,” disse ela. “Esses danos não acreditam em geografia e não se importam com linhas partidárias. Eu só posso esperar que a governança da IA não seja reduzida a uma questão partidária – é uma questão que nos afeta a todos, em todos os lugares. Todos nós precisamos trabalhar juntos para encontrar boas soluções globais.

Fonte

Compartilhe esse conteúdo: