Como uma vitória de Trump poderia liberar uma IA perigosa

Se Donald Trump vencer a eleição presidencial nos EUA em novembro, as barreiras podem ser removidas do desenvolvimento de inteligência artificial, mesmo com os perigos dos modelos de IA defeituosos se tornando cada vez mais sérios.

A eleição de Trump para um segundo mandato iria remodelar drasticamente — e possivelmente prejudicar — os esforços para proteger os americanos dos muitos perigos da inteligência artificial mal projetada, incluindo desinformação, discriminação e a contaminação de algoritmos usados em tecnologias como veículos autônomos.

O governo federal começou a supervisionar e aconselhar as empresas de IA sob uma ordem executiva que o presidente Joe Biden emitiu em outubro de 2023. Mas Trump prometeu revogar essa ordem, com a plataforma do Partido Republicano afirmando que isso “dificulta a inovação em IA” e “impoe ideias radicais de esquerda” no desenvolvimento de IA.

A promessa de Trump entusiasmou críticos da ordem executiva que a veem como ilegal, perigosa e um impedimento para a corrida digital dos Estados Unidos contra a China. Esses críticos incluem muitos dos aliados mais próximos de Trump, desde o CEO do X, Elon Musk, até o capitalista de risco Marc Andreessen e membros republicanos do Congresso, além de quase duas dúzias de procuradores-gerais estaduais do GOP. O companheiro de chapa de Trump, o senador do Ohio JD Vance, é fortemente oposto à regulação de IA.

“Os republicanos não querem apressar a superregulamentação dessa indústria”, diz Jacob Helberg, um executivo de tecnologia e entusiasta de IA que foi apelidado de “sussurrador de Trump no Vale do Silício”.

Mas especialistas em tecnologia e cibersegurança alertam que eliminar as disposições de segurança e proteção da ordem executiva minaria a confiabilidade dos modelos de IA que estão se infiltraindo cada vez mais em todos os aspectos da vida americana, desde transporte e medicina até emprego e vigilância.

A próxima eleição presidencial, em outras palavras, pode ajudar a determinar se a IA se tornará uma ferramenta sem precedentes de produtividade ou um agente incontrolável de caos.

Supervisão e Aconselhamento, Mão na Mão

A ordem de Biden aborda tudo, desde o uso da IA para melhorar os cuidados de saúde dos veteranos até a definição de salvaguardas para o uso da IA na descoberta de medicamentos. Mas a maior parte da controvérsia política em torno da ordem executiva decorre de duas disposições na seção que trata dos riscos de segurança digital e dos impactos na segurança do mundo real.

Uma disposição exige que proprietários de modelos poderosos de IA relatem ao governo como estão treinando os modelos e protegendo-os contra manipulação e roubo, incluindo a apresentação dos resultados de “testes de equipe vermelha” projetados para encontrar vulnerabilidades em sistemas de IA simulando ataques. A outra disposição direciona o Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio a produzir orientações que ajudem as empresas a desenvolver modelos de IA que sejam seguros contra ciberataques e livres de preconceitos.

O trabalho nesses projetos já está bem avançado. O governo propôs requisitos de relatórios trimestrais para desenvolvedores de IA, e o NIST lançou documentos de orientação sobre gestão de risco, desenvolvimento de software seguro, marcação de conteúdo sintético e prevenção de abusos de modelos, além de lançar várias iniciativas para promover testes de modelos.

Os apoiadores desses esforços dizem que são essenciais para manter uma supervisão básica do governo sobre a indústria de IA em rápida expansão e para incentivar os desenvolvedores a melhorar a segurança. Mas para críticos conservadores, o requisito de relatórios é uma ingerência ilegal do governo que irá esmagar a inovação em IA e expor os segredos comerciais dos desenvolvedores, enquanto a orientação do NIST é um plano liberal para infectar a IA com noções de extrema esquerda sobre desinformação e preconceito que equivalem à censura da fala conservadora.

Em um comício em Cedar Rapids, Iowa, no último dezembro, Trump atacou a ordem executiva de Biden após alegar, sem evidências, que a administração Biden já havia usado a IA para fins nefastos.

“Quando eu for reeleito”, disse ele, “cancelarei a ordem executiva sobre inteligência artificial de Biden e banirei o uso da IA para censurar a fala dos cidadãos americanos no Dia Um.”

Diligência ou Carga Excessiva?

O esforço de Biden para coletar informações sobre como as empresas estão desenvolvendo, testando e protegendo seus modelos de IA gerou um alvoroço no Capitólio quase assim que estreou.

Os republicanos do Congresso aproveitaram-se do fato de que Biden justificou o novo requisito invocando a Lei de Produção de Defesa de 1950, uma medida de guerra que permite ao governo direcionar atividades do setor privado para garantir um suprimento confiável de bens e serviços. Legisladores do GOP chamaram o movimento de Biden de inadequado, ilegal e desnecessário.

Conservadores também criticaram o requisito de relatórios como um fardo para o setor privado. A disposição “pode assustar os possíveis inovadores e prejudicar mais inovações do tipo ChatGPT”, disse a representante Nancy Mace durante uma audiência em março que presidiu sobre “a ingerência da Casa Branca na IA”.

Helberg afirma que um requisito oneroso beneficiaria empresas já estabelecidas e prejudicaria startups. Ele também diz que críticos do Vale do Silício temem que os requisitos “sejam um trampolim” para um regime de licenciamento em que os desenvolvedores devem receber permissão do governo para testar modelos.

Steve DelBianco, CEO do grupo de tecnologia conservador NetChoice, diz que o requisito para relatar os resultados dos testes de equipe vermelha equivale a censura de fato, já que o governo estará procurando problemas como preconceito e desinformação. “Estou completamente preocupado com uma administração de centro-esquerda… cujos testes de equipe vermelha farão com que a IA restrinja o que gera por medo de desencadear essas preocupações”, diz ele.

Os conservadores argumentam que qualquer regulamentação que reprima a inovação em IA custará caro aos EUA na competição tecnológica com a China.

“Eles são tão agressivos, e fizeram da dominação da IA uma estrela norte-coreana de sua estratégia para como lutar e vencer guerras”, diz Helberg. “A diferença entre nossas capacidades e as da China continua diminuindo a cada ano que passa.”

Padrões de Segurança “Woke”

Ao incluir danos sociais em suas diretrizes de segurança de IA, o NIST enfureceu os conservadores e abriu outra frente na guerra cultural sobre moderação de conteúdo e liberdade de expressão.

Os republicanos condenam a orientação do NIST como uma forma de censura governamental disfarçada. O senador Ted Cruz recentemente atacou o que ele chamou de “padrões de segurança de IA ‘woke'” do NIST, por serem parte de um “plano da administração Biden para controlar a fala” baseado em danos sociais “amorfo”. O NetChoice advertiu o NIST de que ele está excedendo sua autoridade com diretrizes quase regulatórias que perturbam “o equilíbrio apropriado entre transparência e liberdade de expressão”.

Muitos conservadores descartam completamente a ideia de que a IA pode perpetuar danos sociais e deve ser projetada para não fazê-lo.

“Essa é uma solução em busca de um problema que realmente não existe”, diz Helberg. “Não houve evidências massivas de problemas de discriminação em IA.”

Estudos e investigações mostraram repetidamente que os modelos de IA contêm preconceitos que perpetuam a discriminação, incluindo em contratação, policiamento e cuidados de saúde. Pesquisas sugerem que pessoas que encontram esses preconceitos podem adotá-los inconscientemente.

Os conservadores se preocupam mais com as supercorreções das empresas de IA em relação a esse problema do que com o próprio problema. “Há uma correlação inversa direta entre o grau de ‘wokeness’ em uma IA e a utilidade da IA”, diz Helberg, citando um problema inicial com a plataforma de IA generativa do Google.

Os republicanos querem que o NIST se concentre nos riscos de segurança física da IA, incluindo sua capacidade de ajudar terroristas a construir armas biológicas (algo que a ordem executiva de Biden aborda). Se Trump vencer, seus nomeados provavelmente enfatizarão menos a pesquisa do governo sobre danos sociais da IA. Helberg reclama que a “enorme quantidade” de pesquisa sobre preconceito em IA eclipsou os estudos sobre “ameaças maiores relacionadas ao terrorismo e biowarfare”.

Defendendo uma Abordagem “Leve”

Especialistas em IA e legisladores oferecem defesas robustas da agenda de segurança em IA de Biden.

Esses projetos “permitem que os Estados Unidos permaneçam na vanguarda” do desenvolvimento de IA “enquanto protegem os americanos de potenciais danos”, diz o representante Ted Lieu, co-presidente democrata do grupo de trabalho de IA da Câmara.

Os requisitos de relatório são essenciais para alertar o governo sobre novas capacidades potencialmente perigosas em modelos de IA cada vez mais poderosos, diz um funcionário do governo dos EUA que trabalha em questões de IA. O funcionário, que solicitou anonimato para se expressar livremente, aponta a admissão da OpenAI sobre a “recusa inconsistente de pedidos para sintetizar agentes nervosos” de seu modelo mais recente.

O funcionário diz que o requisito de relatório não é excessivamente oneroso. Eles argumentam que, ao contrário das regulamentações de IA na União Europeia e na China, a ordem executiva de Biden reflete “uma abordagem muito ampla e leve que continua a fomentar a inovação”.

Nick Reese, que atuou como o primeiro diretor de tecnologia emergente do Departamento de Segurança Interna de 2019 a 2023, rejeita as alegações conservadoras de que o requisito de relatório colocará em risco a propriedade intelectual das empresas. E ele diz que pode realmente beneficiar startups ao encorajá-las a desenvolver modelos de IA “mais eficientes em termos computacionais”, menos pesados em dados que fiquem abaixo do limite de relatório.

O poder da IA torna a supervisão governamental imperativa, diz Ami Fields-Meyer, que ajudou a redigir a ordem executiva de Biden como oficial de tecnologia da Casa Branca.

“Estamos falando de empresas que dizem que estão construindo os sistemas mais poderosos da história do mundo”, diz Fields-Meyer. “A obrigação primeira do governo é proteger as pessoas. ‘Confie em mim, nós temos isso’ não é um argumento especialmente convincente.”

Especialistas elogiam a orientação de segurança do NIST como um recurso vital para construir proteções em novas tecnologias. Eles observam que modelos de IA defeituosos podem produzir danos sociais sérios, incluindo discriminação em aluguel e empréstimos e perda indevida de benefícios governamentais.

A própria ordem de IA do primeiro mandato de Trump exigia que os sistemas federais de IA respeitassem os direitos civis, algo que exigirá pesquisa sobre danos sociais.

A indústria de IA acolheu amplamente a agenda de segurança de Biden. “O que estamos ouvindo é que é amplamente útil ter essas coisas especificadas”, diz o funcionário dos EUA. Para novas empresas com equipes pequenas, “isso expande a capacidade de suas pessoas para lidar com essas preocupações”.

Revogar a ordem executiva de Biden enviaria um sinal alarmante de que “o governo dos EUA vai adotar uma abordagem de não intervenção em relação à segurança da IA”, diz Michael Daniel, ex-conselheiro cibernético presidencial que agora lidera a Cyber Threat Alliance, uma organização sem fins lucrativos de compartilhamento de informações.

Quanto à competição com a China, os defensores da ordem executiva dizem que as regras de segurança realmente ajudarão a América a prevalecer, garantindo que os modelos de IA dos EUA funcionem melhor do que seus rivais chineses e estejam protegidos da espionagem econômica de Pequim.

Dois Caminhos Muito Diferentes

Se Trump vencer a Casa Branca no próximo mês, espere uma mudança radical na forma como o governo aborda a segurança da IA.

Os republicanos querem prevenir danos da IA aplicando “as leis existentes de responsabilidade e estatutárias” em vez de promulgar novas restrições amplas à tecnologia, diz Helberg, e eles favorecem “um foco muito maior em maximizar a oportunidade proporcionada pela IA, em vez de se concentrar excessivamente na mitigação de riscos”. Isso provavelmente significará a morte do requisito de relatório e possivelmente algumas das orientações do NIST.

O requisito de relatório também pode enfrentar desafios legais agora que a Suprema Corte enfraqueceu a deferência que os tribunais costumavam dar às agências ao avaliar suas regulamentações.

E a resistência do GOP poderia até colocar em risco as parcerias voluntárias de teste de IA do NIST com empresas líderes. “O que acontece com esses compromissos em uma nova administração?” pergunta o funcionário dos EUA.

Essa polarização em torno da IA tem frustrado tecnólogos que temem que Trump irá minar a busca por modelos mais seguros.

“Junto com as promessas da IA estão os perigos”, diz Nicol Turner Lee, diretora do Centro de Inovação em Tecnologia da Brookings Institution, “e é vital que o próximo presidente continue a garantir a segurança e a proteção desses sistemas.”

Fonte

Compartilhe esse conteúdo: