Quase todas as grandes notícias sobre IA este ano foram sobre quão rápido a tecnologia está progredindo, os danos que está causando e especulações sobre quão em breve ela crescerá além do ponto em que os humanos podem controlá-la. Mas 2024 também viu os governos fazerem avanços significativos na regulamentação de sistemas algorítmicos. Aqui está uma análise das legislações e esforços regulatórios mais importantes em IA do ano passado nos níveis estadual, federal e internacional.
Estadual
Os legisladores estaduais dos EUA lideraram a regulamentação da IA em 2024, introduzindo centenas de projetos de lei—alguns com objetivos modestos, como a criação de comitês de estudo, enquanto outros impuseram responsabilidade civil séria aos desenvolvedores de IA no caso de suas criações causarem danos catastróficos à sociedade. A grande maioria dos projetos de lei não foi aprovada, mas vários estados promulgaram legislações significativas que poderiam servir como modelos para outros estados ou para o Congresso (assumindo que o Congresso comece a funcionar novamente).
À medida que a IA inundava as redes sociais antes da eleição, políticos de ambos os partidos apoiaram leis contra deepfakes. Mais de 20 estados agora têm proibições contra anúncios políticos enganosos gerados por IA nas semanas imediatamente anteriores a uma eleição. Projetos de lei destinados a conter a pornografia gerada por IA, particularmente imagens de menores, também receberam forte apoio bipartidário em estados como Alabama, Califórnia, Indiana, Carolina do Norte e Dakota do Sul.
Não surpreendentemente, dado que é o quintal da indústria de tecnologia, algumas das propostas de IA mais ambiciosas surgiram da Califórnia. Um projeto de lei de alto perfil teria forçado os desenvolvedores de IA a tomar precauções de segurança e responsabilizaria as empresas por danos catastróficos causados por seus sistemas. Esse projeto passou por ambas as casas da legislatura em meio a um feroz esforço de lobby, mas foi finalmente vetado pelo governador Gavin Newsom.
No entanto, Newsom assinou mais de uma dúzia de outros projetos de lei destinados a danos de IA menos apocalípticos, mas mais imediatos. Uma nova lei da Califórnia exige que as seguradoras de saúde garantam que os sistemas de IA que usam para tomar decisões de cobertura sejam justos e equitativos. Outra exige que os desenvolvedores de IA generativa criem ferramentas que rotulem o conteúdo como gerado por IA. E um par de projetos de lei proíbe a distribuição da imagem gerada por IA de uma pessoa falecida sem consentimento prévio e exige que os acordos para as imagens geradas por IA de pessoas vivas especifiquem claramente como o conteúdo será usado.
O Colorado aprovou uma lei pioneira nos EUA exigindo que as empresas que desenvolvem e usam sistemas de IA tomem medidas razoáveis para garantir que as ferramentas não sejam discriminatórias. Os defensores do consumidor chamaram a legislação de uma base importante. É provável que projetos de lei semelhantes sejam debatidos acaloradamente em outros estados em 2025.
E, em um gesto desafiador tanto para nossos futuros senhores robôs quanto para o planeta, Utah promulgou uma lei que proíbe qualquer entidade governamental de conceder personalidade jurídica à inteligência artificial, objetos inanimados, corpos d’água, gases atmosféricos, clima, plantas e outras coisas não humanas.
Federal
O Congresso falou muito sobre IA em 2024, e a Câmara terminou o ano lançando um relatório bipartidário de 273 páginas delineando princípios orientadores e recomendações para futuras regulamentações. Mas, quando se tratou de realmente aprovar legislações, os legisladores federais fizeram muito pouco.
As agências federais, por outro lado, estavam ocupadas o ano todo tentando cumprir as metas estabelecidas na ordem executiva de 2023 do presidente Joe Biden sobre IA. E vários reguladores, particularmente a Comissão Federal de Comércio e o Departamento de Justiça, intensificaram a repressão a sistemas de IA enganosos e prejudiciais.
O trabalho das agências para cumprir a ordem executiva sobre IA não foi particularmente atraente ou chamativo, mas lançou bases importantes para a governança de sistemas de IA públicos e privados no futuro. Por exemplo, as agências federais embarcaram em uma onda de contratações de talentos em IA e criaram padrões para o desenvolvimento responsável de modelos e mitigação de danos.
E, em um grande passo para aumentar a compreensão pública sobre como o governo usa a IA, o Escritório de Gestão e Orçamento conseguiu (a maior parte) de suas agências colegas a divulgar informações críticas sobre os sistemas de IA que usam e que podem impactar os direitos e a segurança das pessoas.
No lado da aplicação, a Operação AI Comply da FTC visou empresas que usam IA de maneiras enganosas, como para escrever avaliações falsas ou fornecer conselhos legais, e sancionou a empresa de detecção de armas Evolv por fazer alegações enganosas sobre o que seu produto poderia fazer. A agência também resolveu uma investigação com a empresa de reconhecimento facial IntelliVision, que foi acusada de afirmar falsamente que sua tecnologia estava livre de preconceitos raciais e de gênero, e baniu a cadeia de farmácias Rite Aid de usar reconhecimento facial por cinco anos após uma investigação que determinou que a empresa estava usando as ferramentas para discriminar clientes.
O DOJ, por sua vez, juntou-se a procuradores gerais estaduais em uma ação judicial acusando a empresa de software imobiliário RealPage de um enorme esquema de fixação de preços algorítmicos que aumentou os aluguéis em todo o país. Também ganhou várias ações judiciais antitruste contra o Google, incluindo uma envolvendo o monopólio da empresa sobre buscas na internet que pode mudar significativamente o equilíbrio de poder na crescente indústria de busca em IA.
Global
Em agosto, a Lei de IA da União Europeia entrou em vigor. A lei, que já está servindo como modelo para outras jurisdições, exige que sistemas de IA que desempenham funções de alto risco, como assistência em contratações ou decisões médicas, passem por mitigação de riscos e atendam a certos padrões em relação à qualidade dos dados de treinamento e supervisão humana. Também proíbe o uso de outros sistemas de IA, como algoritmos que poderiam ser usados para atribuir pontuações sociais aos residentes de um país que são então usados para negar direitos e privilégios.
Em setembro, a China emitiu uma importante estrutura de governança de segurança em IA. Como estruturas semelhantes publicadas pelo Instituto Nacional de Padrões e Tecnologia dos EUA, é não vinculativa, mas cria um conjunto comum de padrões para os desenvolvedores de IA seguirem ao identificar e mitigar riscos em seus sistemas.
Uma das legislações de política de IA mais interessantes vem do Brasil. No final de 2024, o senado do país aprovou um projeto de lei abrangente de segurança em IA. Enfrenta um caminho desafiador pela frente, mas se aprovado, criaria um conjunto sem precedentes de proteções para os tipos de material protegido por direitos autorais comumente usados para treinar sistemas de IA generativa. Os desenvolvedores teriam que divulgar quais materiais protegidos por direitos autorais foram incluídos em seus dados de treinamento, e os criadores teriam o poder de proibir o uso de seu trabalho para treinar sistemas de IA ou negociar acordos de compensação que seriam baseados, em parte, no tamanho do desenvolvedor de IA e em como o material seria usado.
Assim como a Lei de IA da UE, a proposta de lei brasileira também exigiria que sistemas de IA de alto risco seguissem certos protocolos de segurança.