Como a Lei Pode Domar a Inteligência Artificial

Enquanto você rola seu feed de mídia social ou deixa seu aplicativo de música favorito curar a playlist perfeita, pode parecer que a inteligência artificial está melhorando sua vida – aprendendo suas preferências e atendendo suas necessidades. Mas por trás dessa fachada conveniente está uma preocupação crescente: os danos algorítmicos.

Esses danos não são óbvios ou imediatos. Eles são insidiosos, se acumulando ao longo do tempo enquanto os sistemas de IA silenciosamente tomam decisões sobre sua vida sem que você saiba. O poder oculto desses sistemas está se tornando uma ameaça significativa à privacidade, igualdade, autonomia e segurança.

Os sistemas de IA estão incorporados em quase todos os aspectos da vida moderna. Eles sugerem quais programas e filmes você deve assistir, ajudam empregadores a decidir quem querem contratar e até influenciam juízes a decidir quem se qualifica para uma sentença. Mas o que acontece quando esses sistemas, muitas vezes vistos como neutros, começam a tomar decisões que colocam certos grupos em desvantagem ou, pior, causam danos reais?

As consequências frequentemente negligenciadas das aplicações de IA exigem estruturas regulatórias que possam acompanhar essa tecnologia em rápida evolução. Eu estudo a interseção da lei e da tecnologia, e delineei uma estrutura legal para fazer exatamente isso.

Queimadas lentas

Um dos aspectos mais marcantes dos danos algorítmicos é que seu impacto cumulativo muitas vezes passa despercebido. Esses sistemas normalmente não atacam diretamente sua privacidade ou autonomia de maneiras que você possa perceber facilmente. Eles coletam vastas quantidades de dados sobre as pessoas – muitas vezes sem seu conhecimento – e usam esses dados para moldar decisões que afetam a vida das pessoas.

Às vezes, isso resulta em inconvenientes menores, como um anúncio que o persegue em vários sites. Mas à medida que a IA opera sem abordar esses danos repetitivos, eles podem se acumular, levando a danos cumulativos significativos em diversos grupos de pessoas.

Considere o exemplo dos algoritmos de mídia social. Eles são ostensivamente projetados para promover interações sociais benéficas. No entanto, por trás de sua fachada aparentemente benéfica, eles silenciosamente rastreiam os cliques dos usuários e compilam perfis de suas crenças políticas, afiliações profissionais e vidas pessoais. Os dados coletados são usados em sistemas que tomam decisões consequentes – seja você identificado como um pedestre que atravessou fora da faixa, considerado para um emprego ou sinalizado como um risco de cometer suicídio.

Pior ainda, seu design viciante aprisiona adolescentes em ciclos de uso excessivo, levando a crises de saúde mental em escalada, incluindo ansiedade, depressão e automutilação. Quando você percebe a extensão total, é tarde demais – sua privacidade foi violada, suas oportunidades moldadas por algoritmos tendenciosos e a segurança dos mais vulneráveis minada, tudo sem seu conhecimento.

Isso é o que eu chamo de “dano cumulativo intangível”: os sistemas de IA operam em segundo plano, mas seus impactos podem ser devastadores e invisíveis.

A pesquisadora Kumba Sennaar descreve como os sistemas de IA perpetuam e exacerbam preconceitos.

Por que a regulamentação fica para trás

Apesar desses perigos crescentes, as estruturas legais em todo o mundo têm lutado para acompanhar. Nos Estados Unidos, uma abordagem regulatória que enfatiza a inovação dificultou a imposição de padrões rigorosos sobre como esses sistemas são usados em múltiplos contextos.

Os tribunais e órgãos reguladores estão acostumados a lidar com danos concretos, como lesões físicas ou perdas econômicas, mas os danos algorítmicos são frequentemente mais sutis, cumulativos e difíceis de detectar. As regulamentações muitas vezes falham em abordar os efeitos mais amplos que os sistemas de IA podem ter ao longo do tempo.

Os algoritmos de mídia social, por exemplo, podem gradualmente erodir a saúde mental dos usuários, mas como esses danos se acumulam lentamente, eles são difíceis de abordar dentro dos limites dos padrões legais atuais.

Quatro tipos de danos algorítmicos

Baseando-me na pesquisa existente sobre IA e governança de dados, classifiquei os danos algorítmicos em quatro áreas legais: privacidade, autonomia, igualdade e segurança. Cada um desses domínios é vulnerável ao poder sutil, mas muitas vezes não controlado, dos sistemas de IA.

O primeiro tipo de dano é a erosão da privacidade. Os sistemas de IA coletam, processam e transferem vastas quantidades de dados, erodindo a privacidade das pessoas de maneiras que podem não ser imediatamente óbvias, mas têm implicações de longo prazo. Por exemplo, sistemas de reconhecimento facial podem rastrear pessoas em espaços públicos e privados, efetivamente transformando a vigilância em massa na norma.

O segundo tipo de dano é a minoração da autonomia. Os sistemas de IA muitas vezes minam sutilmente sua capacidade de tomar decisões autônomas manipulando as informações que você vê. As plataformas de mídia social usam algoritmos para mostrar aos usuários conteúdo que maximiza os interesses de terceiros, moldando sutilmente opiniões, decisões e comportamentos em milhões de usuários.

O terceiro tipo de dano é a diminuição da igualdade. Os sistemas de IA, embora projetados para serem neutros, muitas vezes herdam os preconceitos presentes em seus dados e algoritmos. Isso reforça as desigualdades sociais ao longo do tempo. Em um caso infame, um sistema de reconhecimento facial usado por lojas de varejo para detectar ladrões de loja identificou desproporcionalmente mulheres e pessoas de cor.

O quarto tipo de dano é a deterioração da segurança. Os sistemas de IA tomam decisões que afetam a segurança e o bem-estar das pessoas. Quando esses sistemas falham, as consequências podem ser catastróficas. Mas mesmo quando funcionam como projetados, ainda podem causar danos, como os efeitos cumulativos dos algoritmos de mídia social na saúde mental dos adolescentes.

Como esses danos cumulativos muitas vezes surgem de aplicações de IA protegidas por leis de segredo comercial, as vítimas não têm como detectar ou rastrear o dano. Isso cria uma lacuna na responsabilidade. Quando uma decisão de contratação tendenciosa ou uma prisão injusta é feita devido a um algoritmo, como a vítima saberá? Sem transparência, é quase impossível responsabilizar as empresas.

Este vídeo da UNESCO apresenta pesquisadores de todo o mundo explicando as questões em torno da ética e da regulamentação da IA.

Fechando a lacuna de responsabilidade

Classificar os tipos de danos algorítmicos delineia os limites legais da regulamentação da IA e apresenta possíveis reformas legais para fechar essa lacuna de responsabilidade. Mudanças que acredito que ajudariam incluem avaliações de impacto algorítmico obrigatórias que exijam que as empresas documentem e abordem os danos imediatos e cumulativos de uma aplicação de IA à privacidade, autonomia, igualdade e segurança – antes e depois de sua implantação. Por exemplo, empresas que usam sistemas de reconhecimento facial precisariam avaliar os impactos desses sistemas ao longo de seu ciclo de vida.

Outra mudança útil seria fortalecer os direitos individuais em relação ao uso de sistemas de IA, permitindo que as pessoas optem por não participar de práticas prejudiciais e tornando certas aplicações de IA optativas. Por exemplo, exigir um regime de opt-in para o processamento de dados pelo uso de sistemas de reconhecimento facial das empresas e permitindo que os usuários optem por sair a qualquer momento.

Por fim, sugiro exigir que as empresas divulguem o uso de tecnologia de IA e seus danos antecipados. Para ilustrar, isso pode incluir notificar os clientes sobre o uso de sistemas de reconhecimento facial e os danos antecipados nas áreas delineadas na tipologia.

À medida que os sistemas de IA se tornam mais amplamente utilizados em funções sociais críticas – desde saúde até educação e emprego – a necessidade de regular os danos que podem causar se torna mais urgente. Sem intervenção, esses danos invisíveis provavelmente continuarão a se acumular, afetando quase todos e atingindo desproporcionalmente os mais vulneráveis.

Com a IA generativa multiplicando e exacerbando os danos da IA, acredito que é importante que os formuladores de políticas, tribunais, desenvolvedores de tecnologia e a sociedade civil reconheçam os danos legais da IA. Isso requer não apenas melhores leis, mas uma abordagem mais reflexiva à tecnologia de IA de ponta – uma que priorize os direitos civis e a justiça diante do rápido avanço tecnológico.

O futuro da IA possui uma promessa incrível, mas sem as estruturas legais adequadas, também pode consolidar a desigualdade e erodir os próprios direitos civis que, em muitos casos, está projetada para melhorar.

Fonte

Compartilhe esse conteúdo: