A legalidade das práticas comerciais da indústria de IA tem sido uma questão pendente. Como uma tecnologia “disruptiva” nova, a inteligência artificial causou uma infinidade de problemas ao mesmo tempo que ofereceu novos benefícios à sociedade. Notavelmente, a IA tem sido usada para enganar consumidores, criar novas formas de desinformação e propaganda, e discriminar certos grupos de pessoas. Agora, o escritório do Procurador Geral da Califórnia emitiu um memorando legal enfatizando o fato de que tudo isso é provavelmente ilegal.
Em 13 de janeiro, o AG da Califórnia, Rob Bonta, emitiu dois avisos legais que ilustram todas as áreas em que a indústria de IA poderia estar se metendo em problemas. “O AGO incentiva o uso responsável da IA de maneiras que sejam seguras, éticas e consistentes com a dignidade humana”, diz o aviso. “Para que os sistemas de IA alcancem seu potencial positivo sem causar danos, eles devem ser desenvolvidos e usados eticamente e legalmente”, continua, antes de se desviar para as muitas maneiras pelas quais as empresas de IA poderiam, potencialmente, estar quebrando a lei.
Algumas dessas maneiras incluem:
Usar IA para “fomentar ou avançar a enganação”. Se você não percebeu, a internet está atualmente inundada por um verdadeiro tsunami de conteúdo falso. As preocupações sobre uma nova geração de deepfakes e desinformação explodiram desde que os geradores de conteúdo de IA se tornaram populares – e com razão. O memorando da Califórnia deixa claro que as empresas que usam IA para criar “deepfakes, chatbots e clones de voz que parecem representar pessoas, eventos e expressões que nunca existiram” poderiam se enquadrar na categoria de “enganosa” e, assim, ser consideradas uma violação da lei estadual.
Anunciar falsamente “a precisão, qualidade ou utilidade dos sistemas de IA”. Tem havido bastante hipérbole, por assim dizer, quando se trata da indústria de IA e do que ela afirma que pode realizar em comparação com o que realmente pode. O escritório de Bonta diz que, para evitar a lei de publicidade enganosa da Califórnia, as empresas devem se abster de “afirmar que um sistema de IA tem uma capacidade que não tem; representar que um sistema é completamente alimentado por IA quando humanos são responsáveis por realizar algumas de suas funções; representar que humanos são responsáveis por realizar algumas das funções de um sistema quando a IA é responsável; ou afirmar sem base que um sistema é preciso, realiza tarefas melhor do que um humano faria, possui características específicas, atende a normas da indústria ou outras, ou é livre de viés”.
Criar ou vender um sistema ou produto de IA que tenha “um impacto adverso ou desproporcional sobre membros de uma classe protegida, ou criar, reforçar ou perpetuar discriminação ou segregação de membros de uma classe protegida.” Os sistemas de IA mostraram integrar viés humano em seus algoritmos, o que é particularmente perturbador considerando que a IA agora está sendo usada para vetar pessoas para oportunidades de habitação e emprego. O escritório de Bonta observa que sistemas automatizados que têm impactos desiguais em diferentes grupos de pessoas poderiam infringir as leis anti-discriminação do estado.
O aviso de Bonta também inclui uma lista de regulamentações recentemente aprovadas relacionadas à indústria de IA. O fato de que o aviso diz que todas essas atividades “podem” infringir a lei parece sinalizar que as empresas devem efetivamente se autorregular, a fim de não cair em território criminal e tentar o estado a tomar medidas contra elas.
O memorando de Bonta ilustra claramente o que uma verdadeira confusão legal a indústria de IA representa, embora não chegue a mencionar a lei de direitos autorais dos EUA, que é outra área cinzenta legal onde as empresas de IA estão perpetuamente se metendo em problemas. Atualmente, a OpenAI está sendo processada pelo New York Times, que acusou a empresa de infringir a lei de direitos autorais dos EUA ao usar seus artigos para treinar seus algoritmos. As empresas de IA foram repetidamente processadas sobre essa questão, mas, uma vez que a incursão da IA na geração de conteúdo representa um território legal amplamente não resolvido, nenhuma dessas ações judiciais foi bem-sucedida até agora.