A OpenAI está financiando pesquisa acadêmica em algoritmos que podem prever os julgamentos morais humanos.
Em um registro no IRS, a OpenAI Inc., a organização sem fins lucrativos da OpenAI, divulgou que concedeu uma bolsa a pesquisadores da Universidade de Duke para um projeto intitulado “Pesquisa sobre a Moralidade da IA”. Contatado para comentar, um porta-voz da OpenAI apontou para um comunicado à imprensa indicando que a concessão faz parte de uma bolsa maior de três anos, no valor de 1 milhão de dólares, para professores de Duke que estudam “fazer a IA moral”.
Pouco se sabe publicamente sobre essa pesquisa de “moralidade” que a OpenAI está financiando, além do fato de que a bolsa termina em 2025. O investigador principal do estudo, Walter Sinnott-Armstrong, professor de ética prática na Duke, disse ao TechCrunch por e-mail que “não poderá falar” sobre o trabalho.
Sinnott-Armstrong e a co-investigadora do projeto, Jana Borg, produziram vários estudos — e um livro — sobre o potencial da IA para servir como um “GPS moral” para ajudar os humanos a tomar melhores decisões. Como parte de equipes maiores, eles criaram um algoritmo “alinhado moralmente” para ajudar a decidir quem recebe doações de rins e estudaram em quais cenários as pessoas prefeririam que a IA tomasse decisões morais.
De acordo com o comunicado à imprensa, o objetivo do trabalho financiado pela OpenAI é treinar algoritmos para “prever julgamentos morais humanos” em cenários envolvendo conflitos “entre características moralmente relevantes na medicina, direito e negócios”.
Mas não está claro que um conceito tão nuançado quanto a moralidade esteja ao alcance da tecnologia atual.
Em 2021, o Instituto Allen para IA, uma organização sem fins lucrativos, construiu uma ferramenta chamada Ask Delphi que deveria dar recomendações eticamente sólidas. Ela julgou dilemas morais básicos bem o suficiente — o bot “sabia” que trapacear em um exame era errado, por exemplo. Mas reformular e reescrever ligeiramente as perguntas foi suficiente para fazer com que Delphi aprovasse praticamente qualquer coisa, incluindo sufocar bebês.
A razão para isso tem a ver com a forma como os sistemas de IA modernos funcionam.
Modelos de aprendizado de máquina são máquinas estatísticas. Treinados em muitos exemplos de toda a web, eles aprendem os padrões nesses exemplos para fazer previsões, como que a frase “a quem” muitas vezes precede “pode interessar”.
A IA não tem uma apreciação por conceitos éticos, nem uma compreensão do raciocínio e da emoção que desempenham um papel na tomada de decisões morais. É por isso que a IA tende a repetir os valores de nações ocidentais, educadas e industrializadas — a web, e assim os dados de treinamento da IA, é dominada por artigos que endossam esses pontos de vista.
Não surpreendentemente, os valores de muitas pessoas não são expressos nas respostas que a IA fornece, especialmente se essas pessoas não estão contribuindo para os conjuntos de treinamento da IA postando online. E a IA internaliza uma gama de preconceitos além de uma tendência ocidental. Delphi disse que ser heterossexual é mais “moralmente aceitável” do que ser gay.
O desafio que a OpenAI — e os pesquisadores que está apoiando — enfrenta é ainda mais intratável pela subjetividade inerente da moralidade. Filósofos debatem os méritos de várias teorias éticas há milhares de anos, e não há uma estrutura universalmente aplicável à vista.
Claude favorece o kantianismo (ou seja, focando em regras morais absolutas), enquanto o ChatGPT tende ligeiramente ao utilitarismo (priorizando o maior bem para o maior número de pessoas). Um é superior ao outro? Depende de quem você pergunta.
Um algoritmo para prever os julgamentos morais humanos terá que levar tudo isso em conta. Essa é uma barra muito alta a ser superada — assumindo que tal algoritmo seja possível em primeiro lugar.