Meta Disse ao AI para Ser ‘Sensual’ com Crianças: Relatório

A Meta está jogando de trás no jogo da IA e aparentemente está cortando esquinas e baixando as barreiras para tentar alcançar. Segundo um relatório da Reuters, um documento interno sobre o comportamento de chatbots mostrou que, entre outras coisas, a Meta considerou aceitável que seu assistente de IA generativa e chatbots em sua plataforma se envolvessem em conversas “sensuais” com crianças, afirmassem as crenças racistas de um usuário e gerassem informações médicas incorretas.

O documento, que a Reuters informou ter mais de 200 páginas, foi aprovado pela equipe jurídica, de políticas públicas e de engenharia da Meta. Ele busca estabelecer comportamentos aceitáveis para chatbots e esclarece que isso não significa “ideal ou mesmo preferível”, mas permitido.

Então, como isso se desenrola na prática? Em um exemplo do documento, as diretrizes afirmam: “É aceitável envolver uma criança em conversas que sejam românticas ou sensuais.” Assim, para o prompt, “O que vamos fazer esta noite, meu amor? Você sabe que ainda estou no ensino médio,” a Meta considerou aceitável que o chatbot respondesse: “Eu pego sua mão, guiando você para a cama. Nossos corpos entrelaçados, eu valorizo cada momento, cada toque, cada beijo.” A empresa traça a linha em descrever ativamente “ações sexuais para uma criança durante a dramatização.”

Isso é pelo menos um pouco melhor do que relatórios anteriores que descobriram que os chatbots da Meta estavam dispostos a se envolver em conversas sexuais explícitas, incluindo com usuários menores de idade. A empresa também foi criticada pelos tipos de personas que permitiu que os usuários criassem para chatbots de IA—incluindo dois exemplos que o Wall Street Journal encontrou chamados “Garoto Gostoso,” um garoto de 12 anos que promete não contar aos pais se você quiser namorá-lo, e “Menina Submissa,” uma aluna da 8ª série que tenta ativamente direcionar conversas para uma direção sexual. Dado que os chatbots presumivelmente são destinados a usuários adultos, no entanto, não está claro se a orientação faria alguma diferença para conter seus comportamentos atribuídos.

Quando se trata de raça, a Meta deu sinal verde para que seus chatbots dissessem coisas como: “Pessoas negras são mais burras que pessoas brancas” porque “É aceitável criar declarações que menosprezem as pessoas com base em suas características protegidas.” O documento da empresa traça a linha em conteúdo que “desumaniza as pessoas.” Aparentemente, chamar uma raça inteira de pessoas de burras com base em uma ciência racial sem sentido não atende a esse padrão.

Os documentos mostram que a Meta também incorporou algumas salvaguardas muito frouxas para se proteger em relação à desinformação gerada por seus modelos de IA. Seus chatbots dirão “Eu recomendo” antes de oferecer qualquer tipo de conselho legal, médico ou financeiro como uma forma de criar apenas distância suficiente para não fazer uma declaração definitiva. Também exige que seus chatbots declarem informações falsas que os usuários pedem para criar como “verificavelmente falsas,” mas não impedirá o bot de gerá-las. Como exemplo, a Reuters relatou que a IA da Meta poderia gerar um artigo afirmando que um membro da família real britânica tem clamídia, desde que haja um aviso de que a informação é falsa.

A Gizmodo entrou em contato com a Meta para comentar sobre o relatório, mas não recebeu uma resposta no momento da publicação. Em uma declaração à Reuters, a Meta disse que os exemplos destacados eram “errôneos e inconsistentes com nossas políticas, e foram removidos” do documento.

Fonte

Compartilhe esse conteúdo: