Meta Diz Que Seu Último Modelo de IA É Menos Woke, Mais Semelhante ao Grok de Elon

A Meta afirma que seu mais recente modelo de IA, Llama 4, é menos politicamente tendencioso do que seus predecessores. A empresa diz que conseguiu isso em parte permitindo que o modelo respondesse a perguntas politicamente divisivas e acrescentou que o Llama 4 agora se compara favoravelmente à falta de viés político presente no Grok, o chatbot “não woke” da startup xAI de Elon Musk.

“Nosso objetivo é remover o viés de nossos modelos de IA e garantir que o Llama possa entender e articular ambos os lados de uma questão contenciosa”, continua a Meta. “Como parte desse trabalho, estamos continuando a tornar o Llama mais responsivo para que ele responda a perguntas, possa responder a uma variedade de pontos de vista diferentes sem emitir julgamentos e não favoreça algumas opiniões em detrimento de outras.”

Uma preocupação levantada por céticos de grandes modelos desenvolvidos por algumas empresas é o tipo de controle sobre a esfera da informação que isso pode produzir. Quem controla os modelos de IA essencialmente pode controlar as informações que as pessoas recebem, movendo os dials da maneira que quiserem. Isso não é novidade, é claro. As plataformas da Internet há muito usam algoritmos para decidir qual conteúdo destacar. É por isso que a Meta ainda está sendo atacada por conservadores, muitos dos quais insistem que a empresa suprimiu pontos de vista de direita, apesar do fato de que o conteúdo conservador historicamente foi muito mais popular no Facebook. O CEO Mark Zuckerberg tem trabalhado arduamente para conquistar a administração na esperança de evitar dores de cabeça regulatórias.

Em seu post no blog, a Meta enfatizou que suas mudanças no Llama 4 são especificamente destinadas a tornar o modelo menos liberal. “É bem conhecido que todos os principais LLMs tiveram problemas com viés — especificamente, eles historicamente tendem a ser mais à esquerda quando se trata de tópicos políticos e sociais debatidos”, escreveu. “Isso se deve aos tipos de dados de treinamento disponíveis na Internet.” A empresa não divulgou os dados que usou para treinar o Llama 4, mas é bem conhecido que a Meta e outras empresas de modelos dependem de livros pirateados e da raspagem de sites sem autorização.

Um dos problemas de otimizar para “equilíbrio” é que isso pode criar uma falsa equivalência e dar credibilidade a argumentos de má-fé que não se baseiam em dados empíricos e científicos. Conhecido coloquialmente como “bothsidesism”, alguns na mídia sentem a responsabilidade de oferecer peso igual a pontos de vista opostos, mesmo que um lado esteja fazendo um argumento baseado em dados e o outro esteja espalhando teorias da conspiração. Um grupo como o QAnon é interessante, mas representou um movimento marginal que nunca refletiu as opiniões de muitos americanos e talvez tenha recebido mais atenção do que merecia.

Os principais modelos de IA continuam a ter um problema pernicioso com a produção de informações factualmente precisas, mesmo hoje em dia, frequentemente fabricando informações e mentindo sobre isso. A IA tem muitas aplicações úteis, mas como um sistema de recuperação de informações, continua sendo perigosa de usar. Programas de linguagem de grande escala soltam informações incorretas com confiança, e todas as maneiras anteriores de usar a intuição para avaliar se um site é legítimo são jogadas pela janela.

Os modelos de IA têm um problema com viés — modelos de reconhecimento de imagem têm demonstrado problemas para reconhecer pessoas de cor, por exemplo. E as mulheres são frequentemente retratadas de maneiras sexualizadas, como usando roupas mínimas. O viés aparece até em formas mais inócuas: pode ser fácil identificar texto gerado por IA pela frequência de aparição de travessões, pontuação que é favorecida por jornalistas e outros escritores que produzem grande parte do conteúdo com o qual os modelos são treinados. Os modelos exibem as opiniões populares e mainstream do público em geral.

Mas Zuckerberg vê uma oportunidade de conquistar o favor do presidente Trump e está fazendo o que é politicamente conveniente, então a Meta está especificamente sinalizando que seu modelo será menos liberal. Portanto, da próxima vez que você usar um dos produtos de IA da Meta, ele pode estar disposto a argumentar a favor de curar a COVID-19 tomando tranquilizantes para cavalos.

Fonte

Compartilhe esse conteúdo: