Meta corrigiu um bug de segurança que permitia que usuários do chatbot Meta AI acessassem e visualizassem os prompts privados e as respostas geradas por IA de outros usuários.
Sandeep Hodkasia, fundador da empresa de testes de segurança Appsecure, revelou exclusivamente ao TechCrunch que a Meta lhe pagou $10.000 como recompensa por relatar o bug de forma privada, que ele registrou em 26 de dezembro de 2024.
A Meta implementou uma correção em 24 de janeiro de 2025, disse Hodkasia, e não encontrou evidências de que o bug foi explorado de forma maliciosa.
Hodkasia contou ao TechCrunch que identificou o bug após examinar como a Meta AI permite que seus usuários logados editem seus prompts de IA para regenerar texto e imagens. Ele descobriu que, quando um usuário edita seu prompt, os servidores de back-end da Meta atribuem ao prompt e à sua resposta gerada por IA um número único. Ao analisar o tráfego da rede em seu navegador enquanto editava um prompt de IA, Hodkasia descobriu que poderia alterar esse número único e os servidores da Meta retornariam um prompt e uma resposta gerada por IA de outra pessoa completamente diferente.
O bug significava que os servidores da Meta não estavam verificando adequadamente se o usuário que solicitava o prompt e sua resposta estava autorizado a vê-lo. Hodkasia disse que os números de prompt gerados pelos servidores da Meta eram “facilmente adivinháveis”, permitindo potencialmente que um ator malicioso coletasse os prompts originais dos usuários ao alterar rapidamente os números dos prompts usando ferramentas automatizadas.
Quando contatada pelo TechCrunch, a Meta confirmou que corrigiu o bug em janeiro e que a empresa “não encontrou evidências de abuso e recompensou o pesquisador”, disse o porta-voz da Meta, Ryan Daniels, ao TechCrunch.
A notícia do bug surge em um momento em que gigantes da tecnologia estão se apressando para lançar e refinar seus produtos de IA, apesar dos muitos riscos de segurança e privacidade associados ao seu uso.
O aplicativo autônomo da Meta AI, que estreou no início deste ano para competir com aplicativos rivais como o ChatGPT, teve um início conturbado após alguns usuários compartilharem inadvertidamente o que pensavam serem conversas privadas com o chatbot.
