No início de abril, uma infinidade de figuras de ação começou a aparecer em sites de mídia social, incluindo LinkedIn e X. Cada figura retratava a pessoa que a criara com uma precisão impressionante, completa com acessórios personalizados, como copos de café reutilizáveis, tapetes de yoga e fones de ouvido.
Tudo isso é possível graças ao novo gerador de imagens alimentado pelo GPT-4o da OpenAI, que potencializa a capacidade do ChatGPT de editar fotos, renderizar texto e muito mais. O gerador de imagens do ChatGPT da OpenAI também pode criar imagens no estilo da empresa de filmes de animação japonesa Studio Ghibli — uma tendência que rapidamente se tornou viral.
As imagens são divertidas e fáceis de fazer — tudo o que você precisa é de uma conta gratuita do ChatGPT e uma foto. No entanto, para criar uma figura de ação ou uma imagem no estilo de Studio Ghibli, você também precisa fornecer muitos dados à OpenAI, que podem ser usados para treinar seus modelos.
Dados Ocultos
Os dados que você está entregando ao usar um editor de imagens de IA muitas vezes estão ocultos. Cada vez que você faz o upload de uma imagem para o ChatGPT, você está potencialmente entregando “um pacote inteiro de metadados”, diz Tom Vazdar, presidente da área de cibersegurança do Open Institute of Technology. “Isso inclui os dados EXIF anexados ao arquivo da imagem, como a hora em que a foto foi tirada e as coordenadas GPS de onde foi capturada.”
A OpenAI também coleta dados sobre o dispositivo que você está usando para acessar a plataforma. Isso significa seu tipo de dispositivo, sistema operacional, versão do navegador e identificadores únicos, diz Vazdar. “E como plataformas como o ChatGPT operam de forma conversacional, também há dados comportamentais, como o que você digitou, que tipo de imagens você pediu, como você interagiu com a interface e a frequência dessas ações.”
Não é apenas o seu rosto. Se você enviar uma foto de alta resolução, estará entregando à OpenAI o que mais estiver na imagem, também — o fundo, outras pessoas, coisas no seu quarto e qualquer coisa legível, como documentos ou crachás, diz Camden Woollven, chefe de marketing de produtos de IA da empresa de gerenciamento de riscos GRC International Group.
Esse tipo de dados fornecidos voluntariamente, respaldados por consentimento, é “uma mina de ouro para treinar modelos generativos”, especialmente aqueles multimodais que dependem de entradas visuais, diz Vazdar.
A OpenAI nega que esteja orquestrando tendências de fotos virais como uma manobra para coletar dados dos usuários, mas a empresa certamente ganha uma vantagem com isso. A OpenAI não precisa vasculhar a web em busca do seu rosto se você o estiver enviando alegremente, aponta Vazdar. “Essa tendência, seja por design ou uma oportunidade conveniente, está fornecendo à empresa volumes massivos de dados faciais novos e de alta qualidade de diversas faixas etárias, etnias e geografias.”
A OpenAI afirma que não busca ativamente informações pessoais para treinar modelos — e não usa dados públicos da internet para criar perfis sobre pessoas para anunciar a elas ou vender seus dados, diz um porta-voz da OpenAI à WIRED. No entanto, sob a política de privacidade atual da OpenAI, as imagens enviadas através do ChatGPT podem ser retidas e usadas para melhorar seus modelos.
Qualquer dado, prompts ou solicitações que você compartilhar ajudam a ensinar o algoritmo — e informações personalizadas ajudam a ajustá-lo ainda mais, diz Jake Moore, conselheiro global de cibersegurança da empresa de segurança ESET, que criou sua própria figura de ação para demonstrar os riscos de privacidade da tendência no LinkedIn.
Semelhança Estranha
Em alguns mercados, suas fotos são protegidas por regulamentação. No Reino Unido e na UE, a regulamentação de proteção de dados, incluindo o GDPR, oferece fortes proteções, incluindo o direito de acessar ou excluir seus dados. Ao mesmo tempo, o uso de dados biométricos requer consentimento explícito.
No entanto, fotografias tornam-se dados biométricos apenas quando processadas por um meio técnico específico que permite a identificação única de um indivíduo específico, diz Melissa Hall, associada sênior do escritório de advocacia MFMac. Processar uma imagem para criar uma versão em cartoon do sujeito na fotografia original “provavelmente não atende a essa definição”, diz ela.
Enquanto isso, nos EUA, as proteções de privacidade variam. “A Califórnia e Illinois estão liderando com leis de proteção de dados mais fortes, mas não há uma posição padrão em todos os estados dos EUA”, diz Annalisa Checchi, sócia do escritório de advocacia de propriedade intelectual Ionic Legal. E a política de privacidade da OpenAI não contém uma exclusão explícita para semelhança ou dados biométricos, o que “cria uma área cinzenta para uploads faciais estilizados”, diz Checchi.
Os riscos incluem sua imagem ou semelhança sendo retida, potencialmente usada para treinar futuros modelos ou combinada com outros dados para perfilamento, diz Checchi. “Embora essas plataformas muitas vezes priorizem a segurança, o uso a longo prazo da sua semelhança ainda é pouco compreendido — e difícil de reverter uma vez enviado.”
A OpenAI afirma que a privacidade e a segurança de seus usuários são uma prioridade máxima. A empresa quer que seus modelos de IA aprendam sobre o mundo, não sobre indivíduos privados, e minimiza ativamente a coleta de informações pessoais, diz um porta-voz da OpenAI à WIRED.
Enquanto isso, os usuários têm controle sobre como seus dados são usados, com ferramentas de autoatendimento para acessar, exportar ou excluir informações pessoais. Você também pode optar por não ter conteúdo usado para melhorar modelos, de acordo com a OpenAI.
Os usuários do ChatGPT Free, Plus e Pro podem controlar se contribuem para melhorias futuras dos modelos em suas configurações de controle de dados. A OpenAI não treina dados de clientes do ChatGPT Team, Enterprise e Edu por padrão, de acordo com a empresa.
Tópicos em Alta
Na próxima vez que você estiver tentado a entrar em uma tendência liderada pelo ChatGPT, como as figuras de ação ou as imagens no estilo de Studio Ghibli, é sábio considerar a troca de privacidade. Os riscos se aplicam ao ChatGPT, bem como a muitas outras ferramentas de edição ou geração de imagens de IA, por isso é importante ler a política de privacidade antes de enviar suas fotos.
Há também etapas que você pode seguir para proteger seus dados. No ChatGPT, a mais eficaz é desativar o histórico de chat, o que ajuda a garantir que seus dados não sejam usados para treinamento, diz Vazdar. Você também pode enviar imagens anônimas ou modificadas, por exemplo, usando um filtro ou gerando um avatar digital em vez de uma foto real, diz ele.
Vale a pena remover metadados de arquivos de imagem antes de fazer o upload, o que é possível usando ferramentas de edição de fotos. “Os usuários devem evitar prompts que incluam informações pessoais sensíveis e se abster de enviar fotos em grupo ou qualquer coisa com características de fundo identificáveis”, diz Vazdar.
Verifique suas configurações de conta da OpenAI, especialmente aquelas relacionadas ao uso de dados para treinamento, acrescenta Hall. “Esteja ciente de se alguma ferramenta de terceiros está envolvida e nunca envie a foto de outra pessoa sem o consentimento dela. Os termos da OpenAI deixam claro que você é responsável pelo que envia, então a conscientização é fundamental.”
Checchi recomenda desativar o treinamento de modelos nas configurações da OpenAI, evitar prompts com localização e evitar vincular conteúdo a perfis sociais. “Privacidade e criatividade não são mutuamente exclusivos — você só precisa ser um pouco mais intencional.”