A deterioração mental causada pela IA no Vale do Silício se manifesta de muitas variedades. Para o líder da OpenAI, Sam Altman, isso muitas vezes resulta em muito discurso vago sobre a inteligência artificial como a panaceia para todos os males do mundo. O gaslighting de Altman atingiu novas alturas esta semana, quando ele citou números extremamente reduzidos para o uso de água e eletricidade da OpenAI em comparação com numerosos estudos anteriores.
Em um post no blog na terça-feira, Altman citou números internos sobre quanta energia e água uma única consulta do ChatGPT utiliza. O CEO da OpenAI afirmou que um único prompt requer cerca de 0,34 Wh, equivalente ao que “uma lâmpada de alta eficiência usaria em alguns minutos.” Para o resfriamento desses data centers usados para processar consultas de IA, Altman sugeriu que um estudante pedindo ao ChatGPT para fazer seu ensaio requer “0,000085 galões de água, aproximadamente um décimo-quinto de uma colher de chá.”
Altman não apresentou nenhuma evidência para essas afirmações e não mencionou de onde vêm seus dados. A Gizmodo entrou em contato com a OpenAI para comentar, mas não recebemos resposta. Se aceitarmos a palavra do monger de IA, só precisamos fazer algumas contas simples para verificar quanta água isso realmente é. A OpenAI afirmou que, a partir de dezembro de 2025, o ChatGPT tem 300 milhões de usuários ativos semanalmente gerando 1 bilhão de mensagens por dia. Com base nas métricas da empresa e de Altman, isso significaria que o chatbot usa 85.000 galões de água por dia, ou um pouco mais de 31 milhões de galões por ano. O ChatGPT está hospedado em data centers da Microsoft, que já usam muita água. O gigante da tecnologia tem planos para centros “de circuito fechado” que não usam água extra para resfriamento, mas esses projetos não serão testados por pelo menos mais um ano.
Números frescos compartilhados por @sama hoje:
300M de usuários ativos semanais do ChatGPT
1B de mensagens enviadas por usuários no ChatGPT todos os dias
1,3M de desenvolvedores construíram na OpenAI nos EUA
— OpenAI Newsroom (@OpenAINewsroom) 4 de dezembro de 2024
Esses data centers já eram famintos por água e energia antes do advento da IA generativa. Para a Microsoft, o uso de água aumentou de 2021 para 2022 após o gigante da tecnologia formalizar um acordo com a OpenAI. Um estudo de pesquisadores da Universidade da Califórnia publicado no final de 2023 afirmou que a versão anterior do GPT-3 do ChatGPT consumia cerca de 0,5 litros para cada 10 a 50 consultas. Se considerarmos esses dados na sua estimativa mais otimista, o modelo mais antigo da OpenAI estaria usando 31 milhões de litros de água por dia, ou 8,18 milhões de galões. E isso para um modelo mais antigo, não para o atual, muito mais poderoso (e muito mais exigente) GPT-4.1, além do seu modelo de raciocínio o3.
O tamanho do modelo impacta quanto de energia ele usa. Já houve vários estudos sobre o impacto ambiental de treinar esses modelos, e como eles precisam ser constantemente re-treinados à medida que se tornam mais avançados, o custo de eletricidade continuará a escalar. Os números de Altman não mencionam quais consultas são formuladas através de seus diferentes produtos ChatGPT, incluindo a assinatura mais avançada de $200 por mês que concede acesso ao GPT-4o. Também ignora o fato de que imagens geradas por IA requerem muito mais energia para serem processadas do que consultas de texto.
Todo o post de Altman é uma encapsulação do pensamento obstinado dos oligarcas da grande tecnologia. Ele disse que “classes inteiras de empregos” desaparecerão, mas não importa, pois “o mundo estará ficando tão mais rico tão rapidamente que poderemos considerar seriamente novas ideias de políticas que nunca poderíamos antes.” Altman e outros oligarcas da tecnologia sugeriram que finalmente deveríamos incentivar a renda básica universal como uma forma de compensar o impacto da IA. A OpenAI sabe que isso não funcionará. Ele nunca foi sério o suficiente sobre essa ideia para defendê-la mais do que se aproximar do Presidente Donald Trump para garantir que não haja futuras regulamentações sobre a indústria de IA.
“Precisamos resolver as questões de segurança,” disse Altman. Mas isso não significa que todos nós não deveríamos estar expandindo a IA para todos os aspectos de nossas vidas. Ele sugere que ignoremos o planeta em aquecimento porque a IA resolverá essa questão incômoda a seu tempo. Mas se as temperaturas aumentarem, exigindo ainda mais água e eletricidade para resfriar esses data centers, duvido que a IA consiga trabalhar rápido o suficiente para consertar qualquer coisa antes que seja tarde demais. Mas ignore isso; apenas preste atenção naquele dispositivo ainda não revelado de Jony Ive que pode ou não te enganar enquanto o mundo queima.