Saeed Ismail é uma pessoa real. Mas não importa quantas provas ele poste online, as pessoas continuam chamando-o de falso.
O jovem de 22 anos suportou quase dois anos de guerra em Gaza, enquanto Israel continua um ataque que já matou pelo menos 57.000 pessoas e deixou o território de 2 milhões à beira da fome. Saeed tem arrecadado dinheiro online para alimentar sua família. Mas muitas pessoas nas redes sociais estão convencidas de que ele não é real. Elas acreditam que ele é uma criação gerada por IA, usada por golpistas para conseguir doações através de plataformas de crowdfunding de pessoas bem-intencionadas. E em um mundo onde vídeos e imagens de IA inundaram nossos espaços digitais, é fácil entender por que algumas pessoas são tão céticas.
A controvérsia começou com uma foto postada em maio que apresenta Saeed pedindo ajuda. Usuários da plataforma de mídia social Bluesky começaram a acusá-lo de ser falso. Uma conta pseudônima chamada Rev. Howard Arson liderou as acusações contra Saeed, apontando que seu cobertor tinha algumas palavras estranhas tecidas nele.
Arson apontou para duas palavras no cobertor: “pealistic” e “spfcation”, que pareciam ser erros de ortografia de “realistic” e “specification”. Arson suspeitou que isso era evidência de que a imagem foi feita com IA, resultado de alguém pedindo a uma ferramenta de inteligência artificial para fazer um cobertor realista e produzindo isso:
Saeed postou várias fotos e um vídeo mostrando o cobertor para provar que era real, mas isso não pôs fim às acusações. Ele disse à Gizmodo que sua mãe comprou o cobertor em um mercado perto de onde ele morava no norte de Gaza antes da guerra: “Quando deixei a casa durante a evacuação, levei-o comigo.”
As pessoas estavam convencidas de que o vídeo de IA se tornou tão avançado que Saeed poderia ser um ser completamente artificial—um agente de IA, como Arson disse à Gizmodo em mensagens diretas. Arson, que tem mais de 20.000 seguidores no Bluesky, estava recebendo muita atenção por suas alegações, ajudando-as a se espalhar pela rede social relativamente nichada. Saeed não sabia o que poderia fazer, já que a conta parecia ter mais influência do que ele jamais poderia alcançar.
“Quando entrei no Bluesky, vi que muitas pessoas começaram a acreditar que eu era uma fraude, principalmente por causa do status da pessoa que postou sobre mim,” disse Saeed à Gizmodo pelo WhatsApp. “Ele é visto como uma figura confiável por muitos, enquanto, infelizmente, eu não tenho o mesmo número de seguidores ou credibilidade.”
A Gizmodo verificou a existência de Saeed como uma pessoa real por meio de vários meios, incluindo uma videochamada em que ele andou pela sala e nos mostrou a vista da janela. Ele nos forneceu seu ID palestino, bem como fotos e vídeos de sua localização. Saeed disse à Gizmodo que anteriormente arrecadava dinheiro no PayPal, mas agora faz crowdfunding no GoFundMe através de uma campanha administrada por uma pessoa em quem confia na França, que lhe envia o dinheiro. Depois que chega à França, o dinheiro é enviado por transferências bancárias para Gaza, que ele diz ser “confiável e seguro”, explicando: “Nós dependemos desses canais porque simplesmente não temos outras opções disponíveis.”
O GoFundMe não opera em Gaza, mas permite que pessoas em países onde opera hospedem arrecadações para pessoas em outros países. Ele tem um tutorial em seu site sobre como fazer isso com segurança. A equipe do GoFundMe coleta documentação como IDs, recibos de despesas e outras provas para garantir que os fundos sejam entregues ao beneficiário. Um porta-voz do GoFundMe disse à Gizmodo que verificou a campanha de Saeed.
“Durante desastres humanitários e outras crises, nossa equipe monitora e verifica proativamente as arrecadações para ajudar a garantir que os fundos arrecadados em nossa plataforma sejam entregues rapidamente e com segurança,” disse um porta-voz do GoFundMe à Gizmodo em uma declaração.
“Quando uma arrecadação do GoFundMe é criada, priorizamos a distribuição de fundos enquanto também ajudamos a garantir a conformidade com as leis internacionais relevantes, regulamentos globais e requisitos ditados por nossos processadores de pagamento,” continuou o porta-voz. “Estamos trabalhando dia e noite para ajudar a garantir que os fundos de ajuda humanitária sejam entregues com segurança e rapidamente a quem precisa, ajudando famílias a acessar itens essenciais, reconstruir e se recuperar através da generosidade de suas comunidades.”
Saeed Ismail segurando o cobertor que iniciou uma controvérsia no Bluesky sobre se ele foi gerado por IA, fotografado em Gaza em 29 de maio de 2025.
Quem quer que opere a conta Arson se recusou a fornecer seu nome real, muito menos passar pelos mesmos obstáculos que Saeed para provar sua identidade à Gizmodo e ao GoFundMe. “Infelizmente, não quero uma reivindicação que não posso provar conectada ao meu nome, por isso—mesmo que eu esteja muito cético ainda—tirei a reivindicação real e quaisquer referências diretamente ao cara em questão,” Arson disse à Gizmodo pelo Bluesky.
Arson disse à Gizmodo que é um americano e reconheceu que seu país estava ajudando Israel a arrasar Gaza e matar dezenas de milhares de pessoas. Mas ele permaneceu inconformado de que Saeed era uma pessoa real e parecia frustrado que a IA se tornara tão avançada que ele não tinha certeza do que acreditar. Arson, que parece ter grande familiaridade com sistemas de IA, luta com o que acreditar, especialmente quando se trata de saber se doar dinheiro é uma boa coisa.
“Não tenho ideia do que é estar lá. Eu sei que faria ou diria literalmente qualquer coisa para comer,” escreveu Arson. “Mas é por isso que é absolutamente impossível avaliar se você realmente está fazendo algum bem! de um lado você tem pessoas com dinheiro e do outro você tem pessoas pagando $300 por um saco de lentilhas em uma fome fabricada e intencional.”
Arson reconheceu que sua perspectiva poderia estar distorcida por ver tantas imagens falsas criadas com IA.
“A maneira como as pessoas erram isso, e a maneira como eu possivelmente errei, é que elas acabam em um mundo onde metade das coisas que olham são sintéticas e metade são reais, e presumem que 50/50 é a distribuição [sic] em todos os lugares que olham,” Arson disse à Gizmodo.
Arson apontou para outro exemplo de uma foto que ele anteriormente pensou ser falsa, mas que na verdade é real. A imagem mostra uma mulher e duas crianças sentadas nos escombros de Gaza. Todas as três pessoas estão usando sandálias, embora a perna esquerda do menino tenha um gesso branco. Mas foi a sandália da mulher que levantou suspeitas.
A sandália tem um logotipo de cabeça de panda, junto com uma mistura estranha de palavras: “HAPPY LUCKY rlorE DNUI.” É o tipo de coisa que imediatamente levantaria bandeiras vermelhas para qualquer um que estivesse à procura de imagens de IA sendo circuladas online. A coisa estranha é que as sandálias são reais.
Arson encontrou as mesmas sandálias sendo vendidas no Facebook em um anúncio de uma loja online em Benghazi, na Líbia, em junho de 2022. Não apenas as sandálias vistas na foto de Gaza estavam disponíveis para compra, provando que existiam no mundo real, mas elas até vinham em uma variedade de cores.
A Gizmodo falou com a mulher na foto, Sahar AlAjrami, por videochamada para verificar que ela era uma pessoa real em Gaza. Seu inglês não é muito bom, então seu irmão mais novo, Ahmed, trabalhou como tradutor para nós, mostrando as sandálias iluminadas pela luz do celular no meio da noite. O GoFundMe disse à Gizmodo que as campanhas de arrecadação para Sahar, que está tentando arrecadar dinheiro para alimentar seus filhos, e Ahmed foram verificadas como autênticas.
Não está claro quem projetou as sandálias com esse inglês tão distorcido, mas elas são absolutamente reais. E é talvez notável que junho de 2022 antecede os primeiros geradores de imagens de IA amplamente disponíveis, que realmente não se abriram ao público até o final de 2022. O ChatGPT, que oficialmente deu início à corrida de IA generativa voltada para o consumidor, foi lançado ao público em novembro de 2022.
Sahar está mais preocupada com seu filho de 10 anos, Odai, que foi baleado no pé por um drone quadricóptero israelense. Enquanto amadores detetives na internet estavam fixados em suas sandálias, foi o pé de seu filho na foto que deveria ter chamado a atenção. Sahar diz que analgésicos e outros medicamentos não estão sendo permitidos em Gaza e ela espera conseguir levá-lo ao Egito para tratamento. Isso é uma impossibilidade no momento, já que Israel fechou todas as passagens.
Gazenses como Sahar e Saeed estão longe de ser as únicas pessoas que estão tendo dificuldades para provar suas identidades em um ambiente cético nas redes sociais. O Bluesky recebeu críticas de ativistas nos últimos meses, já que os palestinos em Gaza lutam para sobreviver, mas estão sendo banidos à direita e à esquerda por supostamente serem golpistas ou robôs. Hany Abu Hilal é um professor de inglês em Gaza com três filhos pequenos que a Gizmodo também verificou como uma pessoa real através de seu ID palestino e uma videochamada. Ele começou uma campanha de crowdfunding no Chuffed, mas continua tendo suas contas deletadas no Bluesky por spam.
“Meu apartamento foi completamente queimado e depois completamente destruído,” ele disse à Gizmodo, explicando que vive em uma tenda em Khan Younis que não pode protegê-los adequadamente do calor ou do frio. Hany disse que foi banido do Bluesky sem uma explicação clara e está desesperado porque não pode pedir ajuda online em espaços que continuam deletando contas palestinas.
“Os preços básicos dos alimentos estão disparando aqui em Gaza. Não consigo nem comprar um pão para meus três filhos porque estou desempregado e não tenho dinheiro,” Hany disse à Gizmodo. O governo israelense tem controle total sobre o que entra e sai de Gaza e recentemente teve um bloqueio total de dois meses de alimentos e suprimentos para o território. Esse bloqueio foi afrouxado, mas apenas uma quantidade mínima, enquanto as pessoas lutam para encontrar as necessidades básicas para viver. Pelo menos 549 pessoas em Gaza foram mortas nas últimas semanas perto de locais de ajuda, de acordo com a CBC, e mais de 4.000 foram feridas tentando acessar alimentos da chamada Fundação Humanitária de Gaza (GHF), um grupo baseado nos EUA registrado em um escritório vazio em Delaware. Reportagens da Associated Press sugerem que não é apenas o exército israelense, mas também contratados dos EUA que dispararam contra multidões de palestinos tentando conseguir ajuda.
Hany diz que teve que evacuar 12 vezes desde o início da guerra, uma história comum para pessoas que foram deslocadas internamente pela invasão de Israel a Gaza. A grande maioria da população de Gaza teve que deixar suas casas, e Israel anunciou planos para conquistar completamente o território, com muitos políticos falando abertamente sobre a limpeza étnica da área. Embora tenhamos verificado que Hany é uma pessoa real, não conseguimos entrar em contato com o Chuffed, um site de arrecadação baseado na Austrália, para obter mais informações sobre seus processos de verificação de campanhas.
Gazenses procuram itens utilizáveis nos escombros de edifícios gravemente danificados e desmoronados após os ataques israelenses no campo de refugiados de Al-Shati, na Cidade de Gaza, em 26 de junho de 2025.
Hany tem lutado no Bluesky, que explodiu em popularidade desde que Elon Musk comprou o Twitter e o renomeou como X. E talvez nenhuma conta em inglês no Bluesky tenha feito mais para aumentar a conscientização sobre a situação dos palestinos na plataforma do que Molly Shah, uma ativista americana de 45 anos baseada em Berlim. Shah é originalmente de Kentucky e diz à Gizmodo que se mudou para a Alemanha em 2017 e trabalhou anteriormente como advogada lutando contra casos de despejo. Molly diz que as pessoas com quem conversa em Gaza lutam contra usuários de redes sociais chamando-os de falsos.
“Eu falo com pessoas todos os dias que viram e enfrentaram algumas das piores coisas que você pode imaginar, e as conversas mais angustiantes que tenho são frequentemente sobre perder suas contas ou serem chamados de golpistas,” Molly disse. “Acho que isso se deve ao fato de que as pessoas em Gaza perderam quase tudo, mas a única coisa que ainda lhes resta são suas identidades, e ser banido ou chamado de falso ataca até isso.”
Molly identificou fakes no Bluesky e reconhece que há golpistas tentando tirar proveito da situação. Mas eles são a minoria, e ela compartilhou coisas para ficar de olho, incluindo pessoas que usam apenas fotos de notícias para suas campanhas de arrecadação.
O Bluesky disse à Gizmodo que entende que as pessoas em Gaza precisam de plataformas para compartilhar suas experiências e buscar apoio, dizendo que a empresa está “comprometida em garantir que possam ser ouvidas no Bluesky.” Mas a plataforma disse que suas equipes de moderação têm que “distinguir entre defesa genuína e comportamento inautêntico coordenado.”
“Em alguns casos, nossas investigações revelaram redes onde indivíduos únicos operam centenas de contas engajando-se em mensagens em massa, respostas idênticas em conversas não relacionadas e seguindo em massa—comportamentos que interrompem a experiência da plataforma para todos os usuários, independentemente da causa subjacente,” Aaron Rodericks, chefe de Confiança e Segurança do Bluesky, disse à Gizmodo por e-mail.
“Quando identificamos esses padrões, fornecemos avisos e oportunidades para os usuários ajustarem sua abordagem antes que qualquer suspensão ocorra. Em outros casos, atores maliciosos criam redes de contas em massa para direcionar usuários no Bluesky e explorar a boa vontade em relação a crises,” continuou Rodericks.
A empresa de mídia social disse à Gizmodo que suas decisões de moderação “nem sempre são perfeitas, razão pela qual mantemos um processo de apelação,” mas disse que os usuários precisam se concentrar em operar uma única conta que siga as diretrizes da comunidade. Rodericks disse que estaria “publicando mais orientações em um futuro próximo para ajudar contas de defesa a permanecerem dentro de nossas regras enquanto compartilham suas mensagens,” mas não respondeu às perguntas de acompanhamento da Gizmodo sobre quando essa orientação viria.
Uma mulher segura o corpo do que parece ser uma criança no necrotério do Hospital Nasser em Khan Yunis, Gaza, em 26 de junho de 2025, após ataques israelenses atingirem uma área residencial.
Mesmo que os americanos encontrem uma campanha de arrecadação em que confiem, algumas pessoas estão preocupadas com o que o governo dos EUA fará com elas se doarem a pessoas em Gaza, dadas as tendências autoritárias e anti-muçulmanas da administração Trump. Trump disse anteriormente que toda Gaza deveria ser purgada de palestinos e que os EUA deveriam assumir a propriedade do território. E isso se traduziu em ações aterrorizantes nos EUA.
Trump tem promulgado políticas racistas e muitas vezes ilegais visando estudantes estrangeiros, com uma ênfase especial em atacar pessoas que protestam contra a guerra de Israel em Gaza. Rumeysa Ozturk, uma cidadã turca de 30 anos e estudante de pós-graduação na Universidade de Tufts, foi levada da rua em Massachusetts por agentes mascarados em um vídeo infame que se tornou viral em março. O “crime” de Ozturk foi co-autorar um artigo de opinião no jornal estudantil defendendo os princípios da liberdade de expressão. Mas não é ilegal para os americanos doarem a campanhas de arrecadação para a pessoa média que apenas tenta sobreviver em Gaza. Pelo menos, ainda não.
O problema, que sempre retornamos, é que está ficando muito difícil saber quando alguém é um golpista. A mais recente ferramenta de criação de vídeo de IA do Google, Veo 3, foi uma mudança de jogo que torna ainda mais turvas as águas. Quando a revista Time publicou um relatório sobre a ferramenta recentemente, o veículo criou um vídeo de gazenses falsos recebendo ajuda da USAID—o que nos leva às pessoas acusadas de serem falsas do outro lado desta guerra.
A Fundação Humanitária de Gaza, apoiada por Israel e pelos EUA, foi acusada de operar uma organização de ajuda insegura e ineficaz que está fazendo centenas de pessoas morrerem. Mas também foi acusada de fazer vídeos falsos. Um vídeo criado pela GHF e distribuído para veículos de notícias de direita como o Daily Wire foi compreensivelmente chamado de falso quando foi publicado nas redes sociais no final de maio. Qualquer um que olhe para ele pode ver que ele tem aquele tipo de qualidade incomum de estilo IA que é difícil de definir.
Uma fonte em um dos locais de distribuição de Gaza me diz que o Hamas montou um bloqueio para impedir que os gazenses recebessem ajuda.
Eles romperam e estavam gritando “obrigado, América” ao chegar ao local.
— Kassy Akiva (@KassyAkiva) 27 de maio de 2025
Contatado para comentar por e-mail, um porta-voz não identificado da GHF disse à Gizmodo que o vídeo é real, enviando uma captura de tela de metadados de um iPhone 15 Pro mostrando onde foi filmado em Gaza. A GHF inicialmente ofereceu à Gizmodo a oportunidade de falar com o cameraman, mas não nos enviou o arquivo de vídeo bruto que pedimos e nunca nos conectou com o cameraman que estava “em um avião de volta à América.” A GHF deu declarações contraditórias publicamente sobre suas atividades, com o chefe da organização, Johnnie Moore, dizendo recentemente à BBC que ninguém havia morrido perto de seus locais de distribuição de ajuda antes de dizer que não estava contestando que as pessoas haviam morrido apenas alguns minutos depois.
Como alguém sabe o que é real em um tipo de ambiente assim? Era uma pergunta difícil para as pessoas na internet, mesmo antes da invenção de criadores de imagens de IA generativa. A Gizmodo tem desmentido fotos virais há mais de uma década, e muitas fakes virais até mesmo precedem a invenção do Photoshop por décadas. Mas a IA mudou o jogo de tantas maneiras. E as imagens e vídeos de IA só ficarão mais sofisticados.
Outro problema em decifrar o que é real em Gaza é que Israel não permite jornalistas estrangeiros no território. O IDF às vezes acompanhou jornalistas de TV para breves períodos de tempo, sem permitir comunicação entre os jornalistas e os palestinos comuns no terreno, mas isso obviamente equivale a um evento de mídia altamente controlado. Mesmo que o americano médio tenha o orçamento para voar metade do caminho ao redor do mundo para verificar Gaza por si mesmo, eles simplesmente não têm permissão para fazer isso. Portanto, as pessoas são forçadas a descobrir suas próprias maneiras de determinar o que é real ou simplesmente jogar as mãos para cima e decidir que é muito difícil autenticar.
Mas as pessoas em Gaza continuam a sofrer, sem fim à vista. A infraestrutura de saúde em Gaza foi obliterada, com hospitais se tornando “campos de batalha”, como especialistas da ONU têm dito. O custo tem sido imenso, com crianças sendo particularmente atingidas. Mais de 50.000 crianças foram mortas ou feridas desde outubro de 2023, de acordo com números da UNICEF. E pesquisadores estimam que o número real de mortes é muito maior do que o número oficial que atualmente está em mais de 58.000.
Ainda assim, as pessoas continuam a chamar as atrocidades de falsas. Existem contas inteiras no X, que se tornou uma plataforma extremista de direita após ser comprada por Elon Musk no final de 2022, que são dedicadas ao chamado “Pallywood”, um trocadilho com o nome Hollywood, que alegam que o povo de Gaza está fingindo os crimes de guerra cometidos contra eles.
No final das contas, não há soluções fáceis. Evitar golpistas pode ser difícil à medida que a IA infecta todos os cantos da internet. Mas sobreviver a um genocídio é muito, muito mais difícil.
