À medida que o lixo gerado por IA toma conta de áreas crescentes da Internet gerada por usuários, graças ao aumento de modelos de linguagem de grande escala (LLMs) como o GPT da OpenAI, tenha um pensamento para os editores da Wikipedia. Além de seu trabalho habitual de eliminar edições ruins feitas por humanos, eles estão tendo que dedicar uma proporção crescente de seu tempo para tentar eliminar o enchimento gerado por IA.
A 404 Media conversou com Ilyas Lebleu, um editor da enciclopédia colaborativa, que esteve envolvido na fundação do projeto ‘WikiProject AI Cleanup’. O grupo está tentando desenvolver melhores práticas para detectar contribuições geradas por máquina. (E não, antes que você pergunte, a IA é inútil para isso.)
Um problema particular com o conteúdo gerado por IA nesse contexto é que quase sempre é inadequadamente fonte. A capacidade dos LLMs de produzir instantaneamente pilhas de texto que parecem plausíveis levou até mesmo a entradas falsas inteiras sendo enviadas na tentativa de enganar os especialistas humanos da Wikipedia.