A Ascensão da ‘Vibe Hacking’ É o Próximo Pesadelo da IA

No futuro próximo, um único hacker pode desencadear 20 ataques de zero-day em diferentes sistemas ao redor do mundo ao mesmo tempo. Malware polimórfico pode devastar um código-fonte, utilizando um sistema de IA generativa personalizado para reescrever-se enquanto aprende e se adapta. Exércitos de ‘script kiddies’ podem usar LLMs criados para liberar um torrente de código malicioso com o toque de um botão.

Um exemplo: até o momento em que isso é escrito, um sistema de IA está no topo de várias tabelas de classificação no HackerOne—um sistema de recompensas por bugs para empresas. A IA é a XBOW, um sistema voltado para testadores de penetração whitehat que “encontra e explora autonomamente vulnerabilidades em 75 por cento dos benchmarks da web”, de acordo com o site da empresa.

Os hackers assistidos por IA são um grande medo na indústria de cibersegurança, mesmo que seu potencial ainda não tenha sido totalmente realizado. “Eu comparo isso a estar em uma aterrissagem de emergência em uma aeronave, onde é tipo ‘abraça, abraça, abraça’, mas ainda não impactamos nada”, diz Hayden Smith, cofundador da empresa de segurança Hunted Labs, à WIRED. “Ainda estamos esperando ter aquele evento em massa.”

A IA generativa facilitou a codificação para qualquer pessoa. Os LLMs melhoram a cada dia, novos modelos produzem códigos mais eficientes e empresas como a Microsoft dizem que estão usando agentes de IA para ajudar a escrever seu código. Qualquer um pode gerar um script em Python usando o ChatGPT agora, e a programação por vibração—pedir a uma IA para escrever código para você, mesmo que você não tenha muita ideia de como fazer isso—está em alta; mas também existe a ‘vibe hacking’.

“Vamos ver o vibe hacking. E pessoas sem conhecimento anterior ou profundo serão capazes de dizer à IA o que querem criar e seguir em frente para resolver esse problema”, diz Katie Moussouris, fundadora e CEO da Luta Security, à WIRED.

Os frontends de vibe hacking existem desde 2023. Naquele ano, um LLM criado para gerar código malicioso chamado WormGPT se espalhou em grupos do Discord, servidores do Telegram e fóruns da darknet. Quando profissionais de segurança e a mídia o descobriram, seus criadores desligaram o sistema.

O WormGPT desapareceu, mas outros serviços que se apresentavam como LLMs blackhat, como o FraudGPT, o substituíram. No entanto, os sucessores do WormGPT tinham problemas. Como observa a empresa de segurança Abnormal AI, muitos desses aplicativos podem ser apenas versões desbloqueadas do ChatGPT com algum código extra para fazê-los parecer como se fossem um produto independente.

Melhor, então, se você é um agente maligno, ir direto à fonte. ChatGPT, Gemini e Claude são facilmente desbloqueáveis. A maioria dos LLMs possui proteções que impedem a geração de código malicioso, mas existem comunidades inteiras online dedicadas a contornar essas proteções. A Anthropic ainda oferece uma recompensa por bugs para pessoas que descobrem novas falhas no Claude.

“É muito importante para nós que desenvolvamos nossos modelos de forma segura”, diz um porta-voz da OpenAI à WIRED. “Tomamos medidas para reduzir o risco de uso malicioso e estamos continuamente melhorando as salvaguardas para tornar nossos modelos mais robustos contra explorações como desbloqueios. Por exemplo, você pode ler nossa pesquisa e abordagem sobre desbloqueios no cartão do sistema GPT-4.5, ou no cartão do sistema OpenAI o3 e o4-mini.”

O Google não respondeu a um pedido de comentário.

Em 2023, pesquisadores de segurança da Trend Micro conseguiram fazer o ChatGPT gerar código malicioso ao provocá-lo para o papel de pesquisador de segurança e testador de penetração. O ChatGPT então gerava alegremente scripts PowerShell com base em bancos de dados de código malicioso.

“Você pode usá-lo para criar malware”, diz Moussouris. “A maneira mais fácil de contornar aquelas proteções impostas pelos criadores dos modelos de IA é dizer que você está competindo em um exercício de capture-the-flag, e ele irá alegremente gerar código malicioso para você.”

Atores não sofisticados, como ‘script kiddies’, são um problema antigo no mundo da cibersegurança, e a IA pode muito bem amplificar seu perfil. “Isso diminui a barreira de entrada para o cibercrime”, diz Hayley Benedict, analista de inteligência cibernética da RANE, à WIRED.

Mas, ela diz, a verdadeira ameaça pode vir de grupos de hackers estabelecidos que usarão IA para aprimorar ainda mais suas já temíveis habilidades. “São os hackers que já têm as capacidades e já têm essas operações”, diz ela. “É ser capaz de escalar drasticamente essas operações cibercriminosas, e eles podem criar o código malicioso muito mais rápido.”

Moussouris concorda. “A aceleração é o que tornará extremamente difícil controlar”, diz ela.

Smith, da Hunted Labs, também diz que a verdadeira ameaça do código gerado por IA está nas mãos de alguém que já conhece o código por dentro e por fora e o usa para escalar um ataque. “Quando você está trabalhando com alguém que tem uma experiência profunda e combina isso com, ‘Ei, posso fazer as coisas muito mais rápido do que levaria alguns dias ou três dias, e agora leva 30 minutos.’ Isso é uma parte realmente interessante e dinâmica da situação”, diz ele.

Segundo Smith, um hacker experiente poderia projetar um sistema que derrota várias proteções de segurança e aprende enquanto avança. O pedaço de código malicioso reescreveria sua carga maliciosa enquanto aprende em tempo real. “Isso seria completamente insano e difícil de classificar”, diz ele.

Smith imagina um mundo onde 20 eventos de zero-day acontecem ao mesmo tempo. “Isso torna tudo um pouco mais assustador”, diz ele.

Moussouris diz que as ferramentas para tornar esse tipo de ataque uma realidade já existem. “Elas são boas o suficiente nas mãos de um operador competente”, diz ela, mas a IA não é boa o suficiente ainda para que um hacker inexperiente opere sem supervisão.

“Ainda não chegamos a um ponto onde a IA pode assumir totalmente a função de um humano em segurança ofensiva”, diz ela.

O medo primal que o código de chatbot provoca é que qualquer um será capaz de fazê-lo, mas a realidade é que um ator sofisticado com conhecimento profundo de código existente é muito mais assustador. A XBOW pode ser a coisa mais próxima de um “hacker de IA” autônomo que existe na natureza, e é a criação de uma equipe de mais de 20 pessoas habilidosas, cuja experiência anterior inclui GitHub, Microsoft e uma dúzia de empresas de segurança diversas.

Isso também aponta para outra verdade. “A melhor defesa contra um cara mau com IA é um bom cara com IA”, diz Benedict.

Para Moussouris, o uso de IA tanto por blackhats quanto por whitehats é apenas a próxima evolução de uma corrida armamentista em cibersegurança que ela observou se desenrolar ao longo de 30 anos. “Passou de: ‘Eu vou realizar esse hack manualmente ou criar minha própria exploração personalizada,’ para, ‘Eu vou criar uma ferramenta que qualquer um pode usar e realizar algumas dessas verificações automaticamente.'”, diz ela.

“A IA é apenas mais uma ferramenta na caixa de ferramentas, e aqueles que sabem como direcioná-la adequadamente agora serão aqueles que farão aquelas interfaces vibrantes que qualquer um poderia usar.

Fonte

Compartilhe esse conteúdo: