A Amazon Está Usando Agentes de IA Especializados para Caça a Bugs Profundos

À medida que a IA generativa acelera a velocidade de desenvolvimento de software, também está aprimorando a capacidade de atacantes digitais de realizar hacks motivados financeiramente ou apoiados por estados. Isso significa que as equipes de segurança em empresas de tecnologia têm mais código do que nunca para revisar, enquanto lidam com ainda mais pressão de agentes maliciosos. Na segunda-feira, a Amazon publicará detalhes pela primeira vez sobre um sistema interno conhecido como Análise de Ameaças Autônomas (ATA), que a empresa tem usado para ajudar suas equipes de segurança a identificar proativamente fraquezas em suas plataformas, realizar análises de variantes para buscar rapidamente outras falhas semelhantes e, em seguida, desenvolver remediações e capacidades de detecção para tapar buracos antes que os atacantes os encontrem.

O ATA nasceu de um hackathon interno da Amazon em agosto de 2024, e membros da equipe de segurança dizem que ele se tornou uma ferramenta crucial desde então. O conceito chave subjacente ao ATA é que não é um único agente de IA desenvolvido para conduzir testes de segurança e análise de ameaças de forma abrangente. Em vez disso, a Amazon desenvolveu múltiplos agentes de IA especializados que competem entre si em duas equipes para investigar rapidamente técnicas de ataque reais e diferentes maneiras como poderiam ser usadas contra os sistemas da Amazon—e então propor controles de segurança para revisão humana.

“O conceito inicial visava abordar uma limitação crítica nos testes de segurança—cobertura limitada e o desafio de manter as capacidades de detecção atualizadas em um cenário de ameaças em rápida evolução,” diz Steve Schmidt, diretor de segurança da Amazon, à WIRED. “Cobertura limitada significa que você não consegue passar por todo o software ou não consegue acessar todos os aplicativos porque simplesmente não tem humanos suficientes. E então é ótimo fazer uma análise de um conjunto de software, mas se você não mantiver os sistemas de detecção atualizados com as mudanças no cenário de ameaças, você está perdendo metade da imagem.”

Como parte da ampliação do uso do ATA, a Amazon desenvolveu ambientes de teste especiais de “alta fidelidade” que são reflexões profundamente realistas dos sistemas de produção da Amazon, para que o ATA possa tanto ingerir quanto produzir telemetria real para análise.

As equipes de segurança da empresa também se certificaram de projetar o ATA de forma que cada técnica que emprega e cada capacidade de detecção que produz seja validada com testes automáticos reais e dados do sistema. Agentes da equipe vermelha que estão trabalhando para encontrar ataques que poderiam ser usados contra os sistemas da Amazon executam comandos reais nos ambientes de teste especiais do ATA que produzem logs verificáveis. Agentes da equipe azul, ou focados na defesa, usam telemetria real para confirmar se as proteções que estão propondo são eficazes. E sempre que um agente desenvolve uma técnica nova, ele também puxa logs com carimbo de data/hora para provar que suas alegações são precisas.

Essa verificabilidade reduz falsos positivos, diz Schmidt, e atua como “gestão de alucinações.” Como o sistema é construído para exigir certos padrões de evidência observável, Schmidt afirma que “alucinações são arquitetonicamente impossíveis.”

O fato de que os agentes especializados do ATA trabalham juntos em equipes—cada um contribuindo com sua expertise para um objetivo maior—mimica a maneira como os humanos colaboram em testes de segurança e desenvolvimento de defesa. A diferença que a IA proporciona, diz o engenheiro de segurança da Amazon, Michael Moran, é o poder de gerar rapidamente novas variações e combinações de técnicas ofensivas e, em seguida, propor remediações em uma escala que é proibitivamente demorada apenas para humanos.

“Eu posso entrar com todas as técnicas novas e dizer: ‘Eu me pergunto se isso funcionaria?’ E agora eu tenho toda uma estrutura e muito do básico já está resolvido para mim” na investigação, diz Moran, que foi um dos engenheiros que originalmente propôs o ATA no hackathon de 2024. “Isso torna meu trabalho muito mais divertido, mas também permite que tudo funcione em velocidade de máquina.”

Schmidt observa, também, que o ATA já foi extremamente eficaz em examinar capacidades de ataque específicas e gerar defesas. Em um exemplo, o sistema se concentrou em técnicas de “shell reverso” em Python, usadas por hackers para manipular dispositivos-alvo a iniciar uma conexão remota com o computador do atacante. Em poucas horas, o ATA descobriu novas táticas potenciais de shell reverso e propôs detecções para os sistemas de defesa da Amazon que se mostraram 100% eficazes.

O ATA realiza seu trabalho de forma autônoma, mas utiliza a metodologia de “humano no loop” que requer a entrada de uma pessoa real antes de implementar mudanças nos sistemas de segurança da Amazon. E Schmidt admite prontamente que o ATA não é um substituto para testes de segurança humanos avançados e nuançados. Em vez disso, ele enfatiza que, para a enorme quantidade de tarefas mundanas e repetitivas envolvidas na análise diária de ameaças, o ATA dá mais tempo à equipe humana para trabalhar em problemas complexos.

O próximo passo, diz ele, é começar a usar o ATA em resposta a incidentes em tempo real para identificação e remediação mais rápidas em ataques reais aos enormes sistemas da Amazon.

“A IA faz o trabalho pesado nos bastidores. Quando nossa equipe é liberada da análise de falsos positivos, eles podem se concentrar em ameaças reais,” diz Schmidt. “Acho que a parte mais positiva sobre isso é a recepção de nossos engenheiros de segurança, porque eles veem isso como uma oportunidade onde seu talento é aplicado onde mais importa.”

Fonte

Compartilhe esse conteúdo: