Protegendo a fronteira da IA: Protegendo sistemas empresariais contra ameaças impulsionadas por IA

Por 2025, ataques de IA armada direcionados a identidades – invisíveis e muitas vezes os mais custosos de se recuperar – representarão a maior ameaça à cibersegurança empresarial. Modelos de linguagem de grande escala (LLMs) são a nova ferramenta preferida de atacantes desonestos, sindicatos de cibercrime e equipes de ataque de estados-nação.

Uma pesquisa recente descobriu que 84% dos líderes de TI e segurança afirmam que, quando a técnica de ataque impulsionada por IA é a estratégia para lançar ataques de phishing e smishing, eles se tornam cada vez mais complexos de identificar e parar. Como resultado, 51% dos líderes de segurança estão priorizando ataques impulsionados por IA como a ameaça mais severa enfrentada por suas organizações. Embora a grande maioria dos líderes de segurança, 77%, esteja confiante de que conhece as melhores práticas para segurança de IA, apenas 35% acreditam que suas organizações estão preparadas hoje para combater ataques armados por IA que se espera que aumentem significativamente em 2025.

Em 2025, os CISOs e as equipes de segurança enfrentarão desafios maiores do que nunca para identificar e parar o ritmo acelerado de ataques baseados em IA adversarial, que já estão superando as formas mais avançadas de segurança baseada em IA. 2025 será o ano em que a IA ganhará seu papel como a base tecnológica necessária para fornecer monitoramento de ameaças e pontos finais em tempo real, reduzir a fadiga de alertas para analistas do centro de operações de segurança (SOC), automatizar a gestão de patches e identificar deepfakes com maior precisão, velocidade e escala do que foi possível antes.

IA adversarial: Aumento de deepfakes e fraudes sintéticas

Deepfakes já lideram todas as outras formas de ataques de IA adversarial. Eles custaram às empresas globais US$ 12,3 bilhões em 2023, valor que é previsto para subir para US$ 40 bilhões até 2027, crescendo a uma taxa de crescimento anual composta de 32%. Atacantes de diversos espectros, desde desonestos até bem financiados por estados-nação, são implacáveis em melhorar suas técnicas, capitalizando os mais recentes aplicativos de IA, edição de vídeo e técnicas de áudio. Incidentes de deepfake estão previstos para aumentar de 50 a 60% em 2024, alcançando entre 140.000 e 150.000 casos globalmente.

A Deloitte afirma que atacantes de deepfake preferem atacar alvos do setor bancário e de serviços financeiros primeiro. Ambas as indústrias são conhecidas por serem alvos fáceis para ataques de fraude de identidade sintética que são difíceis de identificar e parar. Deepfakes estiveram envolvidos em quase 20% dos casos de fraude de identidade sintética no ano passado. A fraude de identidade sintética está entre as mais difíceis de identificar e parar. Está a caminho de defraudar sistemas financeiros e comerciais em quase US$ 5 bilhões apenas neste ano.

Com a crescente ameaça da fraude de identidade sintética, as empresas estão cada vez mais focadas no processo de integração como um ponto crucial na verificação de identidades de clientes e na prevenção de fraudes. Como explicou o CEO da Telesign, Christophe Van de Weyer, à VentureBeat em uma entrevista recente, “As empresas devem proteger as identidades, credenciais e informações pessoalmente identificáveis (PII) de seus clientes, especialmente durante o registro.” O Índice de Confiança da Telesign de 2024 destaca como a IA generativa supercarregou os ataques de phishing, com dados mostrando um aumento de 1265% em mensagens de phishing maliciosas e um aumento de 967% em phishing de credenciais dentro de 12 meses após o lançamento do ChatGPT.

IA armada é o novo normal – e as organizações não estão prontas

“Temos dito há algum tempo que coisas como nuvem e ferramentas de gerenciamento de identidade e remoto e credenciais legítimas são onde o adversário tem se movido porque é muito difícil operar sem restrições no endpoint”, disse Elia Zaitsev, CTO da CrowdStrike, à VentureBeat em uma entrevista recente.

“O adversário está ficando mais rápido e aproveitar a tecnologia de IA é parte disso. Aproveitar a automação também é parte disso, mas entrar nesses novos domínios de segurança é outro fator significativo, e isso fez com que não apenas os atacantes modernos, mas também as campanhas de ataque modernas fossem muito mais rápidas”, disse Zaitsev.

A IA generativa se tornou combustível para a IA adversarial. Dentro de semanas após o lançamento do ChatGPT pela OpenAI em novembro de 2022, atacantes desonestos e gangues de cibercrime lançaram serviços de ataque baseados em IA generativa. O FraudGPT é um dos mais conhecidos, afirmando em um momento ter 3.000 assinantes.

Enquanto novos aplicativos, ferramentas, plataformas e técnicas de IA adversarial florescem, a maioria das organizações não está pronta.

Hoje, um em cada três organizações admite que não possui uma estratégia documentada para enfrentar os riscos da IA generativa e adversarial. CISOs e líderes de TI admitem que não estão prontos para ataques de identidade impulsionados por IA. O recente Relatório de Estado da Cibersegurança 2024 da Ivanti revela que 74% das empresas já estão vendo o impacto de ameaças impulsionadas por IA. Nove em cada dez executivos, 89%, acreditam que as ameaças impulsionadas por IA estão apenas começando. O que é notável sobre a pesquisa é como descobriram a ampla lacuna entre a falta de prontidão da maioria das organizações para se proteger contra ataques de IA adversarial e a iminente ameaça de serem alvo de um.

Seis em cada dez líderes de segurança afirmam que suas organizações não estão prontas para suportar ameaças e ataques impulsionados por IA hoje. As quatro ameaças mais comuns que os líderes de segurança experimentaram este ano incluem phishing, vulnerabilidades de software, ataques de ransomware e vulnerabilidades relacionadas a API. Com o ChatGPT e outras ferramentas de IA generativa tornando muitas dessas ameaças de baixo custo para produzir, ataques de IA adversarial mostram todos os sinais de disparar em 2025.

Defendendo as empresas contra ameaças impulsionadas por IA

Atacantes usam uma combinação de IA generativa, engenharia social e ferramentas baseadas em IA para criar ransomware que é difícil de identificar. Eles invadem redes e se movem lateralmente para sistemas centrais, começando com o Active Directory.

Os atacantes ganham controle de uma empresa bloqueando seus privilégios de acesso à identidade e revogando direitos de administrador após instalar código de ransomware malicioso em toda a sua rede. Código baseado em IA generativa, e-mails de phishing e bots também são usados ao longo de um ataque.

Aqui estão algumas das muitas maneiras pelas quais as organizações podem lutar e se defender contra ameaças impulsionadas por IA:

Limpe os privilégios de acesso imediatamente e exclua ex-funcionários, contratados e contas de administrador temporárias: Comece revogando o acesso desatualizado para ex-contratados, vendas, serviços e parceiros de suporte. Fazer isso reduz as lacunas de confiança que os atacantes exploram – e tentam identificar usando IA para automatizar ataques. Considere como um requisito ter a Autenticação Multifatorial (MFA) aplicada a todas as contas válidas para reduzir ataques baseados em credenciais. Certifique-se de implementar revisões de acesso regulares e processos de desprovisionamento automatizados para manter um ambiente de acesso limpo.

Aplique uma abordagem de confiança zero em endpoints e superfícies de ataque, assumindo que já foram comprometidos e precisam ser segmentados imediatamente. Um dos aspectos mais valiosos de perseguir uma estrutura de confiança zero é assumir que sua rede já foi comprometida e precisa ser contida. Com o aumento dos ataques impulsionados por IA, é uma boa ideia ver cada endpoint como um vetor de ataque vulnerável e aplicar segmentação para conter quaisquer intrusões. Para mais informações sobre confiança zero, consulte o padrão NIST 800-207.

Tenha controle sobre identidades e governança de máquinas agora. As identidades de máquinas – bots, dispositivos IoT e mais – estão crescendo mais rapidamente do que as identidades humanas, criando riscos não gerenciados. A governança impulsionada por IA para identidades de máquinas é crucial para prevenir violações impulsionadas por IA. Automatizar a gestão de identidades e manter políticas rigorosas garante controle sobre essa superfície de ataque em expansão. Ataques automatizados impulsionados por IA estão sendo usados para encontrar e violar as muitas formas de identidades de máquinas que a maioria das empresas possui.

Se sua empresa possui um sistema de Gestão de Identidade e Acesso (IAM), fortaleça-o em configurações multicloud. Ataques impulsionados por IA estão procurando capitalizar sobre desconexões entre IAMs e configurações de nuvem. Isso ocorre porque muitas empresas confiam em apenas um IAM para uma determinada plataforma de nuvem. Isso deixa lacunas entre AWS, como a Plataforma de Nuvem do Google e o Microsoft Azure. Avalie suas configurações de IAM na nuvem para garantir que atendam às necessidades de segurança em evolução e efetivamente combatam ataques adversariais de IA. Implemente ferramentas de gerenciamento de postura de segurança na nuvem (CSPM) para avaliar e remediar continuamente as desconfigurações.

Aposte tudo em monitoramento de infraestrutura em tempo real: O monitoramento aprimorado por IA é crítico para detectar anomalias e violações em tempo real, oferecendo insights sobre a postura de segurança e provando ser eficaz na identificação de novas ameaças, incluindo aquelas que são impulsionadas por IA. O monitoramento contínuo permite ajustes imediatos de políticas e ajuda a reforçar os conceitos centrais de confiança zero que, juntos, podem ajudar a conter uma tentativa de violação impulsionada por IA.

Faça com que o red teaming e a avaliação de riscos sejam parte da memória muscular ou DNA da organização. Não se contente em fazer red teaming em um cronograma esporádico, ou pior, apenas quando um ataque desencadeia uma renovada sensação de urgência e vigilância. O red teaming precisa fazer parte do DNA de qualquer DevSecOps apoiando MLOps a partir de agora. O objetivo é identificar proativamente fraquezas do sistema e de qualquer pipeline e trabalhar para priorizar e endurecer quaisquer vetores de ataque que surjam como parte dos fluxos de trabalho do Ciclo de Vida de Desenvolvimento de Sistemas (SDLC) do MLOps.

Mantenha-se atualizado e adote a estrutura defensiva para IA que melhor funcione para sua organização. Tenha um membro da equipe DevSecOps atualizado sobre as muitas estruturas defensivas disponíveis hoje. Saber qual delas se encaixa melhor nos objetivos de uma organização pode ajudar a garantir MLOps, economizando tempo e garantindo o pipeline mais amplo de SDLC e CI/CD no processo. Exemplos incluem a Estrutura de Gerenciamento de Risco de IA do NIST e o Guia de Segurança e Privacidade de IA da OWASP.

Reduza a ameaça de ataques baseados em dados sintéticos integrando modalidades biométricas e técnicas de autenticação sem senha em cada sistema de gestão de acesso à identidade. A VentureBeat soube que os atacantes estão cada vez mais confiando em dados sintéticos para impersonar identidades e ganhar acesso a códigos-fonte e repositórios de modelos. Considere usar uma combinação de modalidades biométricas, incluindo reconhecimento facial, digital e reconhecimento de voz, combinadas com tecnologias de acesso sem senha para proteger sistemas usados em MLOps.

Reconhecer o potencial de violação é fundamental

Até 2025, espera-se que as técnicas de IA adversarial avancem mais rápido do que as abordagens existentes da maioria das organizações para proteger endpoints, identidades e infraestrutura. A resposta não é necessariamente gastar mais – é encontrar maneiras de estender e endurecer os sistemas existentes para esticar orçamentos e aumentar a proteção contra o ataque iminente de ataques impulsionados por IA que estão por vir em 2025. Comece com a confiança zero e veja como a estrutura do NIST pode ser adaptada ao seu negócio. Veja a IA como um acelerador que pode ajudar a melhorar o monitoramento contínuo, endurecer a segurança de endpoints, automatizar a gestão de patches em escala e mais. A capacidade da IA de contribuir e fortalecer estruturas de confiança zero é comprovada. Isso se tornará ainda mais pronunciado em 2025, à medida que suas forças inatas, que incluem a aplicação do acesso com privilégio mínimo, entrega de microsegmentação, proteção de identidades e mais, estão crescendo.

Entrando em 2025, cada equipe de segurança e TI precisa tratar os endpoints como já comprometidos e focar em novas maneiras de segmentá-los. Eles também precisam minimizar vulnerabilidades no nível da identidade, que é um ponto de entrada comum para ataques impulsionados por IA. Embora essas ameaças estejam aumentando, nenhum gasto isolado resolverá. Abordagens práticas que reconheçam a facilidade com que endpoints e perímetros são violados devem estar no núcleo de qualquer plano. Somente assim a cibersegurança pode ser vista como a decisão comercial mais crítica que uma empresa deve tomar, com o cenário de ameaças de 2025 definindo isso claramente.

Fonte

Compartilhe esse conteúdo: