A IA está mudando a maneira como as empresas operam. Embora grande parte dessa mudança seja positiva, ela introduz algumas preocupações únicas de cibersegurança. Aplicações de IA de próxima geração, como a IA agente, representam um risco particularmente notável para a postura de segurança das organizações.
O que é IA agente?
IA agente refere-se a modelos de IA que podem agir de forma autônoma, frequentemente automatizando funções inteiras com pouco ou nenhum input humano. Chatbots avançados estão entre os exemplos mais proeminentes, mas agentes de IA também podem aparecer em aplicações como inteligência empresarial, diagnósticos médicos e ajustes de seguros.
Em todos os casos de uso, essa tecnologia combina modelos generativos, processamento de linguagem natural (NLP) e outras funções de aprendizado de máquina (ML) para realizar tarefas de múltiplos passos de forma independente. É fácil ver o valor em uma solução assim. Compreensivelmente, a Gartner prevê que um terço de todas as interações de IA generativa usará esses agentes até 2028.
Os riscos de segurança únicos da IA agente
A adoção da IA agente aumentará à medida que as empresas buscarem completar uma gama maior de tarefas sem uma força de trabalho maior. Por mais promissor que isso seja, dar tanto poder a um modelo de IA tem sérias implicações de cibersegurança.
Os agentes de IA geralmente requerem acesso a grandes quantidades de dados. Consequentemente, eles são alvos primários para cibercriminosos, pois os atacantes podem concentrar esforços em um único aplicativo para expor uma quantidade considerável de informações. Isso teria um efeito semelhante ao whaling — que levou a perdas de $12,5 bilhões em 2021 — mas pode ser mais fácil, uma vez que os modelos de IA podem ser mais suscetíveis do que profissionais experientes.
A autonomia da IA agente é outra preocupação. Enquanto todos os algoritmos de ML introduzem alguns riscos, casos de uso convencionais exigem autorização humana para fazer qualquer coisa com seus dados. Agentes, por outro lado, podem agir sem autorização. Como resultado, quaisquer exposições acidentais de privacidade ou erros como alucinações de IA podem passar despercebidos.
Essa falta de supervisão torna as ameaças existentes de IA, como a contaminação de dados, ainda mais perigosas. Os atacantes podem corromper um modelo alterando apenas 0,01% de seu conjunto de dados de treinamento, e fazer isso é possível com investimento mínimo. Isso é prejudicial em qualquer contexto, mas as conclusões errôneas de um agente contaminado atingiriam muito mais longe do que uma onde humanos revisam as saídas primeiro.
Como melhorar a cibersegurança do agente de IA
À luz dessas ameaças, as estratégias de cibersegurança precisam se adaptar antes que as empresas implementem aplicações de IA agente. Aqui estão quatro passos críticos em direção a esse objetivo.
1. Maximizar a visibilidade
O primeiro passo é garantir que as equipes de segurança e operações tenham total visibilidade no fluxo de trabalho de um agente de IA. Cada tarefa que o modelo completa, cada dispositivo ou aplicativo ao qual se conecta e todos os dados que pode acessar devem ser evidentes. Revelar esses fatores tornará mais fácil identificar potenciais vulnerabilidades.
Ferramentas automatizadas de mapeamento de rede podem ser necessárias aqui. Apenas 23% dos líderes de TI afirmam ter total visibilidade em seus ambientes de nuvem e 61% usam várias ferramentas de detecção, levando a registros duplicados. Os administradores devem abordar essas questões primeiro para obter a visão necessária sobre o que seus agentes de IA podem acessar.
Empregar o princípio do menor privilégio
Uma vez claro o que o agente pode interagir, as empresas devem restringir esses privilégios. O princípio do menor privilégio — que sustenta que qualquer entidade só pode ver e usar o que realmente precisa — é essencial.
Qualquer banco de dados ou aplicativo com o qual um agente de IA possa interagir é um risco potencial. Consequentemente, as organizações podem minimizar superfícies de ataque relevantes e evitar movimentos laterais, limitando essas permissões o máximo possível. Qualquer coisa que não contribua diretamente para o propósito que gera valor de uma IA deve ser restrita.
Limitar informações sensíveis
Da mesma forma, os administradores de rede podem prevenir violações de privacidade removendo detalhes sensíveis dos conjuntos de dados que sua IA agente pode acessar. O trabalho de muitos agentes de IA envolve naturalmente dados privados. Mais de 50% dos gastos com IA generativa irão para chatbots, que podem coletar informações sobre clientes. No entanto, nem todos esses detalhes são necessários.
Embora um agente deva aprender com interações passadas com clientes, não precisa armazenar nomes, endereços ou detalhes de pagamento. Programar o sistema para eliminar informações pessoalmente identificáveis desnecessárias dos dados acessíveis à IA minimizará os danos em caso de uma violação.
Ficar atento a comportamentos suspeitos
As empresas precisam ter cuidado ao programar a IA agente também. Aplique-a a um único caso de uso pequeno primeiro e use uma equipe diversificada para revisar o modelo em busca de sinais de viés ou alucinações durante o treinamento. Quando chegar a hora de implantar o agente, implemente-o lentamente e monitore-o em busca de comportamentos suspeitos.
A capacidade de resposta em tempo real é crucial nessa monitorização, uma vez que os riscos da IA agente significam que quaisquer violações podem ter consequências drásticas. Felizmente, as soluções automatizadas de detecção e resposta são altamente eficazes, economizando em média $2,22 milhões nos custos de violações de dados. As organizações podem expandir lentamente seus agentes de IA após um teste bem-sucedido, mas devem continuar a monitorar todas as aplicações.
À medida que a cibersegurança avança, também devem avançar as estratégias de cibersegurança
O rápido avanço da IA oferece promessas significativas para empresas modernas, mas seus riscos de cibersegurança estão aumentando tão rapidamente quanto. As defesas cibernéticas das empresas devem aumentar e avançar junto com os casos de uso de IA generativa. A falha em acompanhar essas mudanças pode causar danos que superam os benefícios da tecnologia.
A IA agente levará o ML a novas alturas, mas o mesmo se aplica às vulnerabilidades relacionadas. Embora isso não torne essa tecnologia muito insegura para investir, isso exige cautela adicional. As empresas devem seguir essas etapas essenciais de segurança à medida que implantam novas aplicações de IA.