Sam Altman Está Certo: Golpes de Criptomoeda Potencializados por IA Estão Explodindo

Finalmente, uma profissão que conseguiu integrar com sucesso a inteligência artificial em seu fluxo de trabalho: golpistas de criptomoeda. De acordo com um relatório da empresa de inteligência blockchain TRM Labs, os golpes de criptomoeda aumentaram 456% no último ano, em grande parte devido à capacidade de produzir clipes de áudio e vídeo deepfake com ferramentas de inteligência artificial—confirmando a recente previsão/advertência do CEO da OpenAI, Sam Altman, de que uma crise de fraudes está a caminho.

Não há dúvida de que a situação de fraudes está piorando. O FBI disse que recebeu cerca de 150.000 reclamações de fraudes relacionadas a golpes de criptomoeda em 2024, com pessoas relatando perdas superiores a $3,9 bilhões no total. Globalmente, esse número dispara para $10,7 bilhões, de acordo com os dados da TRM Labs. Você pode arredondar esses números para cima também. Falando ao New York Post, Ari Redbord, o Chefe Global de Política da TRM Labs, disse que apenas cerca de 15% das vítimas realmente relatam esses crimes.

Esses golpes são uma evolução dos chamados ataques de ‘pig butchering’ que se tornaram populares nos últimos anos, pois não apenas aproveitam as pessoas via texto. A IA agora permite que os golpistas criem áudio e vídeo realistas que podem enganar uma pessoa fazendo-a pensar que está conversando com alguém real—potencialmente até mesmo um ente querido ou uma pessoa familiar. A TRM Labs alertou que, à medida que os modelos de IA ganham habilidades agentivas que permitem interagir com coisas como e-mail e outros aplicativos, o processo de golpe será automatizado e muito mais prevalente.

Na semana passada, Sam Altman começou a soar os alarmes sobre o mesmo problema—embora ele não esteja apenas preocupado com os golpistas se aproveitando, mas sim com a totalidade de nosso aparato de segurança existente sendo derrotado. Ao falar em uma conferência de regulamentação bancária, Altman disse que a IA já “derrotou completamente” a maioria dos serviços de autenticação dos quais os humanos dependem para verificar sua identidade e acessar suas contas sensíveis.

“A sociedade precisa lidar com esse problema de forma mais geral,” disse Altman, presumivelmente vestido com um traje de cachorro-quente e gritando, “Estamos todos tentando encontrar o cara que fez isso.” Para esse fim, a própria empresa de Altman anunciou no início deste mês que estava lançando um Agente ChatGPT que poderia efetivamente interagir com um computador da mesma forma que um humano pode, alternando entre aplicativos e completando tarefas de múltiplos passos que exigem fazer coisas como fazer login em diferentes contas e tomar decisões.

O aviso de Altman sobre um apocalipse de golpes parece ter nuances dos avisos gerais que executivos de IA têm oferecido sobre o risco potencial da inteligência geral artificial, ou seja, “Isso pode ser realmente ruim, mas definitivamente não vamos parar.”

Fonte

Compartilhe esse conteúdo: