Agentes de IA são supostos ser a próxima grande novidade em IA, mas não há uma definição exata do que eles são. Até este ponto, as pessoas não conseguem concordar sobre o que exatamente constitui um agente de IA.
Em sua forma mais simples, um agente de IA é melhor descrito como um software alimentado por IA que realiza uma série de tarefas para você que um agente de atendimento ao cliente humano, pessoa de RH ou funcionário de help desk de TI poderia ter feito no passado, embora possa envolver qualquer tarefa. Você pede que ele faça coisas, e ele as faz por você, às vezes cruzando múltiplos sistemas e indo muito além de simplesmente responder perguntas. Por exemplo, a Perplexity lançou no mês passado um agente de IA que ajuda as pessoas a fazer compras de fim de ano (e não é o único). E o Google anunciou na semana passada seu primeiro agente de IA, chamado Project Mariner, que pode ser usado para encontrar voos e hotéis, comprar itens para a casa, encontrar receitas e outras tarefas.
Parece simples o suficiente, certo? No entanto, isso é complicado por uma falta de clareza. Mesmo entre os gigantes da tecnologia, não há consenso. O Google vê-os como assistentes baseados em tarefas dependendo do trabalho: ajuda de codificação para desenvolvedores; ajudando os profissionais de marketing a criar uma paleta de cores; auxiliando um profissional de TI a rastrear um problema consultando dados de log.
Para a Asana, um agente pode agir como um funcionário extra, cuidando de tarefas designadas como qualquer bom colega de trabalho. Sierra, uma startup fundada pelo ex-CEO da Salesforce Bret Taylor e pelo veterano do Google Clay Bavor, vê os agentes como ferramentas de experiência do cliente, ajudando as pessoas a alcançar ações que vão muito além dos chatbots de antigamente para ajudar a resolver conjuntos de problemas mais complexos.
Essa falta de uma definição coesa deixa espaço para confusão sobre exatamente o que essas coisas vão fazer, mas independentemente de como são definidas, os agentes servem para ajudar a completar tarefas de maneira automatizada com o mínimo de interação humana possível.
Rudina Seseri, fundadora e sócia gerente da Glasswing Ventures, diz que estamos nos primeiros dias e isso pode explicar a falta de acordo. “Não há uma definição única do que é um ‘agente de IA’. No entanto, a visão mais frequente é que um agente é um sistema de software inteligente projetado para perceber seu ambiente, raciocinar sobre ele, tomar decisões e realizar ações para alcançar objetivos específicos de forma autônoma,” disse Seseri ao TechCrunch.
Ela diz que eles usam uma série de tecnologias de IA para que isso aconteça. “Esses sistemas incorporam várias técnicas de IA/ML, como processamento de linguagem natural, aprendizado de máquina e visão computacional para operar em domínios dinâmicos, de forma autônoma ou ao lado de outros agentes e usuários humanos.”
Aaron Levie, cofundador e CEO da Box, diz que, com o tempo, à medida que a IA se torna mais capaz, os agentes de IA poderão fazer muito mais em nome dos humanos, e já existem dinâmicas em jogo que impulsionarão essa evolução.
“Com os agentes de IA, existem múltiplos componentes para um ciclo de retroalimentação auto-reforçador que servirá para melhorar dramaticamente o que os Agentes de IA podem realizar no curto e longo prazo: preço/desempenho de GPU, eficiência do modelo, qualidade e inteligência do modelo, melhorias em frameworks e infraestrutura de IA,” escreveu Levie recentemente no LinkedIn.
Essa é uma visão otimista sobre a tecnologia que assume que o crescimento acontecerá em todas essas áreas, quando isso não é necessariamente garantido. O pioneiro em robótica do MIT, Rodney Brooks, apontou em uma recente entrevista ao TechCrunch que a IA precisa lidar com problemas muito mais difíceis do que a maioria das tecnologias, e não necessariamente crescerá da mesma maneira rápida que, por exemplo, os chips sob a lei de Moore.
“Quando um humano vê um sistema de IA realizar uma tarefa, ele imediatamente generaliza isso para coisas que são semelhantes e faz uma estimativa da competência do sistema de IA; não apenas o desempenho nisso, mas a competência em relação a isso,” disse Brooks durante a entrevista. “E eles geralmente são muito otimistas, e isso ocorre porque eles usam um modelo de desempenho de uma pessoa em uma tarefa.”
O problema é que cruzar sistemas é difícil, e isso é complicado pelo fato de que alguns sistemas legados carecem de acesso básico à API. Embora estejamos vendo melhorias constantes que Levie mencionou, fazer o software acessar múltiplos sistemas enquanto resolve problemas que pode encontrar ao longo do caminho pode provar ser mais desafiador do que muitos pensam.
Se esse for o caso, todos podem estar superestimando o que os agentes de IA deveriam ser capazes de fazer. David Cushman, um líder de pesquisa na HFS Research, vê o atual grupo de bots mais como a Asana vê: assistentes que ajudam os humanos a completar certas tarefas no interesse de alcançar algum tipo de objetivo estratégico definido pelo usuário. O desafio é ajudar uma máquina a lidar com contingências de maneira verdadeiramente automatizada, e claramente ainda não estamos perto disso.
“Acho que é o próximo passo,” disse ele. “É onde a IA está operando de forma independente e eficaz em escala. Portanto, aqui é onde os humanos definem as diretrizes, as regras e aplicam múltiplas tecnologias para retirar o humano do ciclo – quando tudo tem sido sobre manter o humano no ciclo com o GenAI,” disse ele. Portanto, a chave aqui, segundo ele, é deixar o agente de IA assumir e aplicar uma verdadeira automação.
Jon Turow, um parceiro da Madrona Ventures, diz que isso exigirá a criação de uma infraestrutura de agente de IA, uma pilha de tecnologia projetada especificamente para criar os agentes (como quer que você os defina). Em uma postagem recente no blog, Turow descreveu exemplos de agentes de IA que estão atualmente em funcionamento e como estão sendo construídos hoje.
Na visão de Turow, a crescente proliferação de agentes de IA – e ele admite também que a definição ainda é um pouco elusiva – requer uma pilha de tecnologia como qualquer outra tecnologia. “Tudo isso significa que nossa indústria tem trabalho a fazer para construir uma infraestrutura que suporte agentes de IA e as aplicações que dependem deles,” escreveu ele na peça.
“Com o tempo, o raciocínio melhorará gradualmente, modelos de fronteira começarão a orientar mais dos fluxos de trabalho, e os desenvolvedores irão querer se concentrar em produtos e dados – as coisas que os diferenciam. Eles querem que a plataforma subjacente ‘apenas funcione’ com escala, desempenho e confiabilidade.”
Uma outra coisa a ter em mente aqui é que provavelmente levará múltiplos modelos, em vez de um único LLM, para fazer os agentes funcionarem, e isso faz sentido se você pensar nesses agentes como uma coleção de tarefas diferentes. “Não acho que agora qualquer modelo de linguagem grande, pelo menos disponível publicamente, monolítico de linguagem grande, seja capaz de lidar com tarefas agentivas. Não acho que eles possam ainda fazer o raciocínio em múltiplas etapas que realmente me animaria sobre um futuro agentivo. Acho que estamos nos aproximando, mas simplesmente não estamos lá ainda,” disse Fred Havemeyer, chefe de pesquisa em IA e software da Macquarie US Equity Research.
“Eu realmente acho que os agentes mais eficazes provavelmente serão múltiplas coleções de diferentes modelos com uma camada de roteamento que envia solicitações ou prompts para o agente e modelo mais eficazes. E eu acho que seria como um interessante papel de [supervisor] automatizado, delegando.”
No final, para Havemeyer, a indústria está trabalhando em direção a esse objetivo de agentes operando de forma independente. “À medida que estou pensando sobre o futuro dos agentes, quero ver e estou esperando ver agentes que sejam verdadeiramente autônomos e capazes de pegar objetivos abstratos e então raciocinar todos os passos individuais no meio completamente de forma independente,” ele disse ao TechCrunch.
Mas o fato é que ainda estamos em um período de transição onde esses agentes estão preocupados, e não sabemos quando chegaremos a esse estado final que Havemeyer descreveu. Embora o que vimos até agora seja claramente um passo promissor na direção certa, ainda precisamos de alguns avanços e descobertas para que os agentes de IA operem como estão sendo imaginados hoje. E é importante entender que ainda não chegamos lá.