O Vale do Silício está otimista em relação aos agentes de IA. O CEO da OpenAI, Sam Altman, disse que os agentes “se juntarão à força de trabalho” este ano. O CEO da Microsoft, Satya Nadella, previu que os agentes substituirão certos trabalhos de conhecimento. O CEO da Salesforce, Marc Benioff, disse que o objetivo da Salesforce é ser “o principal fornecedor de trabalho digital do mundo” por meio dos vários serviços “agentes” da empresa.
Mas ninguém parece concordar exatamente com o que é um agente de IA.
Nos últimos anos, a indústria de tecnologia proclamou ousadamente que os “agentes” de IA – a mais recente palavra da moda – vão mudar tudo. Da mesma forma que os chatbots de IA, como o ChatGPT da OpenAI, nos deram novas maneiras de acessar informações, os agentes mudarão fundamentalmente a forma como abordamos o trabalho, afirmam CEOs como Altman e Nadella.
Isso pode ser verdade. Mas também depende de como se define “agentes”, o que não é uma tarefa fácil. Assim como outros jargões relacionados à IA (por exemplo, “multimodal”, “AGI” e “IA”), os termos “agente” e “agente” estão se tornando diluídos a ponto de perderem o significado.
Isso ameaça deixar a OpenAI, Microsoft, Salesforce, Amazon, Google e as inúmeras outras empresas que estão construindo linhas de produtos inteiras em torno de agentes em uma posição desconfortável. Um agente da Amazon não é o mesmo que um agente do Google ou de qualquer outro fornecedor, e isso está levando à confusão – e à frustração dos clientes.
Ryan Salva, diretor sênior de produto do Google e ex-líder do GitHub Copilot, disse que começou a “odiar” a palavra “agentes”.
“Acho que nossa indústria exagera o uso do termo ‘agente’ a ponto de se tornar quase sem sentido”, disse Salva ao TechCrunch em uma entrevista. “[É] uma das minhas irritações.”
O dilema da definição de agente não é novo. Em um artigo do ano passado, o ex-repórter do TechCrunch, Ron Miller, perguntou: O que é um agente de IA? O problema que ele identificou é que quase todas as empresas que constroem agentes abordam a tecnologia de maneira diferente.
É um problema que se agravou recentemente.
Esta semana, a OpenAI publicou um post no blog que definiu agentes como “sistemas automatizados que podem realizar tarefas de forma independente em nome dos usuários”. No entanto, na mesma semana, a empresa lançou documentação para desenvolvedores que definiu agentes como “LLMs equipados com instruções e ferramentas”.
Leher Pathak, líder de marketing de produtos da API da OpenAI, disse mais tarde em um post no X que entendia os termos “assistentes” e “agentes” como intercambiáveis – tornando as águas ainda mais turvas.
Enquanto isso, os blogs da Microsoft tentam distinguir entre agentes e assistentes de IA. Os primeiros, que a Microsoft chama de “novos aplicativos” para um “mundo movido a IA”, podem ser adaptados para ter uma especialização particular, enquanto os assistentes apenas ajudam com tarefas gerais, como redigir e-mails.
O laboratório de IA Anthropic aborda o emaranhado de definições de agentes de forma um pouco mais direta. Em um post no blog, a Anthropic diz que os agentes “podem ser definidos de várias maneiras”, incluindo tanto “sistemas totalmente autônomos que operam independentemente por longos períodos” quanto “implementações prescritivas que seguem fluxos de trabalho predefinidos”.
A Salesforce tem o que talvez seja a definição mais abrangente de “agente” de IA. De acordo com o gigante do software, os agentes são “um tipo de […] sistema que pode entender e responder a consultas de clientes sem intervenção humana.” O site da empresa lista seis categorias diferentes, variando de “agentes reflexos simples” a “agentes baseados em utilidade”.
Então, por que o caos?
Bem, os agentes – como a IA – são uma coisa nebulosa, e estão em constante evolução. A OpenAI, Google e Perplexity acabaram de começar a lançar o que consideram ser seus primeiros agentes – o Operador da OpenAI, o Projeto Mariner do Google e o agente de compras da Perplexity – e suas capacidades estão em toda parte.
Rich Villars, GVP de pesquisa mundial da IDC, observou que as empresas de tecnologia “têm uma longa história” de não aderir rigidamente a definições técnicas.
“Elas se importam mais com o que estão tentando realizar” em um nível técnico, disse Villars ao TechCrunch, “especialmente em mercados em rápida evolução.”
Mas o marketing também é culpado em grande parte, segundo Andrew Ng, fundador da plataforma de aprendizado de IA DeepLearning.ai.
“Os conceitos de ‘agentes’ de IA e fluxos de trabalho ‘agentes’ costumavam ter um significado técnico”, disse Ng em uma entrevista recente, “mas há cerca de um ano, os profissionais de marketing e algumas grandes empresas se apoderaram deles.”
A falta de uma definição unificada para agentes é tanto uma oportunidade quanto um desafio, diz Jim Rowan, chefe de IA da Deloitte. Por um lado, a ambiguidade permite flexibilidade, permitindo que as empresas personalizem agentes de acordo com suas necessidades. Por outro lado, pode – e, argumenta-se, já levou – a “expectativas desalinhadas” e dificuldades em medir o valor e o ROI de projetos agentes.
“Sem uma definição padronizada, pelo menos dentro de uma organização, torna-se desafiador avaliar o desempenho e garantir resultados consistentes”, disse Rowan. “Isso pode resultar em interpretações variadas sobre o que os agentes de IA devem entregar, complicando potencialmente os objetivos e resultados do projeto. No final, enquanto a flexibilidade pode impulsionar soluções criativas, uma compreensão mais padronizada ajudaria as empresas a navegar melhor no cenário dos agentes de IA e maximizar seus investimentos.”
Infelizmente, se o desmantelamento do termo “IA” for uma indicação, parece improvável que a indústria se una em uma definição de “agente” tão cedo – se é que alguma vez o fará.