Os agentes de IA devem resolver uma série de tarefas que exigem diferentes velocidades e níveis de raciocínio e planejamento. Idealmente, um agente deve saber quando usar sua memória direta e quando usar capacidades de raciocínio mais complexas. No entanto, projetar sistemas agentes que possam lidar adequadamente com tarefas com base em seus requisitos continua sendo um desafio.
Em um novo artigo, pesquisadores da Google DeepMind introduzem o Talker-Reasoner, um framework agente inspirado no modelo de “dois sistemas” da cognição humana. Este framework permite que os agentes de IA encontrem o equilíbrio certo entre diferentes tipos de raciocínio e proporcionem uma experiência de usuário mais fluida.
O pensamento do Sistema 1 e Sistema 2 em humanos e IA
A teoria dos dois sistemas, apresentada pela primeira vez pelo laureado com o Prêmio Nobel Daniel Kahneman, sugere que o pensamento humano é impulsionado por dois sistemas distintos. O Sistema 1 é rápido, intuitivo e automático. Ele governa nossos julgamentos instantâneos, como reagir a eventos súbitos ou reconhecer padrões familiares. O Sistema 2, em contraste, é lento, deliberado e analítico. Ele permite a resolução de problemas complexos, planejamento e raciocínio.
Embora frequentemente tratados como separados, esses sistemas interagem continuamente. O Sistema 1 gera impressões, intuições e intenções. O Sistema 2 avalia essas sugestões e, se endossadas, as integra em crenças explícitas e escolhas deliberadas. Essa interação nos permite navegar de forma contínua em uma ampla gama de situações, desde rotinas diárias até problemas desafiadores.
Os atuais agentes de IA operam principalmente em modo Sistema 1. Eles se destacam no reconhecimento de padrões, reações rápidas e tarefas repetitivas. No entanto, muitas vezes ficam aquém em cenários que exigem planejamento em múltiplas etapas, raciocínio complexo e tomada de decisões estratégicas—marcos do pensamento do Sistema 2.
Framework Talker-Reasoner
O framework Talker-Reasoner proposto pela DeepMind visa equipar os agentes de IA com capacidades tanto do Sistema 1 quanto do Sistema 2. Ele divide o agente em dois módulos distintos: o Talker e o Reasoner.
O Talker é o componente rápido e intuitivo análogo ao Sistema 1. Ele lida com interações em tempo real com o usuário e o ambiente. Ele percebe observações, interpreta linguagem, recupera informações da memória e gera respostas conversacionais. O agente Talker geralmente usa as habilidades de aprendizado em contexto (ICL) de grandes modelos de linguagem (LLMs) para realizar essas funções.
O Reasoner incorpora a natureza lenta e deliberada do Sistema 2. Ele realiza raciocínio e planejamento complexos. Está preparado para desempenhar tarefas específicas e interage com ferramentas e fontes de dados externas para aumentar seu conhecimento e tomar decisões informadas. Ele também atualiza as crenças do agente à medida que coleta novas informações. Essas crenças impulsionam decisões futuras e servem como a memória que o Talker usa em suas conversas.
“O agente Talker se concentra em gerar conversas naturais e coerentes com o usuário e interage com o ambiente, enquanto o agente Reasoner se concentra em realizar planejamento em múltiplas etapas, raciocínio e formação de crenças, fundamentadas nas informações do ambiente fornecidas pelo Talker”, escrevem os pesquisadores.
Os dois módulos interagem principalmente por meio de um sistema de memória compartilhada. O Reasoner atualiza a memória com suas crenças mais recentes e resultados de raciocínio, enquanto o Talker recupera essas informações para guiar suas interações. Essa comunicação assíncrona permite que o Talker mantenha um fluxo contínuo de conversa, mesmo enquanto o Reasoner realiza seus cálculos mais demorados em segundo plano.
“Isso é análogo à abordagem de sistema duplo da ciência comportamental, com o Sistema 1 sempre ligado enquanto o Sistema 2 opera a uma fração de sua capacidade”, escrevem os pesquisadores. “Da mesma forma, o Talker está sempre ligado e interagindo com o ambiente, enquanto o Reasoner atualiza crenças que informam o Talker apenas quando o Talker espera por ele, ou pode lê-las da memória.”
Talker-Reasoner para coaching em IA
Os pesquisadores testaram seu framework em uma aplicação de coaching para sono. O coach de IA interage com os usuários por meio de linguagem natural, fornecendo orientações e suporte personalizados para melhorar hábitos de sono. Esta aplicação requer uma combinação de conversa rápida e empática e raciocínio deliberado baseado em conhecimento.
O componente Talker do coach de sono lida com o aspecto conversacional, fornecendo respostas empáticas e guiando o usuário através de diferentes fases do processo de coaching. O Reasoner mantém um estado de crença sobre as preocupações, metas, hábitos e ambiente de sono do usuário. Ele usa essas informações para gerar recomendações personalizadas e planos em múltiplas etapas. O mesmo framework poderia ser aplicado a outras aplicações, como atendimento ao cliente e educação personalizada.
Os pesquisadores da DeepMind delineiam várias direções para futuras pesquisas. Uma área de foco é otimizar a interação entre o Talker e o Reasoner. Idealmente, o Talker deve determinar automaticamente quando uma consulta requer a intervenção do Reasoner e quando pode lidar com a situação de forma independente. Isso minimizaria cálculos desnecessários e melhoraria a eficiência geral.
Outra direção envolve estender o framework para incorporar múltiplos Reasoners, cada um especializado em diferentes tipos de raciocínio ou domínios de conhecimento. Isso permitiria que o agente enfrentasse tarefas mais complexas e fornecesse assistência mais abrangente.