A API Gemini do Google e o AI Studio ganham fundamentação com a Pesquisa do Google

A partir de hoje, os desenvolvedores que utilizam a API Gemini do Google e seu Google AI Studio para construir serviços e bots baseados em IA poderão fundamentar os resultados de seus prompts com dados da Pesquisa do Google. Isso deve permitir respostas mais precisas com base em dados mais recentes.

Como tem sido o caso anteriormente, os desenvolvedores poderão experimentar a fundamentação gratuitamente no AI Studio, que é essencialmente o playground do Google para desenvolvedores testarem e refinarem seus prompts, além de acessar seus mais recentes modelos de linguagem de grande porte. Os usuários da API Gemini terão que estar no nível pago e pagarão $35 por 1.000 consultas fundamentadas.

O modo de comparação recentemente lançado no AI Studio facilita a visualização de como os resultados das consultas fundamentadas diferem daqueles que dependem apenas dos dados do próprio modelo.

Ativar a fundamentação é tão fácil quanto acionar um interruptor e decidir com que frequência a API deve usar a fundamentação, fazendo alterações na chamada configuração de ‘recuperação dinâmica’. Isso pode ser tão simples quanto optar por ativá-la para cada prompt ou escolher uma configuração mais sutil que usa um modelo menor para avaliar o prompt e decidir se ele se beneficiaria de ser aumentado com dados da Pesquisa do Google.

“A fundamentação pode ajudar […] quando você faz uma pergunta muito recente que está além do limite de conhecimento do modelo, mas também pode ajudar com uma pergunta que não é tão recente, […] mas você pode querer detalhes mais ricos”, explicou Shrestha Basu Mallick, gerente de produto do Google para a API Gemini e o AI Studio. “Pode haver desenvolvedores que dizem que só queremos fundamentar em fatos recentes, e eles definiriam esse [valor de recuperação dinâmica] mais alto. E pode haver desenvolvedores que dizem: Não, eu quero o rico detalhe da pesquisa do Google sobre tudo.”

Quando o Google enriquece os resultados com dados da Pesquisa do Google, ele também fornece links de suporte de volta às fontes subjacentes. Logan Kilpatrick, que se juntou ao Google no início deste ano após liderar as relações com desenvolvedores na OpenAI, me disse que exibir esses links é um requisito da licença Gemini para quem usa esse recurso.

“É muito importante para nós por duas razões: primeiro, queremos garantir que nossos editores recebam o crédito e a visibilidade”, acrescentou Basu Mallick. “Mas segundo, isso também é algo que os usuários gostam. Quando recebo uma resposta de LLM, muitas vezes vou à Pesquisa do Google e verifico essa resposta. Estamos fornecendo uma maneira para que eles façam isso facilmente, então isso é muito valorizado pelos usuários.”

Nesse contexto, vale a pena notar que, enquanto o AI Studio começou como algo mais parecido com uma ferramenta de ajuste de prompts, agora é muito mais.

“O sucesso para o AI Studio se parece com: você entra, experimenta um dos modelos Gemini e vê que isso realmente é poderoso e funciona bem para seu caso de uso”, disse Kilpatrick. “Há uma série de coisas que fazemos para apresentar casos de uso interessantes aos desenvolvedores em destaque na interface do usuário, mas, em última análise, o objetivo não é mantê-lo no AI Studio e apenas fazer você brincar com os modelos. O objetivo é fazer você codificar. Você pressiona ‘Obter Código’ no canto superior direito, começa a construir algo e pode voltar ao AI Studio para experimentar um modelo futuro.

Fonte

Compartilhe esse conteúdo: