DataStax tem expandido continuamente sua plataforma de dados nos últimos anos para ajudar a atender à crescente necessidade dos desenvolvedores de IA empresariais.
Hoje, a empresa está dando o próximo passo com o lançamento da DataStax AI Platform, construída com a Nvidia AI. A nova plataforma integra a tecnologia de banco de dados existente da DataStax, incluindo o DataStax Astra para nuvem nativa e o DataStax Hyper-Converged Database (HCD) para implantações autogerenciadas. Ela também inclui a tecnologia Langflow da empresa, que é usada para ajudar a construir fluxos de trabalho de IA agentiva. Os componentes de IA empresarial da Nvidia incluem tecnologias que ajudarão a acelerar e melhorar a capacidade das organizações de construir e implantar modelos rapidamente. Entre os componentes empresariais da Nvidia no stack estão o NeMo Retriever, NeMo Guardrails e NIM Agent Blueprints.
De acordo com a DataStax, a nova plataforma pode reduzir o tempo de desenvolvimento de IA em 60% e lidar com cargas de trabalho de IA 19 vezes mais rápido do que as soluções atuais.
“O tempo até a produção é uma das coisas que discutimos, construir essas coisas leva muito tempo”, disse Ed Anuff, Chief Product Officer da DataStax, ao VentureBeat. “O que temos visto é que muitas pessoas estão presas no inferno do desenvolvimento.”
Como o Langflow permite que as empresas se beneficiem da IA agentiva
Langflow, a ferramenta de orquestração visual de IA da DataStax, desempenha um papel crucial na nova plataforma de IA.
O Langflow permite que os desenvolvedores construam visualmente fluxos de trabalho de IA arrastando e soltando componentes em uma tela. Esses componentes representam várias capacidades da DataStax e da Nvidia, incluindo fontes de dados, modelos de IA e etapas de processamento. Essa abordagem visual simplifica significativamente o processo de construção de aplicações complexas de IA.
“O que o Langflow nos permite fazer é apresentar todas as capacidades e APIs da DataStax, assim como todos os componentes e microsserviços da Nvidia como componentes visuais que podem ser conectados e executados de forma interativa”, disse Anuff.
O Langflow também é a tecnologia crítica que permite a IA agentiva na nova plataforma da DataStax. De acordo com Anuff, a plataforma facilita o desenvolvimento de três tipos principais de agentes:
Agentes orientados a tarefas: Esses agentes podem realizar tarefas específicas em nome dos usuários. Por exemplo, em um aplicativo de viagens, um agente poderia montar um pacote de férias com base nas preferências do usuário.
Agentes de automação: Esses agentes operam nos bastidores, lidando com tarefas sem interação direta do usuário. Eles geralmente envolvem APIs se comunicando com outras APIs e agentes, facilitando fluxos de trabalho automatizados complexos.
Sistemas multiagentes: Essa abordagem envolve dividir tarefas complexas em subtarefas tratadas por agentes especializados.
O que a combinação Nvidia-DataStax permite para a IA empresarial
A combinação das capacidades da Nvidia com os dados da DataStax e o Langflow ajudará os usuários de IA empresarial de várias maneiras, de acordo com Anuff.
Ele explicou que a integração da Nvidia permitirá que os usuários empresariais invoquem mais facilmente modelos de linguagem personalizados e embeddings através de uma arquitetura de microsserviços NIM padronizada. Ao usar os microsserviços da Nvidia, os usuários também podem acessar as capacidades de hardware e software da Nvidia para executar esses modelos de forma eficiente.
O suporte a guardrails é outra adição chave que ajudará os usuários da DataStax a prevenir conteúdos e saídas de modelos inseguros.
“A capacidade de guardrails é um dos recursos que eu acho que provavelmente tem o maior impacto para desenvolvedores e usuários finais”, disse Anuff. “Os guardrails são basicamente um modelo de sidecar, que é capaz de reconhecer e interceptar conteúdo inseguro que está vindo do usuário, da ingestão ou através de informações recuperadas de bancos de dados.”
A integração da Nvidia também ajudará a permitir a melhoria contínua dos modelos. Anuff explicou que o NeMo Curator permite que os usuários de IA empresarial determinem conteúdo adicional que pode ser usado para fins de ajuste fino.
O impacto geral da integração é ajudar as empresas a se beneficiarem da IA mais rapidamente e de forma econômica. Anuff observou que é uma abordagem que não precisa depender inteiramente de GPUs.
“O stack empresarial da Nvidia na verdade é capaz de executar cargas de trabalho em CPUs, assim como em GPUs”, disse Anuff. “As GPUs serão mais rápidas e geralmente serão onde você quer colocar essas cargas de trabalho, mas se você quiser descarregar algumas das coisas para CPUs para economizar custos em áreas onde não importa, isso também permite que você faça isso.”