IBM lança a nova família de modelos Granite 3.0 LLMs de código aberto para IA empresarial

IBM está lançando sua nova família de modelos Granite 3.0 de código aberto para IA empresarial enquanto olha para um futuro de computação generativa.

Não se engane, a IA empresarial é um grande negócio, especialmente para a IBM.

A IBM já possui um portfólio de negócios de $2 bilhões relacionado à IA generativa e agora está buscando acelerar esse crescimento. A IBM está expandindo seus negócios de IA empresarial hoje com o lançamento da terceira geração de modelos de linguagem de grande escala Granite (LLMs). Um elemento central da nova geração é o foco contínuo em IA empresarial de código aberto real. Indo um passo além, a IBM está garantindo que os modelos possam ser ajustados para IA empresarial, com suas capacidades do InstructLab.

Os novos modelos anunciados hoje incluem opções de uso geral com 2 bilhões e 8 bilhões de parâmetros Granite 3.0. Também existem modelos Mixture-of-Experts (MoE) que incluem Granite 3.0 3B A800M Instruct, Granite 3.0 1B A400M Instruct, Granite 3.0 3B A800M Base e Granite 3.0 1B A400M Base. Completando a atualização, a IBM também possui um novo grupo com opções otimizadas de segurança e proteção que incluem os modelos Granite Guardian 3.0 8B e Granite Guardian 3.0 2B. Os novos modelos estarão disponíveis no serviço watsonX da IBM, bem como no Amazon Bedrock, Amazon Sagemaker e Hugging Face.

“Como mencionamos em nossa última chamada de resultados, o portfólio de negócios que construímos em IA generativa agora é superior a $2 bilhões em tecnologia e consultoria”, disse Rob Thomas, vice-presidente sênior e diretor comercial da IBM, durante uma coletiva de imprensa com jornalistas e analistas. “Ao pensar nos meus 25 anos na IBM, não tenho certeza se já tivemos um negócio que escalou a esse ritmo.”

Como a IBM está buscando avançar a IA empresarial com o Granite 3.0

O Granite 3.0 apresenta uma gama de modelos de IA sofisticados adaptados para aplicações empresariais.

A IBM espera que os novos modelos ajudem a suportar uma variedade de casos de uso empresarial, incluindo: atendimento ao cliente, automação de TI, terceirização de processos de negócios (BPO), desenvolvimento de aplicativos e cibersegurança.

Os novos modelos Granite 3.0 foram treinados pela equipe de fábrica de modelos de dados centralizada da IBM, que é responsável por buscar e curar os dados utilizados para o treinamento.

Dario Gil, vice-presidente sênior e diretor de pesquisa da IBM, explicou que o processo de treinamento envolveu 12 trilhões de tokens de dados, incluindo dados de linguagem em múltiplas línguas, bem como dados de código. Ele enfatizou que as principais diferenças em relação às gerações anteriores foram a qualidade dos dados e as inovações arquitetônicas utilizadas no processo de treinamento.

Thomas acrescentou que o que também é importante reconhecer é de onde vêm os dados.

“Parte da nossa vantagem em construir modelos são os conjuntos de dados que temos que são únicos para a IBM”, disse Thomas. “Temos um ponto de vista único na indústria, onde nos tornamos o primeiro cliente de tudo o que construímos, o que também nos dá uma vantagem em termos de como construímos os modelos.”

A IBM reivindica altos padrões de desempenho para o Granite 3.0

De acordo com Gil, os modelos Granite alcançaram resultados notáveis em uma ampla gama de tarefas, superando as versões mais recentes de modelos do Google, Anthropic e outros.

“O que você está vendo aqui são modelos incrivelmente de alto desempenho, absolutamente de última geração, e estamos muito orgulhosos disso”, disse Gil.

Mas não é apenas o desempenho bruto que diferencia o Granite. A IBM também colocou uma forte ênfase na segurança e confiança, desenvolvendo modelos avançados “Guardian” que podem ser usados para evitar que os modelos principais sejam comprometidos ou produzam conteúdo prejudicial. As várias opções de tamanho dos modelos também são um elemento crítico.

“Nos importamos profundamente, e aprendemos uma lição ao escalar a IA, que o custo de inferência é essencial”, observou Gil. “Essa é a razão pela qual estamos tão focados no tamanho da categoria de modelos, porque ele tem a combinação de desempenho e custo de inferência que é muito atraente para escalar casos de uso na empresa.”

Por que o código aberto real é importante para a IA empresarial

Um diferencial chave para o Granite 3.0 é a decisão da IBM de liberar os modelos sob a licença de código aberto Apache 2.0, aprovada pela Open Source Initiative (OSI).

Existem muitos outros modelos abertos, como o Llama da Meta no mercado, que não estão, de fato, disponíveis sob uma licença aprovada pela OSI. Essa é uma distinção que importa para algumas empresas.

“Decidimos que seríamos absolutamente transparentes sobre isso e decidimos fazer uma licença Apache 2, para que possamos dar máxima flexibilidade aos nossos parceiros empresariais para fazer o que precisam com a tecnologia”, explicou Gil.

A licença permissiva Apache 2.0 permite que os parceiros da IBM construam suas próprias marcas e propriedade intelectual em cima dos modelos Granite. Isso ajuda a fomentar um ecossistema robusto de soluções e aplicações alimentadas pela tecnologia Granite.

“Isso está mudando completamente a noção de quão rapidamente as empresas podem adotar a IA quando você tem uma licença permissiva que permite contribuição, permite comunidade e, em última análise, permite ampla distribuição”, disse Thomas.

Olhando além da IA generativa para a computação generativa

Olhando para o futuro, a IBM está pensando sobre a próxima grande mudança de paradigma, algo que Gil se referiu como – computação generativa.

Em essência, a computação generativa refere-se à capacidade de programar computadores fornecendo exemplos ou prompts, em vez de escrever instruções passo a passo explicitamente. Isso se alinha com as capacidades de LLMs como o Granite, que podem gerar texto, código e outras saídas com base na entrada que recebem.

“Esse paradigma onde não escrevemos as instruções, mas programamos o computador por exemplo, é fundamental, e estamos apenas começando a tocar no que isso significa ao interagir com LLMs”, disse Gil. “Você verá nós investindo e indo muito agressivamente em uma direção onde, com esse paradigma de computação generativa, seremos capazes de implementar a próxima geração de modelos, estruturas agentivas e muito mais, é uma nova maneira fundamental de programar computadores como consequência da revolução da IA generativa.

Fonte

Compartilhe esse conteúdo: