A jornada de IA da Índia
O CEO da Nvidia, Jensen Huang, observou o progresso da Índia em sua jornada de IA em uma conversa na Cúpula de IA da Nvidia na Índia. A Índia agora possui mais de 2.000 empresas de IA da Nvidia Inception e mais de 100.000 desenvolvedores treinados em IA.
Isso se compara a um número global de 650.000 pessoas treinadas nas tecnologias de IA da Nvidia, e o movimento estratégico da Índia em direção à IA é um bom exemplo do que Huang chama de “IA soberana”, onde os países optam por criar sua própria infraestrutura de IA para manter o controle de seus próprios dados.
A Nvidia afirmou que a Índia está se tornando um importante produtor de IA para praticamente todos os setores — impulsionada por milhares de startups que atendem à população multilíngue e multicultural do país e se expandem para usuários globais.
O país é uma das seis principais economias globais que lideram a adoção de IA generativa e viu um crescimento rápido em seu ecossistema de startups e investidores, saltando para mais de 100.000 startups este ano, em comparação com menos de 500 em 2016.
Mais de 2.000 das startups de IA da Índia fazem parte da Nvidia Inception, um programa gratuito para startups projetado para acelerar a inovação e o crescimento por meio de treinamento técnico e ferramentas, suporte para entrar no mercado e oportunidades de se conectar com capitalistas de risco através da Inception VC Alliance.
Na Cúpula de IA da NVIDIA, que acontece em Mumbai até 25 de outubro, cerca de 50 startups baseadas na Índia estão compartilhando inovações em IA que geram impacto em áreas como atendimento ao cliente, mídia esportiva, saúde e robótica.
IA conversacional para clientes da Ferrovia Indiana
Os serviços de IA da Nvidia estão permitindo centros de atendimento mais eficientes na Índia.
A startup CoRover.ai, com sede em Bengaluru, já tem mais de um bilhão de usuários em sua plataforma de IA conversacional baseada em LLM, que inclui agentes baseados em texto, áudio e vídeo.
“O apoio da Nvidia Inception está nos ajudando a avançar em nosso trabalho para automatizar casos de uso de IA conversacional com modelos de linguagem grandes específicos do domínio”, disse Ankush Sabharwal, CEO da CoRover, em um comunicado. “A tecnologia de IA da NVIDIA nos permite oferecer assistentes virtuais de nível empresarial que atendem 1,3 bilhão de usuários em mais de 100 idiomas.”
A plataforma de IA da CoRover alimenta chatbots e aplicativos de atendimento ao cliente para grandes clientes do setor privado e público, como a Indian Railway Catering and Tourism Corporation, o provedor oficial de bilhetes online, água potável e alimentos para estações de trem e trens da Índia.
Batizado de AskDISHA, em homenagem à palavra sânscrita para direção, o chatbot multimodal do IRCTC lida com mais de 150.000 consultas de usuários diariamente e facilitou mais de 10 bilhões de interações para mais de 175 milhões de passageiros até hoje. Ele ajuda os clientes com tarefas como reservar ou cancelar passagens de trem, mudar estações de embarque, solicitar reembolsos e verificar o status de suas reservas em idiomas que incluem inglês, hindi, gujarati e hinglish — uma mistura de hindi e inglês.
A implementação do AskDISHA resultou em uma melhoria de 70% na taxa de satisfação do cliente do IRCTC e uma redução de 70% nas consultas por outros canais, como redes sociais, chamadas telefônicas e e-mails.
As ferramentas modulares de IA da CoRover foram desenvolvidas usando o Nvidia NeMo, uma estrutura e conjunto de microsserviços nativos da nuvem para desenvolver IA generativa. Elas operam em GPUs da Nvidia na nuvem, permitindo que a CoRover escale automaticamente os recursos de computação durante períodos de pico — como no momento em que os bilhetes de trem são liberados.
A Nvidia também destacou que a VideoVerse, fundada em Mumbai, construiu uma família de modelos de IA usando a tecnologia da Nvidia para apoiar a criação de conteúdo assistida por IA na indústria de mídia esportiva — permitindo que clientes globais, incluindo a Indian Premier League de críquete, a Associação de Basquete do Vietnã e a Conferência Mountain West do futebol universitário americano, gerem destaques de jogos até 15 vezes mais rápido e aumentem a audiência. Ela utiliza o Magnifi, com tecnologia como análise visual para detectar jogadores e momentos-chave para vídeo em formato curto.
A Nvidia também destacou a startup Fluid AI, baseada em Mumbai, que oferece chatbots de IA generativa, bots de chamadas de voz e uma gama de interfaces de programação de aplicativos para aumentar a eficiência empresarial. Suas ferramentas de IA permitem que os trabalhadores realizem tarefas como criar apresentações em menos de 15 segundos.
Karya, com sede em Bengaluru, é uma plataforma de trabalho digital baseada em smartphone que permite que membros de comunidades de baixa renda e marginalizadas na Índia ganhem uma renda adicional ao completar tarefas baseadas em linguagem que apoiam o desenvolvimento de modelos de IA multilíngues. Quase 100.000 trabalhadores da Karya estão gravando amostras de voz, transcrevendo áudio ou verificando a precisão de frases geradas por IA em seus idiomas nativos, ganhando quase 20 vezes o salário mínimo da Índia por seu trabalho. A Karya também fornece royalties a todos os colaboradores sempre que seus conjuntos de dados são vendidos para desenvolvedores de IA.
A Karya está empregando mais de 30.000 participantes mulheres de baixa renda em seis grupos linguísticos na Índia para ajudar a criar o conjunto de dados, que apoiará a criação de aplicações de IA diversas em agricultura, saúde e bancos.
Atendendo a mais de um bilhão de falantes de idiomas locais com LLMs
A Índia está investindo em IA soberana em uma aliança com a Nvidia.
Namaste, vanakkam, sat sri akaal — essas são apenas três formas de saudação na Índia, um país com 22 idiomas reconhecidos constitucionalmente e mais de 1.500 registrados pelo censo do país. Cerca de 10% de seus residentes falam inglês, o idioma mais comum da internet.
À medida que a Índia, o país mais populoso do mundo, avança em seus esforços de digitalização rápida, seu governo e startups locais estão desenvolvendo modelos de IA multilíngues que permitem que mais indianos interajam com a tecnologia em sua língua principal. É um caso de estudo em IA soberana — o desenvolvimento de infraestrutura de IA doméstica que é construída sobre conjuntos de dados locais e reflete os dialetos, culturas e práticas específicas de uma região.
Esses projetos do setor público e privado estão construindo modelos de linguagem para idiomas indic e inglês que podem alimentar agentes de IA de atendimento ao cliente para empresas, traduzir rapidamente conteúdos para ampliar o acesso à informação e permitir que serviços governamentais alcancem mais facilmente uma população diversa de mais de 1,4 bilhão de indivíduos.
Para apoiar iniciativas como essas, a Nvidia lançou um pequeno modelo de linguagem para o hindi, o idioma mais prevalente da Índia, com mais de meio bilhão de falantes. Agora disponível como um microserviço NIM da Nvidia, o modelo, chamado Nemotron-4-Mini-Hindi-4B, pode ser facilmente implantado em qualquer sistema acelerado por GPU da Nvidia para desempenho otimizado.
A plataforma de infraestrutura de IA acelerada da Nvidia.
A Tech Mahindra, uma empresa indiana de serviços de TI e consultoria, é a primeira a usar o microserviço NIM hindi Nemotron para desenvolver um modelo de IA chamado Indus 2.0, que é focado no hindi e em dezenas de seus dialetos.
O Indus 2.0 aproveita os dados de alta qualidade para ajuste fino da Tech Mahindra para aumentar ainda mais a precisão do modelo, desbloqueando oportunidades para clientes nos setores bancário, educacional, de saúde e outros para oferecer serviços localizados.
O modelo Nemotron Hindi possui 4 bilhões de parâmetros e é derivado do Nemotron-4 15B, um modelo de linguagem multilíngue de 15 bilhões de parâmetros desenvolvido pela Nvidia. O modelo foi podado, destilado e treinado com uma combinação de dados reais em hindi, dados sintéticos em hindi e uma quantidade igual de dados em inglês usando o Nvidia NeMo, uma estrutura e conjunto de microsserviços nativos da nuvem para desenvolver IA generativa.
O conjunto de dados foi criado com o Nvidia NeMo Curator, que melhora a precisão do modelo de IA generativa processando dados multimodais de alta qualidade em escala para treinamento e personalização. O NeMo Curator utiliza as bibliotecas Nvidia RAPIDS para acelerar os pipelines de processamento de dados em sistemas de GPU multi-nó, reduzindo o tempo de processamento e o custo total de propriedade.
Ele também fornece pipelines pré-construídos e blocos de construção para geração de dados sintéticos, filtragem de dados, classificação e deduplicação para processar dados de alta qualidade.
Após o ajuste fino com o NeMo, o modelo final lidera em múltiplos benchmarks de precisão para modelos de IA com até 8 bilhões de parâmetros. Empacotado como um microserviço NIM, pode ser facilmente utilizado para apoiar casos de uso em setores como educação, varejo e saúde.
Está disponível como parte da plataforma de software Nvidia AI Enterprise, que oferece às empresas acesso a recursos adicionais, incluindo suporte técnico e segurança de nível empresarial, para simplificar o desenvolvimento de IA para ambientes de produção. Um número de empresas indianas está utilizando os serviços.
As fábricas de IA da Índia podem transformar a economia
A tecnologia da Nvidia está sendo usada para construir fábricas de IA na Índia.
Os principais provedores de infraestrutura em nuvem e fabricantes de servidores da Índia estão aumentando a capacidade de data center acelerado em que a Nvidia chama de fábricas de IA. Até o final do ano, eles terão aumentado a implantação de GPUs da Nvidia no país em quase 10 vezes em comparação com 18 meses atrás.
Dezenas de milhares de GPUs Nvidia Hopper serão adicionadas para construir fábricas de IA — grandes data centers para produção de IA — que suportam grandes empresas, startups e centros de pesquisa da Índia executando cargas de trabalho de IA na nuvem e nas instalações. Isso fornecerá cumulativamente quase 180 exaflops de computação para impulsionar a inovação em saúde, serviços financeiros e criação de conteúdo digital.
Anunciado hoje na Cúpula de IA da Nvidia, essa construção da tecnologia de computação acelerada é liderada pelo provedor de data center Yotta Data Services, habilitador global de ecossistemas digitais Tata Communications, provedor de serviços em nuvem E2E Networks e fabricante de equipamentos originais Netweb.
Seus sistemas permitirão que desenvolvedores aproveitem os recursos do data center local poderosos o suficiente para alimentar uma nova onda de modelos de linguagem grandes, visualizações científicas complexas e gêmeos digitais industriais que podem impulsionar a Índia para a vanguarda da inovação acelerada por IA.
O Yotta Data Services está fornecendo a empresas indianas, departamentos governamentais e pesquisadores acesso a serviços de nuvem gerenciados por meio de sua plataforma Shakti Cloud para impulsionar a adoção de IA generativa e a educação em IA.
Impulsionado por milhares de GPUs Nvidia Hopper, esses recursos computacionais são complementados pelo Nvidia AI Enterprise, uma plataforma de software nativa da nuvem de ponta a ponta que acelera os pipelines de ciência de dados e simplifica o desenvolvimento e a implantação de copilotos de nível empresarial e outras aplicações de IA generativa.
Com o Nvidia AI Enterprise, os clientes da Yotta podem acessar o Nvidia NIM, uma coleção de microsserviços para inferência de IA otimizada, e os Blueprints de Agente NIM da Nvidia, um conjunto de arquiteturas de referência personalizáveis para aplicações de IA generativa. Isso permitirá que eles adotem rapidamente IA otimizada e de última geração para aplicações, incluindo geração biomolecular, criação de avatares virtuais e geração de linguagem.
“O futuro da IA é sobre velocidade, flexibilidade e escalabilidade, por isso a plataforma Shakti Cloud da Yotta foi projetada para eliminar as barreiras comuns que organizações de diversos setores enfrentam na adoção de IA”, disse Sunil Gupta, CEO da Yotta, em um comunicado. “A Shakti Cloud reúne GPUs de alto desempenho, armazenamento otimizado e uma camada de serviços que simplifica o desenvolvimento de IA desde o treinamento do modelo até a implantação, para que as organizações possam rapidamente escalar seus esforços em IA, simplificar operações e expandir os limites do que a IA pode realizar.