A Meta acaba de anunciar que três novos recursos estão sendo lançados para seus óculos inteligentes Ray-Ban: IA ao vivo, traduções ao vivo e suporte ao Shazam. Tanto a IA ao vivo quanto a tradução ao vivo estão limitadas aos membros do Programa de Acesso Antecipado da Meta, enquanto o suporte ao Shazam está disponível para todos os usuários nos Estados Unidos e Canadá.
Tanto a IA ao vivo quanto a tradução ao vivo foram inicialmente reveladas na Meta Connect 2024 no início deste ano. A IA ao vivo permite que você converse naturalmente com o assistente de IA da Meta enquanto ele visualiza continuamente seu entorno. Por exemplo, se você estiver explorando a seção de produtos em um supermercado, poderá teoricamente pedir à IA da Meta que sugira algumas receitas com base nos ingredientes que você está observando. A Meta afirma que os usuários poderão usar o recurso de IA ao vivo por cerca de 30 minutos por carga completa.
Enquanto isso, a tradução ao vivo permite que os óculos traduzam fala em tempo real entre inglês e espanhol, francês ou italiano. Você pode escolher ouvir as traduções pelos próprios óculos ou visualizar transcrições em seu telefone. É necessário baixar as combinações de idiomas com antecedência, além de especificar qual idioma você fala em relação ao que seu parceiro de conversa fala.
O suporte ao Shazam é um pouco mais direto. Tudo que você precisa fazer é pedir à IA da Meta quando ouvir uma música, e ela deve ser capaz de dizer o que você está ouvindo. Você pode ver o CEO da Meta, Mark Zuckerberg, demonstrando isso em um vídeo no Instagram.
Se você ainda não vê os recursos, verifique se seus óculos estão executando o software v11 e se você também está usando a versão v196 do aplicativo Meta View. Se você ainda não estiver no Programa de Acesso Antecipado, pode se inscrever através deste site.
As atualizações chegam exatamente quando as grandes empresas de tecnologia estão promovendo assistentes de IA como a razão de ser dos óculos inteligentes. Na semana passada, o Google anunciou o Android XR, um novo sistema operacional para óculos inteligentes, e posicionou especificamente seu assistente de IA Gemini como o aplicativo matador. Enquanto isso, o CTO da Meta, Andrew Bosworth, acabou de postar um blog opinando que “2024 foi o ano em que os óculos de IA ganharam força”. Nele, Bosworth também afirma que os óculos inteligentes podem ser a melhor forma possível para um “dispositivo verdadeiramente nativo de IA” e a primeira categoria de hardware a ser “completamente definida por IA desde o início.”