Após meses de especulação, a Apple Intelligence foi apresentada em destaque na WWDC 2024 em junho. A plataforma foi anunciada em meio a uma avalanche de notícias sobre IA generativa de empresas como Google e Open AI, gerando preocupações de que o gigante da tecnologia, conhecido por seu silêncio, havia perdido a oportunidade na última moda tecnológica.
Contrariando tal especulação, no entanto, a Apple tinha uma equipe em funcionamento, trabalhando em uma abordagem muito à sua maneira em relação à inteligência artificial. Embora houvesse um certo glamour nas demonstrações — a Apple sempre adora fazer um show — a Apple Intelligence é, em última análise, uma abordagem muito pragmática para a categoria.
A Apple Intelligence (sim, IA para abreviar) não é um recurso independente. Em vez disso, trata-se de integrar-se às ofertas existentes. Embora seja um exercício de branding em um sentido muito real, a tecnologia impulsionada por modelos de linguagem de grande escala (LLM) operará nos bastidores. No que diz respeito ao consumidor, a tecnologia se apresentará principalmente na forma de novos recursos para aplicativos existentes.
Aprendemos mais durante o evento do iPhone 16 da Apple, realizado em 9 de setembro. Durante o evento, a Apple anunciou uma série de recursos impulsionados por IA que chegarão aos seus dispositivos, desde tradução no Apple Watch Series 10, pesquisa visual nos iPhones e uma série de ajustes nas capacidades da Siri. A primeira onda da Apple Intelligence chegará no final de outubro, como parte do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Uma segunda onda de recursos está disponível como parte das betas para desenvolvedores do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2.
Os recursos foram lançados primeiro em inglês dos EUA. A Apple posteriormente adicionou localizações em inglês australiano, canadense, neozelandês, sul-africano e britânico.
O suporte para chinês, inglês (Índia), inglês (Cingapura), francês, alemão, italiano, japonês, coreano, português, espanhol e vietnamita chegará em 2025. Notavelmente, usuários na China e na UE podem não ter acesso a recursos da Apple Intelligence, devido a obstáculos regulatórios.
O que é a Apple Intelligence?
Executivos de marketing de Cupertino chamaram a Apple Intelligence de “IA para o resto de nós”. A plataforma foi projetada para alavancar as coisas que a IA generativa já faz bem, como geração de texto e imagem, para melhorar recursos existentes. Como outras plataformas, incluindo ChatGPT e Google Gemini, a Apple Intelligence foi treinada em grandes modelos de informação. Esses sistemas usam aprendizado profundo para formar conexões, sejam de texto, imagens, vídeo ou música.
A oferta de texto, impulsionada por LLM, apresenta-se como Ferramentas de Escrita. O recurso está disponível em vários aplicativos da Apple, incluindo Mail, Mensagens, Pages e Notificações. Pode ser usado para fornecer resumos de textos longos, revisar e até escrever mensagens para você, usando conteúdo e prompts de tom.
A geração de imagens também foi integrada de maneira semelhante — embora um pouco menos perfeitamente. Os usuários podem solicitar à Apple Intelligence que gere emojis personalizados (Genmojis) em um estilo característico da Apple. O Image Playground, por sua vez, é um aplicativo de geração de imagens independente que utiliza prompts para criar conteúdo visual que pode ser usado em Mensagens, Keynote ou compartilhado via redes sociais.
A Apple Intelligence também representa uma tão esperada renovação da Siri. O assistente inteligente foi um dos primeiros a entrar no jogo, mas tem sido em grande parte negligenciado nos últimos anos. A Siri está integrada de maneira muito mais profunda nos sistemas operacionais da Apple; por exemplo, em vez do ícone familiar, os usuários verão uma luz brilhante ao redor da borda da tela do iPhone quando ele estiver em funcionamento.
Mais importante, a nova Siri funciona em todos os aplicativos. Isso significa, por exemplo, que você pode pedir à Siri para editar uma foto e, em seguida, inseri-la diretamente em uma mensagem de texto. É uma experiência fluida que o assistente anteriormente não possuía. A consciência em tela significa que a Siri usa o contexto do conteúdo com o qual você está atualmente envolvido para fornecer uma resposta apropriada.
Quem recebe a Apple Intelligence e quando?
A primeira onda da Apple Intelligence chega em outubro através das atualizações do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Esses incluem ferramentas de escrita integradas, limpeza de imagens, resumos de artigos e uma entrada de digitação para a nova experiência da Siri.
Muitos recursos restantes serão adicionados com o lançamento iminente de outubro, como parte do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Uma segunda onda de recursos está disponível como parte do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2. Essa lista inclui Genmoji, Image Playground, Visual Intelligence, Image Wand e integração com ChatGPT.
A oferta será gratuita para uso, desde que você tenha um dos seguintes dispositivos:
Todos os modelos do iPhone 16
iPhone 15 Pro Max (A17 Pro)
iPhone 15 Pro (A17 Pro)
iPad Pro (M1 e posteriores)
iPad Air (M1 e posteriores)
iPad mini (A17 ou posterior)
MacBook Air (M1 e posteriores)
MacBook Pro (M1 e posteriores)
iMac (M1 e posteriores)
Mac mini (M1 e posteriores)
Mac Studio (M1 Max e posteriores)
Mac Pro (M2 Ultra)
Notavelmente, apenas as versões Pro do iPhone 15 estão obtendo acesso, devido a limitações no chipset do modelo padrão. Presumivelmente, no entanto, toda a linha do iPhone 16 poderá executar a Apple Intelligence quando chegar.
Private Cloud Compute
A Apple adotou uma abordagem de modelo pequeno e sob medida para o treinamento. Em vez de depender da abordagem de “tudo em um”, que alimenta plataformas como GPT e Gemini, a empresa compilou conjuntos de dados internamente para tarefas específicas, como, por exemplo, compor um email. O maior benefício dessa abordagem é que muitas dessas tarefas se tornam muito menos intensivas em recursos e podem ser realizadas no dispositivo.
Isso, no entanto, não se aplica a tudo. Consultas mais complexas utilizarão a nova oferta de Private Cloud Compute. A empresa agora opera servidores remotos executados em Apple Silicon, que afirma permitir oferecer o mesmo nível de privacidade que seus dispositivos de consumo. Se uma ação está sendo realizada localmente ou via nuvem será invisível para o usuário, a menos que o dispositivo esteja offline, momento em que consultas remotas gerarão um erro.
Apple Intelligence com aplicativos de terceiros
Muito se falou sobre a parceria pendente da Apple com a OpenAI antes da WWDC. No entanto, acabou que o acordo era menos sobre alimentar a Apple Intelligence e mais sobre oferecer uma plataforma alternativa para aquelas coisas para as quais não está realmente construída. É um reconhecimento tácito de que construir um sistema de modelo pequeno tem suas limitações.
A Apple Intelligence é gratuita. O mesmo vale para o acesso ao ChatGPT. No entanto, aqueles com contas pagas no último terão acesso a recursos premium que os usuários gratuitos não têm, incluindo consultas ilimitadas.
A integração do ChatGPT, que estreia no iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, tem dois papéis principais: complementar a base de conhecimento da Siri e adicionar às opções existentes das Ferramentas de Escrita.
Com o serviço habilitado, certas perguntas levarão a nova Siri a pedir ao usuário para aprovar seu acesso ao ChatGPT. Receitas e planejamento de viagens são exemplos de perguntas que podem surgir essa opção. Os usuários também podem solicitar diretamente à Siri que “pergunte ao ChatGPT”.
Compose é a outra função principal do ChatGPT disponível através da Apple Intelligence. Os usuários podem acessá-la em qualquer aplicativo que suporte a nova funcionalidade de Ferramentas de Escrita. Compose adiciona a capacidade de escrever conteúdo com base em um prompt. Isso se junta às ferramentas de escrita existentes, como Estilo e Resumo.
Sabemos com certeza que a Apple planeja fazer parceria com outros serviços de IA generativa. A empresa praticamente disse que o Google Gemini é o próximo dessa lista.