A Apple tem muito orgulho do aparato de privacidade que cerca a Apple Intelligence, tão orgulhosa que está oferecendo somas consideráveis a qualquer um que encontre uma questão de privacidade ou vetor de ataque em seu código. O primeiro programa de recompensas por falhas da Apple para sua IA oferece uma quantia substancial de $50.000 para quem encontrar qualquer divulgação acidental de dados, mas o verdadeiro prêmio é de $1 milhão por um ataque remoto ao novo processamento em nuvem da Apple.
A Apple anunciou pela primeira vez seu Private Cloud Compute em junho, ao mesmo tempo em que detalhou todos os novos recursos de IA que chegarão ao iOS, iPadOS e, eventualmente, ao MacOS. O aspecto mais importante da IA da Apple foi a revitalização da Siri, que é capaz de trabalhar entre aplicativos. Como apresentado, a Siri poderia acessar suas mensagens para buscar informações sobre o aniversário de um primo que sua mãe enviou, e depois puxar informações extras de seus e-mails para criar um evento no calendário. Isso também exigia o processamento dos dados através dos servidores em nuvem internos da Apple. A Apple, por sua vez, estaria gerenciando um tesouro de dados de usuários que a maioria das pessoas gostaria de manter privada.
Para manter sua reputação de rigorosa em privacidade, a Apple afirma que o Private Cloud Compute é uma camada extra de segurança tanto de software quanto de hardware. Em termos simples, a Apple afirma que seus dados estarão seguros e que não reterão seus dados.
O que nos leva ao programa de recompensas de segurança. Em um post no blog na quinta-feira, a equipe de segurança da Apple disse que está convidando “todos os pesquisadores de segurança—ou qualquer pessoa com interesse e curiosidade técnica… [a] realizar sua própria verificação independente de nossas alegações.”
Até agora, a Apple afirmou que permitiu que auditores de terceiros entrassem para analisar, mas esta é a primeira vez que abre para o público. Ela fornece um guia de segurança e acesso a um ambiente de pesquisa virtual para analisar o PCC dentro da pré-visualização do desenvolvedor do macOS Sequoia 15.1. Você precisará de um Mac com um chip M e pelo menos 16 GB de RAM para acessar. A empresa de Cupertino está fornecendo o código-fonte do cloud compute em um repositório no Github.
Além de convocar todos os hackers e curiosos, a Apple está oferecendo uma ampla variedade de pagamentos por quaisquer bugs ou problemas de segurança. A recompensa base de $50.000 é apenas para “divulgação acidental ou inesperada de dados”, mas você poderia obter $250.000 por “acesso aos dados de solicitação dos usuários ou informações sensíveis sobre a solicitação dos usuários.” A recompensa máxima de $1 milhão é por “execução de código arbitrário com direitos arbitrários.”
Isso é indicativo da confiança da Apple neste sistema, mas, no mínimo, o convite aberto poderia permitir que mais pessoas explorassem os processos em nuvem da Apple. O lançamento inicial do iOS 18.1 está programado para chegar aos iPhones em 28 de outubro. Já existe uma versão beta do iOS 18.2 que dá aos usuários acesso à integração do ChatGPT. A Apple força os usuários a conceder permissão ao ChatGPT antes que ele possa ver qualquer uma de suas solicitações ou interagir com a Siri. O chatbot da OpenAI é meramente uma solução temporária antes que a Apple tenha a chance de colocar sua própria IA totalmente em funcionamento.
A Apple exalta seu forte histórico em questões de privacidade, embora tenha uma tendência a rastrear usuários dentro de seus próprios ecossistemas de software. No caso do PCC, a Apple está afirmando que não terá nenhuma capacidade de verificar seus registros ou solicitações com a Siri. Talvez qualquer um que acesse o código-fonte possa verificar as alegações de privacidade do gigante da tecnologia antes que a Siri finalmente receba sua atualização, provavelmente em algum momento de 2025.