A Apple ocasionalmente toma decisões que mancham sua forte reputação em relação à privacidade, como quando coletou secretamente as interações dos usuários com a Siri. Ontem, uma postagem de blog do desenvolvedor Jeff Johnson destacou uma dessas escolhas: um botão de “Busca Visual Aprimorada” para o aplicativo Fotos da Apple que parece estar ativado por padrão, dando ao seu dispositivo permissão para compartilhar dados de suas fotos com a Apple.
Com certeza, quando verifiquei meu iPhone 15 Pro esta manhã, o botão estava ligado. Você pode encontrá-lo em Ajustes > Fotos (ou Configurações do Sistema > Fotos em um Mac). A Busca Visual Aprimorada permite que você pesquise marcos que você fotografou ou busque essas imagens usando os nomes desses marcos.
Para ver o que isso habilita no aplicativo Fotos, deslize para cima em uma foto que você tirou de um edifício e selecione “Procurar Marco”, e um cartão aparecerá que idealmente o identifica. Aqui estão alguns exemplos do meu telefone:
Isso é definitivamente a Catedral de Santa Maria, mas a imagem à direita não é um mosteiro trapista, mas sim o prédio da prefeitura de Dubuque, Iowa.
Capturas de tela: Fotos da Apple
Em sua essência, é uma expansão conveniente do recurso Visual Look Up do Fotos que a Apple introduziu no iOS 15, que permite identificar plantas ou, por exemplo, descobrir o que aqueles símbolos em uma etiqueta de lavanderia significam. Mas o Visual Look Up não precisa de permissão especial para compartilhar dados com a Apple, e isso sim.
Uma descrição sob o botão diz que você está dando à Apple permissão para “combinar privadamente lugares em suas fotos com um índice global mantido pela Apple.” Quanto ao funcionamento, existem detalhes em um blog de pesquisa sobre aprendizado de máquina da Apple sobre a Busca Visual Aprimorada que Johnson vincula:
O processo começa com um modelo de ML no dispositivo que analisa uma foto dada para determinar se há uma “região de interesse” (ROI) que pode conter um marco. Se o modelo detectar uma ROI no domínio “marco”, um vetor de incorporação é calculado para essa região da imagem.
De acordo com o blog, esse vetor de incorporação é então criptografado e enviado à Apple para comparação com seu banco de dados. A empresa oferece uma explicação muito técnica sobre vetores de incorporação em um artigo de pesquisa, mas a IBM o colocou de forma mais simples, escrevendo que incorporações transformam “um ponto de dados, como uma palavra, frase ou imagem, em um array n-dimensional de números representando as características daquele ponto de dados.”
Assim como Johnson, eu não entendo completamente os blogs de pesquisa da Apple e a Apple não respondeu imediatamente ao nosso pedido de comentário sobre as preocupações de Johnson. Parece que a empresa se esforçou para manter os dados privados, em parte condensando os dados da imagem em um formato legível para um modelo de ML.
Ainda assim, fazer com que o botão seja opt-in, como aqueles para compartilhamento de dados analíticos ou gravações ou interações da Siri, em vez de algo que os usuários têm que descobrir, parece que seria uma opção melhor.