No iOS 18.2, a Apple está adicionando um novo recurso que ressuscita parte da intenção por trás de seus planos interrompidos de varredura CSAM — desta vez, sem quebrar a criptografia de ponta a ponta ou fornecer portas dos fundos para o governo. Lançando primeiro na Austrália, a expansão do recurso Comunicação Segura da empresa usa aprendizado de máquina no dispositivo para detectar e borrar conteúdo nu, adicionando avisos e exigindo confirmação antes que os usuários possam prosseguir. Se a criança tiver menos de 13 anos, ela não pode continuar sem inserir a senha do Screen Time do dispositivo.
Se o aprendizado de máquina do dispositivo detectar conteúdo nu, o recurso automaticamente borrará a foto ou vídeo, exibirá um aviso de que o conteúdo pode ser sensível e oferecerá maneiras de obter ajuda. As opções incluem deixar a conversa ou grupo, bloquear a pessoa e acessar recursos de segurança online.
O recurso também exibe uma mensagem que tranquiliza a criança de que está tudo bem não visualizar o conteúdo ou deixar o chat. Há também uma opção para enviar uma mensagem para um pai ou responsável. Se a criança tiver 13 anos ou mais, ela ainda pode confirmar que deseja continuar após receber esses avisos — com uma repetição dos lembretes de que é aceitável desistir e que mais ajuda está disponível. De acordo com o The Guardian, também inclui uma opção para relatar as imagens e vídeos à Apple.
O recurso analisa fotos e vídeos no iPhone e iPad nas Mensagens, AirDrop, Cartões de Contato (no aplicativo Telefone ou Contatos) e mensagens de vídeo do FaceTime. Além disso, ele irá escanear “alguns aplicativos de terceiros” se a criança escolher uma foto ou vídeo para compartilhar com eles.
Os aplicativos suportados variam um pouco em outros dispositivos. No Mac, ele escaneia mensagens e alguns aplicativos de terceiros se os usuários escolherem conteúdo para compartilhar através deles. No Apple Watch, cobre Mensagens, Cartões de Contato e mensagens de vídeo do FaceTime. Finalmente, no Vision Pro, o recurso escaneia Mensagens, AirDrop e alguns aplicativos de terceiros (sob as mesmas condições mencionadas acima).
O recurso requer iOS 18, iPadOS 18, macOS Sequoia ou visionOS 2.
O The Guardian relata que a Apple planeja expandi-lo globalmente após o teste na Austrália. A empresa provavelmente escolheu o país Down Under por uma razão específica: o país está prestes a implementar novas regulamentações que exigem que as grandes empresas de tecnologia policiem conteúdos de abuso infantil e terrorismo. Como parte das novas regras, a Austrália concordou em adicionar a cláusula de que era apenas obrigatória “quando tecnicamente viável”, omitindo a exigência de quebrar a criptografia de ponta a ponta e comprometer a segurança. As empresas precisarão se adequar até o final do ano.
A privacidade e a segurança dos usuários estavam no centro da controvérsia sobre a infame tentativa da Apple de policiar CSAM. Em 2021, a empresa se preparou para adotar um sistema que escanearia imagens de abuso sexual online, que seriam então enviadas para revisores humanos. (Isso veio como um choque após a história da Apple de resistir ao FBI sobre suas tentativas de desbloquear um iPhone pertencente a um terrorista.) Especialistas em privacidade e segurança argumentaram que o recurso abriria uma porta dos fundos para regimes autoritários espionarem seus cidadãos em situações sem qualquer material exploratório. No ano seguinte, a Apple abandonou o recurso, levando (indiretamente) ao recurso de segurança infantil mais equilibrado anunciado hoje.
Uma vez que o recurso seja lançado globalmente, você pode ativá-lo em Ajustes > Tempo de Uso > Segurança na Comunicação, e alternar a opção para ativá-lo. Essa seção foi ativada por padrão desde o iOS 17.