Android vai checar fotos locais em busca de conteúdo sensível

Usuários de dispositivos Android que rodam versões 9 e posteriores estão, desde outubro de 2024, sujeitos a uma nova ferramenta de segurança, instalada e ativa sem aviso, criada para “proteger os usuários” quanto ao uso e recebimento de conteúdos sensíveis.

  • Android: Google dificulta (de novo) sideloading de apps
  • Usuários trocam Android por iPhone mais que o contrário

Na prática, ele é capaz de identificar imagens que o Google considera inadequadas, como fotos com nudez, antes que sejam visualizadas ou enviadas a outros; embora restrito a funcionamento local, casos passados envolvendo o Google Fotos deixaram muita gente com o pé atrás, principalmente pelo serviço ser ativo por padrão e não ser tão simples de desativar.

SafetyCore é instalado e ativado silenciosamente no Android, e se desinstalado, é reinserido em atualizações de segurança (Crédito: Ronaldo Gogoni/Meio Bit)

SafetyCore é instalado e ativado silenciosamente no Android, e se desinstalado, é reinserido em atualizações de segurança (Crédito: Ronaldo Gogoni/Meio Bit)

Android não manda nudes para a nuvem, mas…

O Android System SafetyCore foi introduzido como uma solução de privacidade local, sem muitos detalhes; ele é instalado como um app normal, mas de forma automática e não gera um acesso direto, ou seja, é “invisível”. Como parte do código do sistema operacional, ele roda em segundo plano e é ativado por padrão.

Sua função foi descrita posteriormente na lista de funcionalidades de segurança do Google Mensagens, como um recurso que implementa um sistema chamado “Alerta para Conteúdo Sensível”, que preemptivamente borra conteúdos que o Android considere questionáveis, especialmente fotos com nudez. Ele então oferece uma série de opções, como ignorar/bloquear o conteúdo, ou visualizá-lo. Ele é ativo de forma opcional em contas de adultos, e obrigatoriamente em smartphones e talbets usados por de menores de idade.

Com o SafetyCore ativo, ele emite uma mensagem de alerta sempre que uma imagem (provavelmente se aplica a vídeos também) que ele considera sensível estiver prestes a ser recebida ou enviada, e exibe avisos sobre os riscos de compartilhamento indesejado ou acidental (e por extensão, não solicitado) de certos materiais.

Na documentação, o Google garante que o SafetyCore só funciona localmente, não coleta nenhum tipo de informação e sobe para a nuvem, incluindo aí seus serviços próprios de armazenamento, como Google Fotos e Google Drive, e a companhia em si não sabe que fotos ou vídeos são armazenados em seu smartphone.

Porém, a gigante recentemente confirmou que a ferramenta faz mais do que o originalmente enunciado: ela faz uso de aprendizado de máquina e é capaz de “detectar, localizar, e filtrar” conteúdos sensíveis, mas de novo, só opera localmente.

O problema acerca do SafetyCore não é seu funcionamento, e sim que o Google está implementando ferramentas sensíveis no Android sem alertar os usuários. Segundo o time do GrapheneOS, uma distro AOSP voltada à privacidade e segurança, ele não possui recursos client-side, ferramentas que reportem conteúdos sensíveis localizados à gigante das buscas.

Esta poderia, dependendo do conteúdo identificado, responder de maneiras severas, como encerrar a conta Google e alertar as autoridades; as garantias da companhia de que o SafetyCore não é capaz disso não inspiram muita confiança, pois situações parecidas aconteceram no passado, envolvendo o Google Fotos.

Bad Droid ataca de novo? (Crédito: Reprodução/acervo internet)

Bad Droid ataca de novo? (Crédito: Reprodução/acervo internet)

Em duas ocorrências similares, pais tiveram suas vidas digitais severamente prejudicadas, após enviarem fotos de seus filhos a médicos para aconselhamento e diagnóstico, que foram armazenadas na nuvem e marcadas pelo Google como CSAM (material de abuso sexual infantil, na sigla em inglês). Como consequências, ambos tiveram seus perfis bloqueados.

Nos dois casos, o Google ainda alertou a polícia, levando a investigações criminais, e mesmo com os casos esclarecidos, a gigante não retrocedeu e apagou ambas as contas, e tudo relacionado a elas, como e-mails, contatos, fotos, vídeos, mensagens, etc. Processos contra a empresa não revertiam a situação, pois Mountain View se reserva no direito de administrar seus serviços como achar melhor.

Voltando ao SafetyCore, por mais que o Google jure de pés juntos que ele só funciona localmente, bastaria uma atualização para modificar seu funcionamento e criar situações similares às que envolveram o Google Fotos, e a ferramenta talvez não possa ser completamente desligada, embora a empresa diga que “o controle fica nas mãos do usuário”.

Você pode encontrar o Android System SafetyCore na lista de aplicativos e desinstalá-lo, como qualquer outro app, mas segundo o site ZDNet, ele é reinstalado automaticamente durante atualizações de segurança, ou pelo Google Play Services, que o consideraria um serviço essencial.

Em tese, você pode remover todas as suas permissões, mas mesmo isso poderia ser sobrescrito pelo Android posteriormente (no meu caso particular, em dois aparelhos diferentes, ele sequer possui permissões ativas, o que não diz muita coisa).

Vale lembrar que a Apple implementou um recurso similar no iPhone, chamado Segurança da Comunicação, que pode ser completamente desligado através dos Ajustes, uma aproximação mais direta e simples da que o Google optou com o SafetyCore.

Fonte: ZDNet

Android vai checar fotos locais em busca de conteúdo sensível

Adicionar aos favoritos o Link permanente.