Apple defende a digitalização de fotos do iPhone como um “avanço” na privacidade
A decisão da Apple de permitir que iPhones e outros dispositivos da marca digitalizem as fotos armazenadas no iCloud em busca de material de abuso sexual infantil (CSAM) gerou críticas de especialistas em segurança e defensores da privacidade — e de alguns funcionários da Apple.
Mas a Apple acredita que seu novo sistema é um avanço na privacidade que “possibilitará um mundo mais privado”, de acordo com Craig Federighi, vice-presidente sênior de engenharia de software da empresa.
Federighi defendeu o novo sistema em uma entrevista ao The Wall Street Journal, dizendo que a Apple pretende detectar fotos de abuso sexual infantil de uma forma que proteja a privacidade do usuário mais do que outros sistemas de digitalização mais invasivos. Segundo o jornal:
Embora os novos esforços da Apple tenham recebido elogios de alguns, a empresa também recebeu críticas. Um executivo do serviço de mensagens WhatsApp do Facebook Inc. e outros, incluindo Edward Snowden, classificou a abordagem da Apple como ruim para a privacidade. A preocupação geral é se a Apple pode usar software que identifica material ilegal sem que o sistema seja aproveitado por outros, como governos, pressionando por mais informações privadas – uma sugestão que a Apple nega veementemente e, segundo Federighi, estará protegida por múltiplos níveis de auditabilidade. “Nós, que nos consideramos líderes absolutos em privacidade, vemos o que estamos fazendo aqui como um avanço do estado da arte em privacidade, permitindo um mundo mais privado”.
Em um vídeo, Federighi disse:
O que estamos fazendo é encontrar imagens ilegais de pornografia infantil armazenadas no iCloud. Se você olhar para qualquer outro serviço em nuvem, eles atualmente estão digitalizando e analisando cada foto enviada à nuvem. Queríamos ser capazes de localizar essas fotos na nuvem sem olhar para as fotos das pessoas e criamos uma arquitetura para fazer isso. O sistema da Apple não é um “backdoor” que quebra a criptografia e é muito mais privado do que qualquer coisa que tenha sido feita nesta área antes. A Apple desenvolveu a arquitetura para identificar fotos da forma mais protegida de privacidade que podemos imaginar e da forma mais auditável e verificável possível.
O sistema dividiu funcionários. Muitos expressaram preocupação de que o recurso pudesse ser explorado por governos repressivos em busca de outras imagens para censura ou prisões de dissidentes políticos.
Federighi disse que os críticos entenderam mal o que a Apple está fazendo. “É bem claro que muitos pontos foram mal interpretados”, disse Federighi ao The Wall Street Journal. “Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos confiantes sobre o que estamos fazendo.”
O anúncio simultâneo de dois sistemas — um que verifica as fotos do CSAM e outro que verifica os anexos do Mensagens em busca de material sexualmente explícito — levou algumas pessoas nas redes sociais a dizer que estão “preocupadas em ter fotos de família de seus bebês no banho sendo sinalizado pela Apple como pornografia“, observou o Journal.
“Em retrospecto, apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão”, disse Federighi. “Ao liberá-los ao mesmo tempo, as pessoas ficaram assustadas com uma possível relação entre eles. O que está acontecendo com minhas mensagens? A resposta é… nada está acontecendo com suas mensagens.”
Esse monitoramento de imagens inicialmente será aplicado apenas nos Estados Unidos.