concept-creator-letsgodigital-14165955606400

Apple analisará fotos do seu iPhone para detectar abuso infantil, diz especialista 

O problema são as implicações de privacidade trazidas pela (suposta) tecnologia
A eterna corda-bamba entre privacidade e segurança é motivo de embates desde que os seres humanos passaram a se organizar em sociedade, e com o advento dos meios digitais a questão passou a ser ainda mais profunda: em que ponto nós dividimos o direito à privacidade de cada um da capacidade de as forças competentes combaterem crimes?

Bom, ao que tudo indica, um novo capítulo desse cabo de guerra começará a ser escrito em breve pela Apple. Segundo Matthew Green, professor de criptografia na Universidade Johns Hopkins, a Maçã lançará em breve uma ferramenta que poderá escanear fotos nos iPhones dos usuáriospara detectar sinais de abuso e pornografia infantil.

As descobertas de Green foram confirmadas por múltiplas fontes e corroboradas pelo Financial Times. O sistema, chamado internamente de NeuralMatch, deverá entrar em ação inicialmente nos Estados Unidos e poderá acionar equipes de revisão humanas para verificar determinados conteúdos; por outro lado, especialistas apontam problemas na questão da privacidade e possíveis ameaças quanto ao mau uso desse sistema.

Entendamos a questão por partes, portanto. Primeiramente, quanto ao sistema em si: ele usa algoritmos de hashing para detectar os sinais de abuso infantil nas fotos. A Wikipédia traz uma explicação muito mais completa do que eu jamais poderia fornecer, mas basicamente o hashpermite identificar conteúdos semelhantes em diferentes arquivos por meio de pontos de interseção ou valores em comum.

No caso das imagens, que é o que a Apple pretende escanear, isso se traduz em “formas” bem rudimentares geradas pelo algoritmo. Se o sistema detecta hashes similares em determinados conteúdos, pode concluir que aquele conjunto de arquivos faz parte de um mesmo “grupo” — podendo, potencialmente, detectar usuários com posse de pornografia infantil.

O sistema desenvolvido pela Apple, segundo Green, funciona da seguinte forma: caso o NeuralMatch detecte muitos arquivos com hashesrelacionados a abuso infantil, uma equipe de revisão humana poderá entrar em ação e analisar os conteúdos. Caso algo ilegal seja de fato encontrado nas fotos, a equipe poderá acionar as autoridades.

Ainda que iniciativas para combater o abuso infantil sejam sempre louváveis, o sistema desenvolvido pela Apple tem uma série de problemas, segundo Green. O primeiro deles está no fato de que o algoritmo usado pelo NeuralMatch é proprietário e fechado — isto é, ninguém fora da Apple sabe como ele funciona, e portanto não há como fazer uma auditoria do seu funcionamento.

É bom lembrar, inclusive, que a Apple já utiliza técnicas parecidas para detectar sinais de abuso infantil, mas apenas em fotos armazenadas no iCloud — uma prática empregada também por basicamente todas as companhias que oferecem serviços de armazenamento em nuvem. Nesta nova fase, ainda não confirmada por Cupertino, a verificação seria feita localmente, nos próprios iPhones dos usuários — aí sim, uma coisa inédita na indústria tecnológica.

O segundo ponto de preocupação é imaginar o que poderia acontecer no caso de uma extrapolação desse sistema ou no seu uso por governos autoritários e agências de investigação não muito preocupadas com mandatos ou restrições. 

A Apple já se comprometeu a nunca usar o NeuralMatch em outros serviços, como o iMessage, mas nunca se sabe como será o dia de amanhã — em alguns casos, a empresa já cedeu anteriormente a pressões externas relacionadas à privacidade, como a não criptografia dos backups do iCloud, supostamente exigida pelo FBI, e o armazenamento dos dados de usuários chineses em servidores na própria China.

O fato é que, por ora, nada está oficializado. Segundo Green, a Apple já mostrou o sistema a uma série de acadêmicos nos EUA e deverá falar mais sobre ele (publicamente) nas próximas semanas, então ficaremos de olho sobre possíveis mais detalhes.

Share this post

Share on facebook
Share on linkedin
Share on pinterest
0
YOUR CART
  • No products in the cart.