Especialistas em privacidade e segurança dizem que a solução poderia ser usada para buscar conteúdos genéricos e para governos perseguirem opositores. Empresa diz que não aceitará pedidos de autoridades para rastrear outros conteúdos. Logo da Apple
REUTERS/Lucy Nicholson
Mais de 90 grupos ativistas pelo mundo publicaram uma carta aberta na última quinta-feira (19) pedindo que a Apple abandone seus planos de escanear mensagens de crianças em busca de nudez e os telefones de adultos por imagens de pedofilia.
"Embora esses recursos tenham a intenção de proteger crianças e reduzir a disseminação de material pedófilo, estamos preocupados que eles sejam usados para censurar discurso protegido, ameaçar a privacidade e a segurança de pessoas do mundo inteiro, e ter consequências desastrosas para muitas crianças", escreveram os grupos na carta.
LEIA MAIS: Apple adota sistema que analisa imagens suspeitas antes de serem enviadas ao iCloud
Entenda a polêmica
A Apple anunciou dois recursos distintos:
Leitura por meio de uma inteligência artificial das mensagens recebidas pelo iMessage de menores de idade para identificar há nudez em imagens. O recurso precisa ser habilitado pelos pais e caso a companhia detecte imagens consideradas sensíveis, a foto ficará borrada. Se o aparelho for usado por menores de 12 anos, os pais serão notificados caso o menor visualize a mensagem.
Detecção de material de abuso sexual infantil (ou CSAM, na sigla em inglês) no iCloud. A Apple diz que irá consultar banco de dados de autoridades que contenham imagens de abusos de menores e irá cruzar essas informações em uma varredura nas fotos armazenadas na nuvem do iCloud. A companhia afirma que não irá utilizar esse sistema para nenhum outro fim, mesmo que autoridades de países solicitem.
A adoção do sistema pela Apple foi alvo de críticas de alguns especialistas em privacidade e segurança. Eles afirmaram que a solução também poderá ser usada para buscar conteúdos genéricos e para governos perseguirem opositores.
Alguns signatários de outros países estão preocupados com o impacto das mudanças em nações com sistemas legais diferentes, incluindo alguns que já são palco de discussões acaloradas sobre criptografia e privacidade.
"É decepcionante e perturbador que a Apple esteja fazendo isso porque eles foram aliados ferrenhos na defesa da criptografia no passado", disse Sharon Bradford Franklin, co-diretora do Projeto de Segurança e Vigilância do Centro, à agência de notícias Reuters.
Um porta-voz da Apple afirmou que a empresa abordou questões de privacidade e segurança em um documento, delineando porque a arquitetura complexa do software de escaneamento deveria resistir às tentativas de subvertê-lo.
Os signatários incluem vários grupos no Brasil, onde os tribunais bloquearam múltiplas vezes o WhatsApp, do Facebook, por não descriptografar mensagens em investigações criminais.
O Congresso discute a possibilidade de que mensagens sejam rastreáveis no projeto de lei apelidado de "PL das fake news", o que exigiria uma maneira de marcar o conteúdo. Uma lei similar passou na Índia este ano.
"Nossa principal preocupação é a consequência desse mecanismo, como ele pode ser estendido a outras situações e outras empresas", afirmou Flávio Wagner, presidente do braço independente do Brasil da Internet Society, um dos grupos signatários, que também incluem índia, México, Alemanha, Argentina, Gana e Tanzânia.
Embora a maioria das objeções seja em relação ao mecanismo de escaneamento, a carta também aponta uma falha na mudança às contas do iMessage, que tentaria identificar e borrar a nudez em mensagens de crianças, permitindo que elas vissem apenas se os pais fossem notificados.
Surpresa pela reação negativa após o anúncio duas semanas atrás, a Apple ofereceu uma série de explicações e documentos para argumentar que o risco de falsas detecções é baixo.
Os signatários afirmam que isso pode colocar em risco crianças que vivem em casas intolerantes ou que estão procurando material educacional. Mais amplamente, dizem que a mudança quebraria a criptografia do iMessage, que a Apple defendeu com firmeza no passado.
"Se essa porta for construída, governos podem obrigar a Apple a estender a notificação para outras contas e detectar imagens que são questionáveis por outros motivos, não por serem sexualmente explícitas", diz a carta.