Apple escaneará iPhones estadunidenses en busca de pornografía infantil

Expertos en seguridad temen un mal uso de la herramienta
Foto: Ap

Apple dio a conocer planes para escanear iPhones estadunidenses en busca de imágenes de abuso sexual infantil, lo que provocó el aplauso de los grupos de protección infantil, pero generó preocupación entre algunos investigadores de seguridad de que el sistema podría ser mal utilizado, incluso por gobiernos que buscan vigilar a sus ciudadanos.

La herramienta diseñada para detectar imágenes conocidas de abuso sexual infantil, llamada neuralMatch, escaneará las imágenes antes de que se carguen en iCloud. Si encuentra una coincidencia, la imagen será revisada por un humano. Si se confirma la presencia de pornografía infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.

Por otra parte, Apple planea escanear los mensajes cifrados de los usuarios en busca de contenido sexualmente explícito como medida de seguridad infantil, lo que también alarmó a los defensores de la privacidad.

El sistema de detección sólo marcará las imágenes que ya están en la base de datos del centro de pornografía infantil conocida. Los padres que toman fotos inocentes de un niño en el baño presumiblemente no deben preocuparse. Pero los investigadores dicen que la herramienta de emparejamiento, que no "ve" tales imágenes, sólo "huellas digitales" matemáticas que las representan, podría utilizarse para propósitos más nefastos.

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para activar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las fuerzas del orden. "Los investigadores han podido hacer esto con bastante facilidad", dijo sobre la capacidad de engañar a tales sistemas.

Otros abusos podrían incluir la vigilancia gubernamental de disidentes o manifestantes. "¿Qué sucede cuando el gobierno chino dice: Aquí hay una lista de archivos que queremos que escanee", preguntó Green. “¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no".

Empresas tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo huellas digitales de imágenes conocidas de abuso sexual infantil. Apple los ha utilizado para escanear archivos de usuario almacenados en su servicio iCloud, que no está encriptado de forma tan segura como sus datos en el dispositivo, en busca de pornografía infantil.

Apple ha estado bajo presión del gobierno durante años para permitir una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad requirió que Apple realizara un delicado acto de equilibrio entre tomar medidas enérgicas contra la explotación de los niños y mantener su compromiso de alto perfil de proteger la privacidad de sus usuarios.

Pero una abatida Electronic Frontier Foundation, pionera de las libertades civiles en línea, calificó el compromiso de Apple sobre las protecciones de privacidad como "un cambio de opinión impactante para los usuarios que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad".

Mientras tanto, el informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por las fuerzas del orden para identificar la pornografía infantil en línea, reconoció el potencial de abuso del sistema de Apple, pero dijo que el imperativo de combatir el abuso sexual infantil lo superaba con creces.

“¿Es posible? Por supuesto. ¿Pero es algo que me preocupa? No”, dijo Hany Farid, investigador de la Universidad de California en Berkeley, quien argumenta que muchos otros programas diseñados para proteger dispositivos de varias amenazas no han visto “este tipo de misión lenta”. Por ejemplo, WhatsApp proporciona a los usuarios cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar malware y advertir a los usuarios que no hagan clic en enlaces dañinos.

Apple fue una de las primeras empresas importantes en adoptar el cifrado "de extremo a extremo", en el que los mensajes se codifican para que solo sus remitentes y destinatarios puedan leerlos. Sin embargo, las fuerzas del orden han presionado durante mucho tiempo a la empresa para que acceda a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.

Apple dijo que los últimos cambios se implementarán este año como parte de las actualizaciones de su software operativo para iPhones, Mac y Apple Watches.

"La protección ampliada de Apple para los niños cambia las reglas del juego", dijo John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado. "Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños".

Julia Cordua, directora ejecutiva de Thorn, dijo que la tecnología de Apple equilibra "la necesidad de privacidad con la seguridad digital para los niños". Thorn, una organización sin fines de lucro fundada por Demi Moore y Ashton Kutcher, utiliza tecnología para ayudar a proteger a los niños del abuso sexual identificando a las víctimas y trabajando con plataformas tecnológicas.

Pero en una dura crítica , el Centro para la Democracia y la Tecnología, una organización sin fines de lucro con sede en Washington, pidió a Apple que abandonara los cambios, que dijo que efectivamente destruyen la garantía de la compañía de "cifrado de extremo a extremo". El escaneo de mensajes en busca de contenido sexualmente explícito en teléfonos o computadoras rompe efectivamente la seguridad, dijo.

La organización también cuestionó la tecnología de Apple para diferenciar entre contenido peligroso y algo tan dócil como el arte o un meme. Dichas tecnologías son notoriamente propensas a errores, dijo CDT en un comunicado enviado por correo electrónico. Apple niega que los cambios equivalgan a una puerta trasera que degrade su cifrado. Dice que son innovaciones cuidadosamente consideradas que no perturban la privacidad del usuario, sino que la protegen fuertemente.

Por separado, Apple dijo que su aplicación de mensajería utilizará el aprendizaje automático en el dispositivo para identificar y difuminar fotos sexualmente explícitas en los teléfonos de los niños y también puede advertir a los padres de niños más pequeños a través de mensajes de texto. También dijo que su software “intervendría” cuando los usuarios intentaran buscar temas relacionados con el abuso sexual infantil.

Para recibir las advertencias sobre imágenes sexualmente explícitas en los dispositivos de sus hijos, los padres deberán inscribir el teléfono de sus hijos. Los niños mayores de 13 años pueden cancelar la inscripción, lo que significa que los padres de adolescentes no recibirán notificaciones.

Apple dijo que ninguna de las funciones comprometería la seguridad de las comunicaciones privadas ni notificaría a la policía.

Edición: Ana Ordaz 


Lo más reciente

Premios Platino 2024: ONU Turismo celebra en la Riviera Maya el foro Una relación de película

Este sábado se entregarán los galardones a lo mejor del cine iberoamericano en Xcaret

Ana Ramírez

Premios Platino 2024: ONU Turismo celebra en la Riviera Maya el foro Una relación de película

Invitan a formar parte de las escuelas deportivas en Playa del Carmen

Disciplinas van desde el taekwondo, hasta porristas y ajedrez para personas de seis a 20 años

La Jornada Maya

Invitan a formar parte de las escuelas deportivas en Playa del Carmen

Aprueba Cabildo de Solidaridad acuerdos sobre bienes del municipio y bienestar de mascotas

Ciudadano solicita municipalizar y pavimentar la avenida Sian Kaan

La Jornada Maya

Aprueba Cabildo de Solidaridad acuerdos sobre bienes del municipio y bienestar de mascotas

Solicitan reportar baches para mejorar las vialidades de Solidaridad

Ponen a disposición del público contacto telefónico

La Jornada Maya

Solicitan reportar baches para mejorar las vialidades de Solidaridad