Apple comenzará a escanear teléfonos en busca de abuso infantil.

Apple comenzará a escanear los teléfonos de las personas en busca de fotos y mensajes para verificar si hay abuso infantil.

Apple está lanzando nuevas funciones que permitirán a sus dispositivos escanear las fotos y los mensajes de las personas para verificar si hay signos de abuso infantil..

La compañía dice que la función se introducirá de una manera que mantenga esas comunicaciones ocultas a Apple y para garantizar que la privacidad de los usuarios esté protegida.

Pero se espera que la función genere preocupaciones por parte de los defensores de la privacidad, especialmente dado el compromiso público de Apple de que la privacidad es un derecho humano.

La compañía está introduciendo tres nuevas medidas, que incluyen mensajes, fotos y características adicionales que se agregarán a Siri. Las adiciones llegarán “a finales de este año”, dijo Apple, en actualizaciones que llegarán a todas sus plataformas: iOS 15, iPad OS 15, Watch OS 8 y MacOS Monterey.

Por el momento, las funciones se limitan a Estados Unidos.

La primera característica de las tres utilizará el aprendizaje automático en el dispositivo del teléfono para verificar el contenido de los mensajes de los niños en busca de fotos que parezcan ser sexualmente explícitas. Ese análisis se hará completamente en el teléfono, dijo Apple, y no podrá ver esos mensajes.

Si un niño recibe un mensaje de este tipo, se verá borroso y se le advertirá que podría ser sensible y se le dará información sobre dichos mensajes, además de que se le dará la opción de bloquear el contacto. Si un niño decide ver un mensaje, se le informará que sus padres serán alertados y luego se notificará a un adulto.

Existen protecciones similares cuando los niños envían mensajes, dijo Apple. Se advertirá a los niños antes de que se envíe la foto y los padres pueden configurar notificaciones cuando su hijo envía una foto que activa la función.

Pero es más probable que resulte controvertido una segunda función que busca en las fotos material de abuso sexual infantil o CSAM (Por sus siglas en inglés Child Sexual Abuse Material). La tecnología en iOS y iPad OS escaneará la biblioteca de fotos de iCloud de las personas en busca de dichos mensajes, pero de una manera que la compañía afirma que se hará "teniendo en cuenta la privacidad del usuario".

Una vez más, el escaneo no se realizará primero en la nube, sino en el propio dispositivo. El iPhone o iPad buscará las fotos en la biblioteca de un usuario y verá si alguna de ellas coincide con una base de datos de imágenes de abuso conocido proporcionada por organizaciones de seguridad infantil.

Si la similitud de esas imágenes es lo suficientemente alta, entonces la imagen se revelará a Apple, que luego podrá ver el contenido. Luego revisará manualmente las imágenes para confirmar que hay una coincidencia, y si la hay, la cuenta de los usuarios se deshabilitará y se informará a las autoridades.

Apple destacó que ambas funciones se realizan teniendo en cuenta la privacidad y subió cuatro evaluaciones técnicas realizadas por profesores para ilustrar su punto.

Pero la noticia ha demostrado ser increíblemente controvertida incluso antes de ser anunciada. El miércoles, el experto en criptografía Matthew Green reveló que Apple había estado trabajando en la función, y tanto él como varios expertos en seguridad y privacidad advirtieron que la función podría marcar una desviación del récord anterior de Apple.

El profesor Green, que trabaja en Johns Hopkins, dijo que si bien estas tecnologías de escaneo son mejores que las herramientas más tradicionales, siguen siendo "herramientas de vigilancia masiva". Señaló que cualquiera que controle la lista de posibles imágenes podría usarla para buscar cualquier imagen, no solo aquellas asociadas con el abuso infantil, y que no habría forma de saber si el sistema esta siendo abusado de esa manera.

"La teoría es que confiarás en que Apple solo incluirá imágenes realmente malas", escribió en un tweet. “Digamos, imágenes seleccionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

"Será mejor que confíes en ellos, porque la confianza es todo lo que tienes".

Alan Woodward, un experto en informática de la Universidad de Surrey, fue uno de los muchos que se hicieron eco de las preocupaciones del profesor Green. Dijo que podría ser un "arma de doble filo: el camino al infierno está pavimentado de buenas intenciones" y pidió más discusión pública antes de su lanzamiento.

El tercero es más sencillo y agrega nueva información a Siri y Search con el objetivo de brindar a los niños y padres recursos para lidiar con un posible abuso. Los usuarios pueden hacer preguntas específicas, como cómo denunciar un posible abuso, así como preguntas más generales, y recibirán información más detallada.

También te puede interesar: ¿Sabías que hay un temporizador de apagado oculto en el iPhone?