Una coalición mundial de entidades progresistas exige a Apple abandonar las medidas contra el abuso sexual infantil
Laura Enrione.- Una coalición mundial de más de 90 organizaciones políticas y de derechos civiles está presionando a Apple para que abandone sus planes de controlar las imágenes de los consumidores como medida para contrarrestar el material de abuso infantil.
El gigante tecnológico anunció a principios de este mes que añadiría una función al iPhone que escanearía las fotografías en busca de material conocido de abuso sexual infantil o CSAM (Virtual Child Sexual Abuse Material, traducido al español significa material virtual de abuso sexual infantil), cuando se subieran a sus servidores.
Pero el sistema se enfrentó rápidamente a las reacciones de los expertos, que alegaron que la herramienta se utilizaría para otros fines en las manos equivocadas.
Estas preocupaciones se repiten en una carta abierta de los grupos, presentada el jueves 19 de agosto, al consejero delegado de Apple, Tim Cook.
“Aunque estas capacidades están destinadas a proteger a los niños y a reducir la difusión de material de abuso sexual infantil”, se lee, “nos preocupa que se utilicen para censurar la expresión protegida, amenazar la privacidad y la seguridad de las personas en todo el mundo, y tener consecuencias desastrosas para muchos niños”.
El software utilizará la inteligencia artificial para detectar cuándo los jóvenes intercambian fotografías con desnudos e informar a sus padres. Incluiría otra función que intervendría cuando un usuario intente utilizar Siri o la Búsqueda para buscar términos relacionados con el CSAM.
Sin embargo, los grupos recordaron a Apple que los algoritmos disponibles en la actualidad para el material sexual siguen siendo en gran medida imperfectos, y también observaron que la función de alerta a los padres no podía garantizar si los usuarios eran realmente padres y estaban relacionados con los niños.
Según los firmantes, la medida podría poner en peligro a los niños de hogares intolerantes o a los que buscan material informativo. También afirmaron que el cambio interrumpiría el cifrado de extremo a extremo de iMessage, que Apple ya defendió con firmeza en otras ocasiones.
“Un adulto abusivo podría ser el organizador de la cuenta, y las consecuencias de la notificación a los padres podrían amenazar la seguridad y el bienestar del niño”, alegaron.
Apple dijo que las fotos de los usuarios actualizadas en iCloud serían escaneadas. Si se detecta algún material preocupante, la empresa lo comunicará a las fuerzas del orden, de forma que, según dice, se preservará la privacidad del usuario.
Pero los grupos argumentaron que no solo los usuarios se arriesgarán a que se vigile su base de datos personal, sino que además el sistema sería el alimento perfecto para los gobiernos autoritarios que querrían utilizar el software de Apple para otra cosa en lugar de proteger a los niños.
“La compañía y sus competidores se enfrentarán a una enorme presión -y potencialmente a exigencias legales- de gobiernos de todo el mundo para que escaneen las fotos no sólo en busca de CSAM, sino también de otras imágenes que un gobierno considere objetables”, escribieron.
“Esas imágenes pueden ser de abusos de los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como contenido “terrorista” o extremista violento, o incluso imágenes poco favorecedoras de los propios políticos que presionarán a la empresa para que las escanee”, añadió el grupo. “… Apple habrá sentado las bases para la censura, la vigilancia y la persecución a nivel mundial”.
Las funciones de protección de menores de Apple también han suscitado controversia dentro de la propia empresa, y no solo en los grupos de política tecnológica, según informó Reuters la semana pasada.
El medio dijo que más de 800 mensajes de empleados internos habían inundado un canal interno de Slack de Apple solo sobre la característica. Muchos de ellos se referían a la preocupación por la privacidad y el mal manejo del sistema por parte del gobierno.
“…El software utilizará la inteligencia artificial para detectar cuándo los jóvenes intercambian fotografías con desnudos e informar a sus padres…” –> esto es una pesadilla para los ejercitos de “progres” que se dedican a corromper a los menores a traves de internet, es normal que protesten en manadas.