Apple y la pornografía infantil: en el centro del huracán

IMAGE: Gerd Altmann - Pixabay

Este artículo es difícil de escribir, y trata un tema extraordinariamente delicado: la pornografía infantil y los contenidos de abuso a menores. Pero sobre todo, trata la relación entre la desafortunada existencia de ese tipo de materiales aberrantes en la red, conocidos habitualmente como CSAM (Child Sexual Abuse Material) y la privacidad de los usuarios.

En agosto de 2021, Apple anunció por primera vez que se disponía a desplegar en sus iPhones y en su iCloud una herramienta de monitorización de imágenes sospechosas de contener CSAM. La razón, aparentemente, eran una serie de conversaciones internas en las que un directivo de iniciativas anti-fraude en Apple afirmaba que mientras el foco de atención en compañías Facebook y otras se centraba en la confianza y la seguridad (evitar cuentas falsas, etc.) pero en privacidad, eran un desastre; las prioridades de Apple eran exactamente las contrarias, y eso estaba haciendo que se convirtiesen en la mayor plataforma de distribución de pornografía infantil. Obviamente, esa aseveración era falsa: el directivo solo estaba haciendo una hipérbole que no reflejaba la realidad para reforzar así su punto, pero la noticia, aunque no fuese cierta y el CSAM tienda en realidad a acumularse en rincones mucho más oscuros de la red, trascendió así.

En abril de 2022, la compañía anunció una prestación que los padres podrían activar en dispositivos utilizados por niños, que escaneaba las imágenes que utilizaban en busca de CSAM, y en caso de resultar positivas, las difuminaba y alertaba para que no las enviasen a nadie y hablasen con un adulto. El procesamiento necesario de las imágenes estaba, además, hecho en el propio dispositivo. La compañía, sin embargo, ha ido retrasando la presentación de esa funcionalidad y de otras relacionadas como la inspección de materiales almacenados por los usuarios en iCloud hasta llegar a una cancelación que ha generado una fuerte controversia con algunas asociaciones de defensa de la infancia.

Ayer, la compañía envió una respuesta muy detallada a una de esas asociaciones en la que trata de explicar el delicado balance entre la seguridad de los niños y la privacidad de los usuarios en términos alejados del tremendismo y el absolutismo habitual, que suele tender invariablemente a afirmar que ante temas como el CSAM, el terrorismo o – incluso, increíblemente equiparado, las violaciones de los derechos de autor – ningún derecho individual debe jamás prevalecer.

La cuestión, de hecho, recuerda la controversia generada cuando Apple, en febrero de 2016, se negó a colaborar con el FBI facilitando el acceso al iPhone 5S de Syed Rizwan Farook, uno de los autores de la masacre de San Bernardino, con el FBI afirmando que la compañía priorizaba el marketing por delante de la lucha contra el terrorismo.

Cuando hablamos de cuestiones como el terrorismo o el CSAM, las medias tintas no funcionan, y cualquiera que pretenda afirmar que las hay es automáticamente condenado a la hoguera y acusado de favorecer esas actividades. La realidad es que son muchos los gobiernos que utilizan esos «jinetes del Apocalipsis» como forma de justificar medidas de control que pretenden saltarse todo tipo de derechos individuales, como ocurre con las comunicaciones cifradas de extremo a extremo o con la monitorización generalizada de la población.

¿Cuál es la posición de Apple? En primer lugar, la compañía afirma de manera categórica que «el material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él». Pero también dice que tras colaborar con investigadores de privacidad y seguridad, con grupos de derechos digitales y con defensores de la seguridad infantil, la empresa concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM en dispositivos o en la nube, ni siquiera uno específicamente construido para preservar la privacidad.

Para la compañía, «escanear los datos almacenados de forma privada en iCloud o en dispositivos por cada usuario crearía nuevos vectores de amenaza que los ladrones de datos podrían encontrar y explotar, y generaría una resbaladiza pendiente con posibles consecuencias no deseadas». La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva, y podría crear el incentivo para tratar de buscar otros tipos de contenidos en otros sistemas de mensajería cifrada. La conclusión es clara: es prácticamente imposible implementar un sistema de este tipo sin poner en peligro la seguridad y privacidad de los usuarios.

¿Quiere decir esto que la compañía es insensible ante el problema del abuso infantil – o, anteriormente, del terrorismo? Pesar así es maximalista y absurdo: lo que quiere decir es que la compañía cree que la lucha contra ese tipo de amenazas tiene que hacerse sin poner en peligro los derechos de los ciudadanos, y que no se puede justificar la violación de esos derechos en función de esas amenazas. Que existan porcentajes minúsculos de personas que incurren en ese tipo de actividades, por dañinas que sean, no puede justificar la violación de los derechos de toda la población. Y mucho menos, que la responsabilidad principal de detener esos abusos vaya a estar precisamente en quienes desarrollan herramientas generalistas de hardware o de software a través de las cuales se pueden hacer muchísimas cosas, y tan solo en muy pocos casos, transmitir también CSAM o mensajes relacionados con actividades de terrorismo.

Está, además, el peligro de los falsos positivos, de la foto que hago inocentemente a mi nieto para enviársela a su madre, de la recopilación que hago de materiales terroristas porque estoy escribiendo un artículo sobre ese tema, o de la casualidad de buscar una olla a presión, mientras mi hija se compra una mochila, y en otra ventana me apunto a la maratón de Boston. No, la vigilancia y monitorización de todos los ciudadanos a nivel de hardware y software no tiene ningún sentido, y pone en peligro muchísimas más cosas de las que pretende proteger. Y no se trata de intentar poner en una balanza las cosas y decir eso de «dios mío, quién protege a los niños», sino de respetar unos principios básicos en la forma en la que nos enfrentamos a los problemas. Las soluciones nunca son únicas, siempre hay otras posibilidades.

Ya hemos visto casos en los que gobiernos de distintos signos se dedicaban e «extender» el concepto de «crimen terrible que justifica la monitorización total» a cuestiones como, por ejemplo, las violaciones de los derechos de autor – una simple cuestión de dinero. En manos de muchos gobiernos, las extensiones de ese concepto serían de todo tipo, desde los «insultos al fundador de la patria» a las «blasfemias», pasando por «poner el peligro la paz social», «blasfemar», «conspirar contra el régimen» o «calumniar al líder», entre otras muchas y creativas posibilidades que todos podemos identificar con gobiernos de algunos países. Es exactamente eso: una pendiente muy inclinada y muy engrasada por la que no se puede dar un paso sin arriesgarse a resbalar.

Con esta opinión, sin embargo, Apple se pone en el ojo del huracán, y pasa automáticamente a ser criticada de manera maximalista por las asociaciones de protección de la infancia y por un montón de mentes supuestamente biempensantes dispuestas a justificar absolutamente todo, como de hecho ya ocurrió con la polémica anterior con el FBI.

El abuso infantil o el terrorismo son, por supuesto, crímenes nefandos contra los que hay que luchar. Pero perseguir a las minorías que los llevan a cabo no puede jamás justificar la violación sistemática de los derechos de la inmensa mayoría de los ciudadanos que no cometen esos crímenes. Estoy completamente de acuerdo con Apple en ese sentido: hay que buscar otras formas de perseguir esos crímenes que no conlleven poner a toda la sociedad bajo vigilancia sistemática. Aunque esto pueda suponer ponerse en el ojo del huracán y que te acusen de no hacer lo suficiente para proteger a los niños.


This article is also available in English on my Medium page, «Why Apple is right to resist pressure to install spyware on its devices»

14 comentarios

  • #001
    Xaquín - 3 septiembre 2023 - 11:56

    Parecerá una chorrada, pero el asunto está perfectamente explicado en el pasaje bíblico de Sodoma y Gomorra… y eso que el Yahvé no era precisamente suave. Pero hay dirigentes políticos y empresariales, que le superan con creces (en dureza y mala hostia).

    • Xaquín - 3 septiembre 2023 - 12:02

      Y, por cierto, la imagen también simboliza perfectamente el desbarre mental de la gente, que llama a la poli por verte acompañar a tu nieto en un paseo por el parque de la ciudad.

      En principio pensé que era una de esas trampas, que se le pone a una IA, para ver si también tiene sesgos de conspiranoica. Como la que mostraba el Wicho ayer, donde una IA confundía un perro con una persona. Que solo se podía confundir «a primera vista».

      • Javier Cuchí - 3 septiembre 2023 - 14:15

        Hace justamente hoy una semana, me dediqué a fotografiar a mi nieta (8 meses) mientras se bañaba en una piscina con sus padres. Las miradas de pelotón de ejecución que me echaba la gente, era para verlas.

        Otra desagradable anécdota al respecto (de muchísimas que podría contar con y sin niños) la tienes en mi blog: Relato de un incidente (aviso: redactado con mi crudeza habitual y mi ira particular).

        • Enrique Castro - 5 septiembre 2023 - 20:57

          Bonitas fotos Javier.
          Me han gustado especialmente la de los aviones.
          Enhorabuena.

  • #005
    Gorki - 3 septiembre 2023 - 12:58

    En abril de 2022, la compañía anunció una prestación que los padres podrían activar en dispositivos utilizados por niños, que escaneaba las imágenes que utilizaban en busca de CSAM, y en caso de resultar positivas, las difuminaba y alertaba para que no las enviasen a nadie y hablasen con un adulto.

    ¿Es una compañía privada que, como todas, tiene por objetivo ganar dinero, o son los padres, quienes tienen que velar el uso que sus hijos hacen de Internet?

    • Marcos - 3 septiembre 2023 - 13:34

      Estaría bien…, que el sistema parental de IOS funcionara mínimamente bien para que fuera “fifti fifti”.

  • #007
    JM - 3 septiembre 2023 - 13:10

    Al final las medidas contra la privacidad son en general bastante burdas y lo único que hacen es perjudicar a ese 99% de usuarios que no tiene el interés, la capacidad o la inquietud necesarias para saltárselas.

    Los «malos», por su propio bien, si que van a dedicar el tiempo o dinero necesarios para evitar todas esas medidas. Y los que no lo hagan, por pura aplicación de las tesis de Darwin, serán atrapados en breve. Los «malos» que tengan el interés o dinero necesarios seguirán operando durante mucho tiempo mientras los ciudadanos duermen tranquilos porque con esas burdas medidas se ha atrapado a cuatro «mataos».

    Y luego está la cuestión de quién vigila al vigilante.

    En EEUU ha habido infinidad de casos de agentes de las fuerzas del estado que han utilizado las herramientas de vigilancia para sus fines.

    En España ya se están usando herramientas de vigilancia sin autorización judicial debido a los escasos controles existentes. Y en cuanto a los jueces se da la «casualidad» de que todos los casos de corrupción que llegan a determinados jueces terminan sobreseídos.

    • Fran - 4 septiembre 2023 - 17:04

      No necesito respuesta.y mi inciso responde a una frase que está fuera del tema tratado. Y tampoco busco la polémica, leo asiduamente las disquisiciones que aquí se tratan y aprendo mucho.

      Pero no puedo evitar hacer notar algo que es recurrente y contradictorio en el pensamiento de Dans. Su defensa de la libertad corporativa (dixit: «…empresa, empresa, empresa!!») y al tiempo, su defensa de la libertad en todos los ámbitos del software libre/abierto/ etc y la comunicación. Porque el término «libertad» es lo único que comparten ambos temas.
      Hoy, nos ofrece un buen ejemplo al sorprenderse cuando se equipara el «terrorismo, o los delitos sexuales» a la violación de ©, que supongo refiere a bajarse contenidos tipo un mp3, torrents para bajar películas, etc.
      Yo estoy de acuerdo en eso con él, no puede ser de otra manera. Es una completa aberración por muchos motivos.
      Otra cosa es, porqué existe tal equiparación, y es fácil…Empresa empresa empresa!,…es negocio de licencias y patentes extendidas. De negocio virtual a coste cero. Según la libertad de empresa, porqué no se debe perseguir tal y como lo es un asesinato?
      Locke defendía la horca para aquellos desarrapados que atentaran contra el arbusto propiedad de un noble.
      No se puede pretender ser liberal en unas cosas y «social» en otras a conveniencia, estar en todas las partes y en ninguna. .

  • #009
    Asier - 3 septiembre 2023 - 14:36

    Totalmente de acuerdo, Enrique. El argumento de la vigilancia para prevenir ciertos males no tiene límite, terminaría justificando la monitorización de toda actividad imaginable saltándose todo derecho a la privacidad.

    Desde que existe Internet y la criptografía siempre ha sido posible intercambiar y compartir contenidos ilícitos, no nos engañemos. Y quien realmente tiene interés lo está utilizando sin que podamos evitarlo, es la otra cara de la moneda de estas tecnologías y está bien que así sea en el sentido de que es indicativo de las libertades que garantiza. Lo que sí hay que hacer es investigar con todas las herramientas disponibles los casos de sospecha de actividad ilegal o denuncias, pero no monitorizarlo todo robándonos la privacidad a todos con la excusa de pillar a unos pocos (que tampoco).

    Las grandes plataformas de contenidos lo único que han hecho es ‘democratizar’ ese posible uso malicioso de compartir contenidos ilícitos, ofreciendo interfaces amigables que no requieren conocimientos avanzados de informática pero la posibilidad técnica de hacerlo siempre ha estado ahí y siempre se ha utilizado.

  • #010
    Gorki - 3 septiembre 2023 - 15:02

    Soy de la opinión que si las compañías no se dedicaran con sus algoritmos, a «aconsejar» lo que tienes que ver, sino que solamente se ofertara como un medio de comunicación o un servicio a sus clientes, no se meterían en estos berenjenales de tener que censurar lo que sus clientes hacen.

    Nadie pide que Movistar controle el bulling que se hace por teléfono, ni tan siquiera los chantajes telefónicos. porque Moviestar solo pone un canal a tu disposición para que lo uses como te apetezca. Por supuesto que el fax transporta imagenes y estas pueden ser P pornografía infantil, pero nadie pide a Moviestar que «censure» lo que circula por sus redes, pues ellos solo ponen las redes al servicio de sus clientes,

    Tampoco nadie pide a las compañías electricas que vigilen el uso que sus clientes hacen de la electricidad, pese que alimenten los aparatos con los que se hace la pornografía infantil, porque ellos solo ofrecen un servicio a los clientes para que ellos lo utilicen como quieran,

    Nadie pide a las compañías de automóviles que bloqueen los vehículos si sus usuarios hacen con ellos cosas inconvenientes, como conducir borrachos, porque las empresas ponen a disposición de sus cliente los coches como ellos consideren mas conveniente.

    Entonces ¿Por qué se pide a empresas como Meta, antes Facebook, X antes Twitter, Apple ,… que hagan de censores de Internet?., Por que ellas con sus «algoritmos» hacen que recibas contenidos que no buscabas, y difunden unos contenidos mas que otros, por tanto son ellas las «culpables» de la distribución de contenido inconvenientes.

    Dejen de «amplificar» y direccionar los contenidos, limítense a ser solo un espacio donde los usuarios hablan de lo que quieren entre ellos, sin que con sus «algoritmos» amplifiquen unos contenidos y atenúen otros y dejarán de solicitarles que hagan un trabajo tan delicado y problemático como es «censurar» el contenido de sus clientes.

    • c3po - 3 septiembre 2023 - 15:12

      Toda la razón. El monopolio de la previsión y la aplicación de la ley, la tiene la policia y la adjudicatura. Y ya. Nadie más.

  • #012
    c3po - 3 septiembre 2023 - 15:09

    Si hay sospechas policiales de que alguien está cometiendo ese delito, y hay indicios, pues al móvil sospechoso un juez da permiso y se mira. Pero no Apple, ya está bien con el capitalismo de vigilancia, su moral, y su santa madre.

    ¿Que están/estáis en contra cuatro notas?
    Pues mucho que me importa.

    PS: Tu vete a USA y que te pida el de aduanas el móvil, y no se lo desbloquees… Ay que joderse con la doble moral

    • David - 4 septiembre 2023 - 10:11

      «Si hay sospechas policiales de que alguien está cometiendo ese delito, y hay indicios, pues al móvil sospechoso un juez da permiso y se mira.»

      Precisamente la polémica con Apple vino por eso, ¿no? Porque Apple no permitió que miraran el móvil del autor de la masacre de San Bernardino.

  • #014
    Michel Henric-Coll - 4 septiembre 2023 - 10:56

    EDans: «Es exactamente eso: una pendiente muy inclinada y muy engrasada por la que no se puede dar un paso sin arriesgarse a resbalar.»

    El camino justificado (sic) hacia la «Policía del Pensamiento» de George Orwell.

    Algo muy seductor para muchos «gobernantes» y su argumento de que «si no tienes nada que esconder, ¿por qué te molesta que te vigile?».

Dejar un Comentario

Los comentarios están cerrados