La tentación de estos días consiste en celebrar las sentencias contra Meta y YouTube como si fuesen el principio de una reforma. Como si bastase con poner unas multitas, limar unas cuantas funciones, poner un par de advertencias, suavizar el scroll infinito, moderar mejor las recomendaciones y confiar en que, con un poco de presión judicial, esas plataformas puedan convertirse en algo razonable.
Pero esa lectura parte de un error fundamental: no estamos ante herramientas sanas que se hayan «desviado» y haya que «corregir», sino ante productos concebidos desde el principio para capturar atención, prolongar permanencia, extraer datos y convertir todo ello en dinero mediante publicidad hipersegmentada. Cuando un jurado concluye, como ha ocurrido en Los Angeles, que Instagram y YouTube fueron diseñadas para «enganchar» a menores y que esa negligencia fue un factor sustancial en el daño sufrido por una usuaria, lo que queda en evidencia no es un fallo corregible, sino la lógica íntima del sistema.
El caso de Nuevo México refuerza todavía más esa idea. Allí no se discutió simplemente una mala moderación o un accidente desafortunado, sino la combinación de prácticas engañosas, medidas de seguridad deliberadamente insuficientes y una cultura empresarial dispuesta a seguir adelante aunque el coste social fuese conocido y evidente. El propio Departamento de Justicia de Nuevo México presentó la victoria como la primera vez que un estado logra imponerse en juicio a una gran tecnológica por poner en peligro a menores y engañar a los usuarios sobre la seguridad de sus plataformas. La cifra de la sanción importa, por supuesto, pero importa más la constatación de que el problema no es periférico: está en el centro del modelo.
Por eso me parece profundamente ingenuo hablar de «reconducir» a estas compañías. No se reconduce lo que depende estructuralmente de una patología estructural. La recomendación de las autoridades sanitarias de los Estados Unidos es cristalina al señalar que no puede concluirse que las redes sociales sean suficientemente seguras para niños y adolescentes, y recuerda además que pasar más de tres horas diarias en ellas duplica el riesgo de problemas de salud mental. La APA ha advertido también que funciones como el contenido recomendado, los límites temporales inexistentes o el endless scrolling no son neutras y no deberían tratarse igual cuando afectan a menores. Cuando las principales autoridades sanitarias y psicológicas llevan tiempo diciendo que el entorno es inseguro, seguir defendiendo que estamos ante simples «excesos» corregibles roza la negación. Tratarlo como un problema exclusivo de los menores es otra barbaridad: toda la sociedad, menores o mayores, está afectada de este problema, y sus efectos van desde los problemas psicológicos a la manipulación electoral o social profunda.
A estas alturas, además, nadie puede fingir que desconoce cómo funciona la máquina. La FTC
describió en 2024 un ecosistema en el que las grandes plataformas de redes sociales y vídeo recolectan cantidades enormes de datos personales y los monetizan por miles de millones de dólares al año, con controles laxos de privacidad e insuficientes salvaguardas para niños y adolescentes. Es decir: la materia prima del negocio no es la comunicación, ni la comunidad, ni la creatividad. Es la vigilancia comercial. Y en un sistema de vigilancia comercial, todo incentivo apunta en la misma dirección: más fricción eliminada, más estímulos, más personalización, más tiempo de uso, más dependencia, más datos, más precisión publicitaria. Pretender que de esa arquitectura emerja espontáneamente una esfera pública saludable es como esperar lecciones de civismo de un casino diseñado por expertos en adicción.
Algunos juristas y comentaristas insisten en que este giro es peligroso porque erosiona la Section 230, una ya tristemente famosa pieza histórica de la arquitectura de internet. Entiendo el argumento, y Mike Masnick en Techdirt lo formula con claridad: si se diluye la frontera entre contenido y diseño, el riesgo es abrir la puerta a responsabilidades expansivas que dañen a servicios mucho más pequeños o incentiven decisiones indeseables, como renunciar al cifrado. El problema es que ese razonamiento parte de una abstracción jurídica que hoy ya no describe la realidad económica del sector. No estamos hablando de foros modestos, de servicios comunitarios o de herramientas neutras de publicación, sino de conglomerados descomunales, de las mayores empresas del mundo, que han industrializado la manipulación conductual sobre la base de perfiles masivos, optimización algorítmica y explotación comercial de vulnerabilidades cognitivas. Defender sin matices la protección pensada para un internet radicalmente distinto y aplicarla a este modelo de dañina depredación publicitaria no es defender internet: es blindar su degradación.
Eso no significa que todo deba valer, ni que cualquier doctrina de responsabilidad sea automáticamente buena. El ejemplo del cifrado de extremo a extremo es revelador. En la práctica, la presión regulatoria y judicial ya ha contribuido a que Meta retire el cifrado en los mensajes directos de Instagram, bajo el absurdo e infantil argumento de que «muy poca gente lo usaba«. Ese desenlace es inquietante porque muestra que, cuando se legisla o se litiga mal, una empresa puede sacrificar privacidad sin tocar el corazón de su modelo. Pero precisamente ahí está la lección importante: si el castigo acaba suprimiendo protecciones útiles mientras se preserva intacta la maquinaria de extracción de atención y datos, entonces no estamos reformando nada. Estamos desplazando el daño. El objetivo no puede ser dejarles seguir siendo adictivos con menos privacidad o con una cosmética de seguridad más agresiva. El objetivo tiene que ser otro: desmontar el modelo que hace rentable esa adicción.
La cuestión, por tanto, no es cómo hacer «un poco menos tóxicas» a Meta, YouTube, TikTok y compañía. La cuestión es si estamos por fin dispuestos a admitir que el problema reside en la propia idea de financiar la mediación social a través de publicidad hipersegmentada basada en vigilancia. Mientras ese sea el motor, cada innovación irá dirigida a conocer mejor al usuario, a retenerlo más tiempo, a intensificar su respuesta emocional y a convertir su comportamiento en inventario comercial. No hay parche que corrija eso. No hay rediseño amable que convierta en benigno un sistema nacido para explotar compulsiones.
Y no, no deberíamos sentirnos obligados a salvar a empresas construidas sobre una lógica tan enferma sólo porque, en otra época, la Section 230 ayudó a proteger un internet mucho más abierto y plural. Lo que toca ahora es otra cosa: enviar la publicidad ultra-personalizada al basurero de la historia, exigir responsabilidades y trocear el poder de quienes vivieron de ella. A partir de ahí, empezar a reconstruir espacios digitales que no necesiten hacer enfermar a sus usuarios o poner en peligro a toda la sociedad para ser rentables.


«Section» en inglés es lo que en español llamamos «artículo» de una ley o reglamento. Sería «artículo 230»