La tentación de estos días consiste en celebrar las sentencias contra Meta y YouTube como si fuesen el principio de una reforma. Como si bastase con poner unas multitas, limar unas cuantas funciones, poner un par de advertencias, suavizar el scroll infinito, moderar mejor las recomendaciones y confiar en que, con un poco de presión judicial, esas plataformas puedan convertirse en algo razonable.
Pero esa lectura parte de un error fundamental: no estamos ante herramientas sanas que se hayan «desviado» y haya que «corregir», sino ante productos concebidos desde el principio para capturar atención, prolongar permanencia, extraer datos y convertir todo ello en dinero mediante publicidad hipersegmentada. Cuando un jurado concluye, como ha ocurrido en Los Angeles, que Instagram y YouTube fueron diseñadas para «enganchar» a menores y que esa negligencia fue un factor sustancial en el daño sufrido por una usuaria, lo que queda en evidencia no es un fallo corregible, sino la lógica íntima del sistema.
El caso de Nuevo México refuerza todavía más esa idea. Allí no se discutió simplemente una mala moderación o un accidente desafortunado, sino la combinación de prácticas engañosas, medidas de seguridad deliberadamente insuficientes y una cultura empresarial dispuesta a seguir adelante aunque el coste social fuese conocido y evidente. El propio Departamento de Justicia de Nuevo México presentó la victoria como la primera vez que un estado logra imponerse en juicio a una gran tecnológica por poner en peligro a menores y engañar a los usuarios sobre la seguridad de sus plataformas. La cifra de la sanción importa, por supuesto, pero importa más la constatación de que el problema no es periférico: está en el centro del modelo.
Por eso me parece profundamente ingenuo hablar de «reconducir» a estas compañías. No se reconduce lo que depende estructuralmente de una patología estructural. La recomendación de las autoridades sanitarias de los Estados Unidos es cristalina al señalar que no puede concluirse que las redes sociales sean suficientemente seguras para niños y adolescentes, y recuerda además que pasar más de tres horas diarias en ellas duplica el riesgo de problemas de salud mental. La APA ha advertido también que funciones como el contenido recomendado, los límites temporales inexistentes o el endless scrolling no son neutras y no deberían tratarse igual cuando afectan a menores. Cuando las principales autoridades sanitarias y psicológicas llevan tiempo diciendo que el entorno es inseguro, seguir defendiendo que estamos ante simples «excesos» corregibles roza la negación. Tratarlo como un problema exclusivo de los menores es otra barbaridad: toda la sociedad, menores o mayores, está afectada de este problema, y sus efectos van desde los problemas psicológicos a la manipulación electoral o social profunda.
A estas alturas, además, nadie puede fingir que desconoce cómo funciona la máquina. La FTC
describió en 2024 un ecosistema en el que las grandes plataformas de redes sociales y vídeo recolectan cantidades enormes de datos personales y los monetizan por miles de millones de dólares al año, con controles laxos de privacidad e insuficientes salvaguardas para niños y adolescentes. Es decir: la materia prima del negocio no es la comunicación, ni la comunidad, ni la creatividad. Es la vigilancia comercial. Y en un sistema de vigilancia comercial, todo incentivo apunta en la misma dirección: más fricción eliminada, más estímulos, más personalización, más tiempo de uso, más dependencia, más datos, más precisión publicitaria. Pretender que de esa arquitectura emerja espontáneamente una esfera pública saludable es como esperar lecciones de civismo de un casino diseñado por expertos en adicción.
Algunos juristas y comentaristas insisten en que este giro es peligroso porque erosiona la Section 230, una ya tristemente famosa pieza histórica de la arquitectura de internet. Entiendo el argumento, y Mike Masnick en Techdirt lo formula con claridad: si se diluye la frontera entre contenido y diseño, el riesgo es abrir la puerta a responsabilidades expansivas que dañen a servicios mucho más pequeños o incentiven decisiones indeseables, como renunciar al cifrado. El problema es que ese razonamiento parte de una abstracción jurídica que hoy ya no describe la realidad económica del sector. No estamos hablando de foros modestos, de servicios comunitarios o de herramientas neutras de publicación, sino de conglomerados descomunales, de las mayores empresas del mundo, que han industrializado la manipulación conductual sobre la base de perfiles masivos, optimización algorítmica y explotación comercial de vulnerabilidades cognitivas. Defender sin matices la protección pensada para un internet radicalmente distinto y aplicarla a este modelo de dañina depredación publicitaria no es defender internet: es blindar su degradación.
Eso no significa que todo deba valer, ni que cualquier doctrina de responsabilidad sea automáticamente buena. El ejemplo del cifrado de extremo a extremo es revelador. En la práctica, la presión regulatoria y judicial ya ha contribuido a que Meta retire el cifrado en los mensajes directos de Instagram, bajo el absurdo e infantil argumento de que «muy poca gente lo usaba«. Ese desenlace es inquietante porque muestra que, cuando se legisla o se litiga mal, una empresa puede sacrificar privacidad sin tocar el corazón de su modelo. Pero precisamente ahí está la lección importante: si el castigo acaba suprimiendo protecciones útiles mientras se preserva intacta la maquinaria de extracción de atención y datos, entonces no estamos reformando nada. Estamos desplazando el daño. El objetivo no puede ser dejarles seguir siendo adictivos con menos privacidad o con una cosmética de seguridad más agresiva. El objetivo tiene que ser otro: desmontar el modelo que hace rentable esa adicción.
La cuestión, por tanto, no es cómo hacer «un poco menos tóxicas» a Meta, YouTube, TikTok y compañía. La cuestión es si estamos por fin dispuestos a admitir que el problema reside en la propia idea de financiar la mediación social a través de publicidad hipersegmentada basada en vigilancia. Mientras ese sea el motor, cada innovación irá dirigida a conocer mejor al usuario, a retenerlo más tiempo, a intensificar su respuesta emocional y a convertir su comportamiento en inventario comercial. No hay parche que corrija eso. No hay rediseño amable que convierta en benigno un sistema nacido para explotar compulsiones.
Y no, no deberíamos sentirnos obligados a salvar a empresas construidas sobre una lógica tan enferma sólo porque, en otra época, la Section 230 ayudó a proteger un internet mucho más abierto y plural. Lo que toca ahora es otra cosa: enviar la publicidad ultra-personalizada al basurero de la historia, exigir responsabilidades y trocear el poder de quienes vivieron de ella. A partir de ahí, empezar a reconstruir espacios digitales que no necesiten hacer enfermar a sus usuarios o poner en peligro a toda la sociedad para ser rentables.
This article is openly available in English on Medium, «Let’s stop pretending social media is broken — it’s working perfectly»


«Section» en inglés es lo que en español llamamos «artículo» de una ley o reglamento. Sería «artículo 230»
Buenos dias.
El poder de estas empresas es tanto que dicilmente, se va a poder acabar con ese tipo de comportamientos nocivos; con un ejercito de abogados de agarran a cualquier argumento como el que mencionas y en el caso de una sentencia desfavorable, la multa es tan irrisorio que hasta van en plan chulesco y dicen, toma cobrate.
No deben recordar el manual de buenas practicas, incluso la educacion que nuestros padres, abuelos nos dan en el respeto, no insultar, mentir etc. Solo el dinero en una sociedas ultracapitalista sobre todo en ciertos paises le importa. De ahi que una que se arrimen a un descerebrado(panda)ocupan altos cargos para que la ley les sea favorable y en el caso de que en otros paises se les multe, impongan con unos limites, acudan al maton u otros susterfugios con tal de salirse con la suya.
La libertad no te da derecho a presionar, influir, malmeter y otras sancedes. Nadie dice que todo sea puritano, y halla controles por todos lados. Hagamos una normativa comun donde todos los actores implicados sean consecuenes con lo que publican; no que una coma en una ley o una sentencia les lleve a todo vale con tal de publicar.
Buen dia y gracias por el articulo.
El diagnóstico me parece impecable, pero me quedo con la pregunta más incómoda, es decir, ¿cómo salimos colectivamente de un sistema del que dependemos de forma asimétrica?
El Fediverso existe, Mastodon existe, las alternativas existen y, sin embargo, la masa crítica no se mueve. No es solo comodidad. Muchos colectivos (periodistas independientes, activistas, pequeños comercios, comunidades migrantes) dependen hoy de estas plataformas para visibilidad, organización o ingresos. Pedirles que abandonen Instagram o YouTube sin red de seguridad equivale a pedirle a alguien que deje de usar el coche en una ciudad sin transporte público. El problema no es solo de voluntad individual.
Yo creo que hay dos niveles de respuesta, y conviene no confundirlos:
El primero es estructural y no negociable: prohibir la publicidad hipersegmentada basada en vigilancia, punto. No regularla ni limitarla, sino eliminarla como modelo de negocio legal, igual que se prohibió la publicidad de tabaco dirigida a menores o la venta de datos médicos sin consentimiento explícito. Sin ese combustible, el incentivo de retener, enganchar y manipular desaparece por sí solo. Todo lo demás (el scroll infinito, los algoritmos de recomendación, la optimización emocional) son síntomas. El tumor es el modelo.
El segundo nivel es de construcción paralela: financiar con dinero público y masa crítica institucional las alternativas descentralizadas, igual que se financia infraestructura. No como nicho para tecnófilos, sino como servicio esencial. Una red social basada en protocolos abiertos, sin dueño único y financiada de forma transparente no es utopía, es lo que era internet antes de que el modelo publicitario lo colonizara todo.
La colisión es que lo primero requiere de una valentía política que hoy no existe. Lo segundo requiere que alguien dé el primer paso institucional antes de que haya masa crítica. Y mientras tanto, el sistema sigue funcionando exactamente como fue diseñado.
¿Es un problema de incentivos, de comodidad, o simplemente de que nadie quiere ser el primero en marcharse de una fiesta aunque sepa que hace daño?
Otra vía temporal dentro del segundo nivel es estar presente en los dos modelos de redes a la vez hasta que una masa crítica de comunidad haya migrado. Pero, ese es ya otro problema. Y está mas inclinado del lado del usuario final. Parece que hay una especie de sindrome de estocolmo. Nadie se mueve hasta que no toma conciencia de la problematica. Y lo peor, al menos lo que he observado yo en mi entorno es que ni se hace por probar.
No estoy seguro que se capture la atención del usuario, parece que va más allá: queda secuestrado dentro de su modelo.
Lo del síndrome de Estocolmo me parece muy ajustado, y creo que toca algo importante que yo he dejado un poco de lado porque no es solo que nadie quiera ser el primero en marcharse, es que muchos ni siquiera perciben que están dentro de algo de lo que haya que marcharse.
Ese secuestro, que también creo que existe aunque sea difícil de demostrar empíricamente, podría solventarse con herramientas de migración, donde el problema técnico es el más fácil de resolver cuando hay voluntad (un ejemplo análogo es Android/iOS). Lo que me sigue pareciendo clave es el punto de entrada institucional. Si el primer contacto normalizado con redes sociales ocurre en entornos educativos y ese entorno ya es abierto y descentralizado, se rompe buena parte del efecto inercial antes de que se consolide. No elimina el problema, pero cambia quién define el punto de partida. Y eso, a largo plazo, creo que no es menor.
Muy de acuerdo.
Por otra parte me pareció curioso ver el otro día, en una de las raras ocasiones en que veo las noticias en televisión, que se trataban estás sentencias como un todo junto a la adicción a los móviles. Tampoco explicaban a qué redes sociales habían sentenciado.
Es como si intentarán disimular que estas redes sociales son un caso especialmente pernicioso de adicción asociándola a un uso desmedido del móvil que la gente pueda ver como difícil de evitar o solucionar. Me pareció que la intención era echar basura a todo lo relacionado con el móvil para tapar a este tipo de redes sociales.
Otro buen ejemplo de colonización, sin duda, y es un mecanismo que creo que merece nombrarse con más claridad porque no es solo que los grandes medios eviten el tema, es que tienen un incentivo estructural para difuminarlo. Si el modelo publicitario es el problema, hablar de eso con precisión equivale a señalar también la fuente que los financia a ellos. La solución más cómoda es exactamente la que describes: mezclar todo en un relato vago sobre «el móvil» y dejar que la complejidad lo diluya.
Lo que me parece más preocupante es que eso no requiere ninguna conspiración ni directriz explícita. Funciona solo, por selección natural de los temas que generan fricción con los anunciantes. Y mientras eso no cambie, el debate público sobre estas plataformas seguirá llegando con años de retraso y con el foco puesto en los síntomas, no en el modelo.
El mes pasado eliminé definitivamente mi cuenta de Facebook. Y aunque nunca la creé, hace muchos años esta empresa me hizo el «favor» de no preguntarme y crearme una cuenta de Instagram. ¿Cómo lo supe? Porque al lado del login me mostró que mi nueva cuenta «me estaba esperando» y además habían asumido que podían tomar algunas de mis fotos subidas a mi cuenta de Facebok y usarlas como imágenes de la dichosa nueva cuenta jamás creada por mí (wtf!)… a la que por su puesto jamás accedí.
Y en función del nulo valor que me reportaba, y de posibles riesgos potenciales, lo mismo acabo de hacer la semana pasada con mi cuenta de X.
¿Paranóico yo?
• Discord delays age verification plans after user outcry
• How Linux and BSD Distros Are Responding to the New Age Verification Laws
• Google Play users must now verify their age to keep downloading certain apps
…ah pero China…
Puedes añadir a la lista…
Google se prepara para bloquear la distribución de aplicaciones de Android en nombre de la seguridad. Las consecuencias no son sólo para los desarrolladores: el objetivo es el usuario final.
Yo os dejo esto…. y me voy por el fondo… XDD
Ya, pero es que es TODO el sistema es el que es depredador… Esto es como lo que he dicho cienes de veces: te casco una multa por vender humo tabaquil y me pongo a silbar dejando pasar a tu lado, a miles de coches apestosos y mucho más cancerígenos y peligrosos que el fuck tabaco de marras… En fin.
Toma… carnaza…
ONLYOFFICE flags license violations in “Euro-Office” project by Nextcloud and IONOS