La responsabilidad de las plataformas: ni blanco, ni negro…

IMAGE: Pankeyson Photos - Pixabay

El juicio del caso Gonzalez v. Google LLC en el Tribunal Supremo de los Estados Unidos se está convirtiendo en una fortísima prueba de fuego para las compañías tecnológicas y su responsabilidad sobre las plataformas que operan. Varias compañías han enviado informes de parte al tribunal solicitando que las provisiones de la Sección 230, que protege a las plataformas en la red frente a responsabilidades derivadas de lo que publican, se mantengan, y alertando de la imposibilidad de mantener sus funcionalidades si no es así.

El caso Gonzalez v. Google enfrenta a los familiares de una norteamericana muerta en un atentado terrorista en París en noviembre de 2015 con YouTube, compañía a la que acusan de participar activamente en la radicalización de los autores del atentado mediante su algoritmo de recomendación. El Tribunal Supremo revisa el caso junto con otro similar, Twitter Inc. v. Taamneh, en el que la familia del ciudadano jordano Nawras Alassaf, que murió en 2017 durante un ataque de ISIS en Estambul acusa a Twitter, Google y Facebook de no controlar el contenido terrorista en sus plataformas.

La cuestión de la responsabilidad de las plataformas sobre los contenidos que albergan o que recomiendan a través de sus algoritmos está convirtiéndose en extremadamente importante: por un lado, parece recomendable eximir hasta cierto punto a las plataformas de responsabilidades sobre los contenidos que publican algunos de sus usuarios siempre que desarrollen mecanismos para la retirada de aquello que sea considerado nocivo o peligroso mediante sistemas de marcado social, o de supervisión activa mediante moderación de contenidos.

Por otro, plantear que una plataforma mantenga su inmunidad cuando, de manera completamente intencionada y proactiva utiliza sus algoritmos para recomendar contenidos claramente nocivos, como la apología del terrorismo o la radicalización, y generar peligrosas cámaras de eco con ellos con el fin único de mantener a ese usuario más tiempo en la plataforma, puede parecer un caso algo más complicado, porque la plataforma está optando por mantener una conducta socialmente peligrosa y reprobable, la de alimentar conscientemente la radicalización de una persona, con el fin de enriquecerse.

Si las plataformas fueran consideradas responsables por ese tipo de efectos, estaríamos sin duda hablando de un cataclismo sin precedentes en la red, que abriría la posibilidad de muchísimas reclamaciones y de indemnizaciones millonarias, y forzaría a importantísimos cambios en la forma en que desarrollan su actividad.

Mientras, en el estado de Washington, las escuelas públicas del distrito de Seattle han denunciado a TikTok, Instagram, Facebook, YouTube y Snap por explotar las mentes vulnerables de los niños para generar beneficios, utilizando tácticas psicológicas que han dado lugar a una epidemia de problemas de salud mental en las escuelas de todo el país, y reclaman a las compañías que contribuyan a pagar los tratamientos necesarios para tratar de paliar esos efectos. Según el consorcio de escuelas públicas, estas compañías son responsables de enganchar a decenas de millones de estudiantes en círculos de retroalimentación positiva de uso y abuso excesivos, y reclama las máximas sanciones estatutarias y civiles permitidas por la ley esgrimiendo un argumento: que estas plataformas son perjudiciales para la salud, lo que significa que las empresas de redes sociales han violado la ley de alteración del orden público del estado.

En el Reino Unido, la idea va un poco más allá, y además de reclamar la responsabilidad de las plataformas por contenidos que puedan resultar dañinos para los niños o que muestren la inmigración ilegal en un tono positivo, reclaman directamente penas de cárcel para los directivos de las compañías que se hayan confabulado o hayan consentido para ignorar los avisos de retirada de tales contenidos.

Las cosas, decididamente, no pintan bien para unas compañías que, durante demasiado tiempo, han ignorado para su propio beneficio los efectos potenciales de los contenidos que publicaban y que recomendaban a sus usuarios. Sin duda, una cuestión en la que los tonos blancos o negros son poco recomendables, en favor de amplias gamas de gris: pretender que las plataformas sean las únicas responsables de los problemas, cuando el sistema educativo o incluso los padres han ignorado esos posibles efectos, han llevado a cabo una completa dejación o abandono de sus responsabilidades en ese sentido, y han preferido mirar para otro lado o incluso utilizar el smartphone como «apaganiños», parece un tanto frívolo.

Pero alimentar el timeline de un potencial pedófilo con vídeos de niñas bailando coreografías subidas de tono, recomendar vídeos terroristas a una persona en proceso de radicalización, o construir una burbuja de supuesta aprobación social en torno a alguien para que pase más tiempo con los ojos pegados a tu plataforma son cuestiones que esas plataformas han llevado a cabo de manera consciente, y por las que deberían afrontar algún tipo de responsabilidad.

Estos casos se inscriben en un cambio de los vientos regulatorios que, cada vez más, reclaman en todo el mundo más control para las big tech y sus plataformas. ¿Deben tener las plataformas algún tipo de responsabilidad sobre los efectos que genera la gestión que hacen de sus contenidos? Probablemente sí. ¿Deben tener toda la responsabilidad sobre ello? En absoluto. A la hora de repartir responsabilidades, me temo que hay algunos culpables más en todo esto. Y esta es una verdad incómoda que pocos van a querer oír (las escuelas y los padres cometieron un gravísimo error al negarse, en muchos casos a educar sobre eso), y que no va a ser tan fácil de juzgar…


This post is also available in English on my Medium page, «When it comes to responsibility for online content, where does the buck stop?»

12 comentarios

  • #001
    Xaquín - 21 enero 2023 - 15:16

    «mecanismos para la retirada de aquello que sea considerado nocivo o peligroso mediante sistemas de marcado social»(EDans).

    ¿Algo así como un adn social?

    «A la hora de repartir responsabilidades, me temo que hay algunos culpables más en todo esto. Y esta es una verdad incómoda que pocos van a querer oír» (EDans).

    Hay una plaga no bíblica, desde el principio de los tiempos, que se llama maltrato infantil… muy favorecedora de ese adn social negativo, que tanto ser humano «en precario» se lleva en su mochila, desde que vino al mundo. Con hambre, violación, tráfico y muerte de crías humanas, como si fueran ganado de mala calidad.

    Y antiguamente no había plataformas digitales y sí muchas plataformas analógicas , que fomentaban ese maltrato. Y en forma de sectas (analógicas) de todo tipo.

    De hecho se da el maltrato más generalizado en la propia familia (plataforma de acomodo social negativo, allí donde las halla). Son los padres (machos) los más propensos a maltratar a sus hijos (y las madres a ocultarlos).

    Pero la sociedad adulta dominante es incapaz de tomarse en serio tamañas verdades, y prefiere seguir haciendo al avestruz con auténtica maestría.

    La domesticación, llamada educación, se basa en dejar a la cría humana desprovista de los filtros mentales necesarios, para efectuar su doble cometido : renovar el entramado social de la sociedad establecida (ecosistema), al mismo tiempo que se regenera aquello, que se ha quedado claramente anquilosado (normas y tradiciones claramente inhumanas).

    En fin, más de lo mismo. La tecnología, esencialmente neutra, culpable de la incapacidad de una mediocre versión del HS, para adaptarse a un avance positivo, en el proceso evolutivo de los seres vivos.

    El terrorismo fomentado por los gobiernos (tipo USA, con Osama Bin Laden, en modo talibán amigo), para que luego los familiares de quien sufre un ataque terrorista no gubernamental, se dediquen a culpar a las empresas tecnológicas.

    Algo que ya pasa con los grandes complejos hospitalarios, que pueden tener algo de responsabilidad social, pero no son los que fomentan un ansia de hacerse casi millonarios, simulando accidentes varios con leguleyos de patacón (recubierto de dorado chino).

    Responder
  • #002
    Gorki - 21 enero 2023 - 18:18

    El problema está en «recomendar» con algoritmos. Si las plataformas como hace telefónica, se conformaran con ser una red de comunicación, pero no «recomendaran» nada, no tendrían problemas, pues ellas no son culpables de lo que otros escriban, ni son culpable que a esos otros le sigan los que quieran.

    Pero si «recomiendan» y a ti te llegan contenidos de gente que no sigues y esos contenidos te hieren, si son responsables de que esos contenidos te han llegado sin tu pedirlos y sin que puedas evitar su llegada.

    Responder
    • JM - 21 enero 2023 - 19:26

      Bien dicho.

      Si a un paranoico lo rodeas de información que refuerza su paranoia no es extraño que como mínimo empeore su salud mental, y en casos puntuales algo peor.

      ¿Es culpa del medio? En parte sí, porque se hace conscientemente.

      ¿Debería estar penalizado? Al menos debería ser algo que debiera autorizar el usuario después de haber sido debidamente informado y no algo que se nos fuerza a los usuarios a utilizar queramos o no.

      Responder
  • #004
    Matt - 21 enero 2023 - 21:08

    Entramos en el centro de la cuestion: Las redes sociales son las responsables del gran auge del radicalismo que se ha producido en los ultimos años. Y lo hacen premetidamente mediante sus algoritmos, seguramente no con el proposito de radicalizar y polarizar a sus usuarios sino con el objetivo de que pasen allí el mayor tiempo posible pero el resultado es el mismo.
    En Youtube en cuanto veo algun video de algo que no sea musica o deporte como algun tema de actualidad o social todas las recomendaciones que me hacen son de videos de tendencia ultraderechista.

    Las cosas podran no ser blancas o negras pero si no se mete mano a las redes sociales el panorama no solo no va a cambiar sino que va a ir a peor.

    Responder
    • Carlos - 22 enero 2023 - 12:14

      Hola a todos
      Problema no es de las RRSS. Estoy de acuerdo contigo que todo lo que visitamos, los algoritmos bombardean con más de lo mismo, similar y claro llega un momento que si no utilizas el sentido común y restringes quieres ver o cierras todo lo que tienes en la red, ves cosas que pueden llegar a molestar, o algo peor.
      La tecnologia avanza mas rapido que el ser humano y tanto lo bueno como lo malo(desgraciadamente) esta a un click
      Un saludo.

      Responder
  • #006
    Pedro - 21 enero 2023 - 22:27

    Las plataformas no son responsables de lo que publiquen los usuarios si lo eliminan con rapidez. Por ejemplo, con la misma rapidez que censuran una foto en la que se vea un pezón.

    De lo que sí son absolutamente responsables es de fomentar con sus recomendaciones lo que no se acepta ni social ni legalmente. Aparte del terrorismo, por ejemplo deberían no recomendar contenidos que fomenten la anorexia o la bulimia y, además, eliminar esos contenidos con la misma rapidez que censuran una foto en la que se vea un pezón.

    En cuanto a no educar en el uso o utilizar los dispositivos como «apaganiños»… de acuerdo en que no deberían ni educadores ni, mayormente, padres dejar que un niño «vuele solo» por Internet.

    Si las plataformas sabían que raramente un niño tenía acceso a Internet con una cierta educación previa, ¿por qué no trataron de evitar los peligros a que podían enfrentarse?

    El afán lucro es legítimo, desde luego, aunque no en estos casos: si las plataformas no limitan su afán de lucro, deberán hacerlo los tribunales.

    Responder
  • #007
    Gorki - 22 enero 2023 - 00:38

    Por qué simplemente, no dejan de «recomendar» nada aparte de la publicidad. Si solo utilizan los «algoritmos» para dirigir la publicidad hacia la audiencia mas adecuada, no hay mucho riesgo aunque se confundan, (salvo molestar un poco), porque pueden perfectamente con calma sopesar con empleados, si esa publicidad, puede hacerse llegar o no a su público, y sólo serán responsables de permitir que contraten publicidad inadecuada, lo cual es fácilmente detectable y ademas hay un culpable claro, el anunciante.

    Pero intentar detectar mecánicamente el sentido de un contenido es muy difícil, se cometerán tantos falsos negativos, como positivos y en vista de ello habrá quejas de «censura» y quejas por hacer llegar contenidos inconvenientes a usuarios que no la desean ni la pueden evitar. A parte de favorecer la formación de «cámaras de eco».

    Responder
  • #008
    Benji - 22 enero 2023 - 10:04

    Aquí nos haría falta un Salomón que esté dispuesto a cortar en dos internet:
    O sigues las reglas de neutralidad o te quedas bloqueado y multado en este país.

    Así les obligas a cambiar para no cerrar. No veo otra manera porque la mala fe con la que han actuado todos estos años ha sido excesiva

    Responder
  • #009
    Carlos - 22 enero 2023 - 12:30

    En relación con las demandas(son muy lícitas) si tuviéramos que ir a los tribunales por cada caso de la mala praxis(comillas) de algunos sectores, deberíamos volver a nacer, ver que estamos haciendo mal
    Mayoría conoce el famoso caso Exón, hace algunos años sabía qué contaminación de los combustibles fósiles.
    Buen día.-

    Responder
  • #010
    LOLO - 22 enero 2023 - 18:46

    Entras en una tienda de ropa, y la chica te pregunta si necesitas ayuda. Le respondes que sólo estás mirando.

    En una web social, creas un perfil para estar en contacto con otros ( y enterarte del chisme de moda ) pero sobre todo para conseguir tus likes. Menuda droga esa.

    Imaginaros ahora que cada vez que entro en la tienda del principio, como estuve mirando jerseys rojos ( aunque sólo era por pasar el rato, de hecho dije que sólo miraba ), cada vez que pongo un pie dentro se acerca una chica muy mona y me empieza a hablar de jerseys rojos, de que si están rebajados, nuevos tonos, etc … Cada vez. Cada p… vez …

    Ahora imaginaros que el jersey rojo que miré con desdén y sin interés la primera vez, fuese un video de esos que son puro clickbait, que parece que va de una cosa pero en realidad es alguna temática extrema ( antisistemas vestidos de políticos, gurús de las crypto o cualquier otra estafa buscando borregos que sumar al redil )

    Si consiguen encontrar el punto de tolerancia en que dejo de ignorarles y empiezo a dar a Me gusta, ya estaré condenado. Lo importante para ellos, al igual que para todos los medios de entretenimiento ( incluída la tv ) es que consuma su producto el mayor tiempo posible.

    Antiguamente para lavar el cerebro a alguien, se lo tenían que currar más. Ahora simplemente la gente va corriendo a que les instalen la nueva versión de ese proceso para conseguir sus likes y no ser el raro

    Qué bonita la civilización

    Responder
  • #011
    Gabriel - 23 enero 2023 - 09:02

    La neurociencia parece que ha demostrado que pulsar en una pantalla que reacciona, cada vez que lo hacemos genera dopamina que nos produce satisfacción instantánea y momentánea. Ahora que todos llevamos en el bolsillo un producto así, le sumamos unas redes sociales que gastan millones en estudiar como enganchar a niños, adolescentes, jóvenes y adultos a estos aparatitos….. y ahora resulta que es un problema de educación de los padres… un poco de por favor.
    Supongo que el alcoholismo, drogadicción, ludopatía, etc… son todo problemas de educación de los padres. Pues parece que no, que ante una misma educación de los padres, unas personas caen en ellos y otros no.
    Yo miro a mi alrededor, y veo que adultos, jóvenes y niños, a nada que tengan un momento de aburrimiento o similar, echan mano de un aparatito que llevan al bolsillo y empiezan a pulsarlo. Y para muchos se está convirtiendo en un problema que les quita tiempo de disfrute de otras personas y actividades, me recuerda cada vez más a ludopatía.
    Por biología, hay personas más proclives a caer en este tipo de problemas.
    Las pantallas y redes sociales deberían empezar a tratarse como problemas de salud pública. Igual a un % les está viniendo bien, para otro % les está hundiendo.
    Igual que las empresas de juego o bebidas alcohólicas o tabaco tienen regulaciones y restricciones, tendríamos que plantearnos algo así para esta nueva adicción general que va a producir desechos de personas en algunos casos.

    Responder
    • Gorki - 23 enero 2023 - 22:03

      https://www.youtube.com/watch?v=NNazOlldUdk

      Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG