¿De verdad no hemos aprendido nada con la regulación de las redes sociales?

IMAGE: PxHere - CC0

La noticia del día es que finalmente, Joe Biden ha decidido unirse a la fiesta regulatoria dictando la primera orden ejecutiva que pretende sentar los estándares de protección y seguridad de la inteligencia artificial, y que obliga, entre otras cosas, a que las compañías que desarrollan productos y servicios basados en esta tecnología desarrollen estándares y compartan los resultados de sus pruebas de seguridad con el gobierno.

Para alguien que lleva toda su vida profesional definiendo su interés de investigación como «los efectos de la tecnología sobre las personas, las empresas y la sociedad», me resulta especialmente triste y, sobre todo, muy peligroso, que no parezcamos haber entendido nada de situaciones de regulación anteriores, como por ejemplo las redes sociales, y que estemos aparentemente decididos a repetir los errores cometidos.

Los estándares y las pruebas de seguridad de una tecnología nunca, nunca, nunca, nunca pueden dejarse en manos de quienes compiten generando productos y servicios con ella. Nunca quiere decir eso, nunca. Sin ningún tipo de matiz. Si lo haces, prepárate para pagar las consecuencias. Los efectos potenciales de una tecnología como la inteligencia artificial abarcan absolutamente todos los ámbitos de la vida en sociedad, desde la privacidad de las personas hasta la discriminación, los derechos civiles, los mercados de trabajo, etc., y eso no quiere decir, por supuesto, que por ello debamos dejar de investigar o de desarrollar esa tecnología – algo que además es imposible – sino que su incorporación a todos los aspectos de esa sociedad requiere de una supervisión muy elevada. Y supervisión es algo que alguien aplica a lo que tú haces, nunca algo que uno se aplica a sí mismo, menos aún si ese alguien tiene todo tipo de antecedentes que muestran que nunca se tomó esos potenciales efectos en serio y que antepuso su interés por facturar a cualquier daño que sus productos o servicios podrían causar.

Con las redes sociales lo vimos perfectamente claro: desde sus orígenes, el interés estuvo puesto en conseguir un producto que enganchase a sus usuarios, que los hiciese consumir cuantas más páginas, mejor. ¿Por qué fue así? Simplemente, porque se entendía que el producto debía forzosamente ser gratuito para facilitar el efecto red, el que una persona tuviese una elevada posibilidad de encontrar a una gran cantidad de sus familiares y amigos en la red en cuestión, y porque se pretendía financiar la actividad mediante la publicidad segmentada.

Esto hoy nos parece muy natural, pero en su momento, debió haber levantado todo tipo de alarmas, porque la diferencia entre esa tecnología y la anterior era precisamente que permitía capturar muchísimos datos del usuario, mientras la anterior – la televisión, los diarios, las vallas, etc. – únicamente permitían suponerla o inferirla. A partir de ahí, toda la regulación debió basarse en lo que se podía o no podía hacer con esa información: cuál era lícito captar y almacenar y cuál no, cómo podía utilizarse, a quién podía revenderse o qué efectos podría tener sobre los derechos fundamentales de la persona.

Como ese trabajo de sandboxing no se hizo, pasó lo que pasó: manipulación electoral, compartición de datos personales de todo tipo incluyendo los supuestamente más protegidos como salud, afinidades políticas o creencias religiosas, insistencia en el uso hasta lograr la adicción, trastornos psicológicos… cuando una compañía como Meta, con un pasado que incluye todos, absolutamente todos los desmanes posibles, sigue definiendo hoy su visión como «creemos en una Internet basada en publicidad, que brinde a las personas acceso a productos y servicios personalizados, independientemente de su situación económica», y ningún regulador se plantea qué hay de malo en ello (el hecho de que esas personas que cita no sean usuarios, sino simple materia prima que se vende al mejor postor), y la compañía simplemente se plantea ofrecer sus productos por suscripción, con un precio disuasorio, para poder así decir eso de «mis usuarios consintieron», tenemos una clara evidencia de todo lo que se puede hacer mal en regulación.

No, la regulación no consiste en obligar a Meta a que ofrezca una suscripción, sino en explicarle «amablemente» que su producto, tal y como está concebido, infringe los derechos humanos más básicos, y que por tanto, no puede ser ofrecido en su estado actual. Si infringe derechos fundamentales, que el usuario te diga «venga, estoy de acuerdo» es algo que no vale. Si Meta quiere hacer publicidad no segmentada más que por horario, por contenido, por geografía y por pocas más cosas que no supongan violar la privacidad del usuario, adelante. Si no, si se empeña en ofrecer a sus verdaderos clientes – los anunciantes -información completa y exhaustiva de sus usuarios, debería ser calificado como ilegal y excluido radicalmente del mercado. Y por supuesto, si incumples y lo haces, además, de manera reiterada, deberías ser fuertemente castigado.

Con la inteligencia artificial nos disponemos a recorrer el mismo, imprudente camino. Que un regulador diga a los participantes en el mercado eso de «venga, regulaos vosotros» es completamente inaceptable, sobre todo si existen precedentes de lo que ocurrió en esas condiciones en tecnologías anteriores. Que se asuma algún tipo de «buena fe» de quienes nunca la han tenido es simplemente demencial. En su lugar, lo que hay que hacer es enunciar los posibles efectos ya conocidos y potencialmente perniciosos, y decir a las compañías que si incurren, por acción o por omisión, en alguno de esos efectos, caerán sobre ellas todos los males del Averno – no una multita que compense pagar porque lo que has facturado gracias a ello es brutalmente superior.

Aparentemente, estamos dejándonos cegar por un «no se puede saber qué efectos tendrá esto» y no hablando de que hay efectos negativos que ya existen, que ya están aquí y que ya conocemos. Y eso es profundamente irresponsable y no puede traer nada bueno. Al final, es repetir las sabias palabras del tío Ben en Spiderman: un gran poder conlleva una gran responsabilidad. Si la tecnología te otorga un gran poder, bajo ningún concepto podrás prescindir de la responsabilidad necesaria para ejercerlo, y si lo haces, serás fuerte y ejemplarmente castigado. Si eres un enfermo avaricioso e incapaz de controlarse que siempre, sistemáticamente, termina causando daños a diestro y siniestro, tu sitio es la cárcel, no la dirección de una compañía tecnológica. Y por supuesto, quien define las reglas de lo que se puede y no se puede hacer nunca, bajo ningún concepto podrás ser tú mismo.

Veremos que sale de esta orden ejecutiva. Pero de entrada, no parece que vaya a ser nada bueno.


This article is also available in English on my Medium page, «Have we really learned nothing about regulation from the disastrous state of the social networks

12 comentarios

  • #001
    Juan T. - 30 octubre 2023 - 18:20

    De momento van a utilizar la oportunidad de regularse a si mismos para deshacerse de la competencia de las IAs Open Source, que ya han quedado muy tocadas incluso en la UE con los requisitos legales aparentemente muy proteccionistas con el consumidor pero que tienen el efecto colateral de perjudicar a las Open Source, así que no digamos EEUU.

  • #002
    Gon - 30 octubre 2023 - 20:39

    Estaba leyendo que Meta va permitir entre el modelo de pago y otro gratuïta de revenja de la info en modo barra libre.
    La verda es comparto ese asombro. Está bien o está mal mercader con la intimidad de la población? Si está mal, pq se permite?

    • Enrique Dans - 30 octubre 2023 - 21:36

      Exacto. Sabemos que la compañía incurre en prácticas deleznables que han llevado a que treinta estados la denuncien por generar adicciones, entre otras muchas cosas. Pero la solución que propone la compañía es simplemente ofrecer una suscripción para poder decir que los que no se suscriben, es porque prefieren tener publicidad. Es decir, que si no pagas, sí se te pueden generar todo tipo de barbaridades, adicciones y vender tu información al mejor postor. ¿Y NADIE DICE NADA, solo yo porque «es que estoy obsesionado con Zuck»???

      • c3po - 30 octubre 2023 - 22:20

        M&M -> una M es de Marquitos

  • #005
    Matt - 30 octubre 2023 - 21:31

    ¿Supervisión elevada, no permitir que las empresas hagan lo que les de la gana y se regulen solas (juuuuasss) y multas disuasorias de verdad?

    Eso en occidente es comunismo. Como los carriles bici.

    • f3r - 31 octubre 2023 - 12:14

      total…
      Aunque hoy en día ya no lo llaman comunismo (ya no impresiona tanto). Ahora eres un terrorista de izquierda extrema populista.

  • #007
    f3r - 31 octubre 2023 - 12:10

    «Si no… debería ser calificado como ilegal y excluido radicalmente del mercado»

    Enrique, cada vez estás más en plan comunista-terrorista de izquierda totalmente extrema y populista (keywords extra: venezuela, falcon, gobierno frankestein, intervencionista, sociolisto, que te vote Txapote, el sillón…jaja).
    ¿No te das cuenta de que el mercado se regula solo y que cualquier interferencia es un ataque a las libertades que Dios nos dio como individuos?

    En fin, buena suerte con tu alegato en un mundo donde está a la orden del día la violación sistemática de los derechos humanos y el derecho internacional para poder robar, extorsionar y esclavizar a nuestros semejantes.

  • #008
    f3r - 31 octubre 2023 - 12:12

    por cierto, aunque esa «regulación» la lleve a cabo una agencia independiente….sigue sonando a chiste de mal gusto. Son todo ideas peregrinas de un nivel de concreción cercano a nulo. Y eso en el caso de que alguien supiera cómo implementar checks reales, cosa que dudo (desde la propia teoría de deep learning)

  • #009
    Abel Monasterio - 31 octubre 2023 - 13:28

    La situación me hace recordar un dicho en mi país: «Dejar que zamuro (zopilote, o cualquier otro nombre de ave carroñera) cuide carne…».

  • #010
    Luisondome - 31 octubre 2023 - 15:12

    Bravo Enrique!! HAs puesto el dedo en la llaga de algo que duele a quien sufre las consecuencias del mal uso de las nuevas tecnologías, por el peligro que estas pueden tener para las personas, y especialmente para las mas desprotegidas: los niños, los jóvenes y los adolescentes.
    El reciente informe European Tech Insights 2023 así lo expresa con datos. En el se muestran los resultados de una encuesta sobre temas diversos, desde el papel de la UE en el desarrollo tecnológico y su regulación, hasta las posibles repercusiones de la IA en la sociedad, o la disposición de los europeos a someterse a implantes cerebrales para mejorar sus capacidades. El informe muestra cómo la sociedad está preparada para introducir la automatización y la tecnología en su vida cotidiana, pero se muestra preocupada por el impacto que pueda tener en el empleo, la privacidad o la desigualdad.

    El informe marca las pautas de lo que se debe de hacer para poner los límites que no se deben de cruzar en aras de la necesaria protección frente a los abusos en los usos de las tecnologías.

    * Internet debe ser abierto y global, pero sin dejar de estar regulado.Según el informe, el 91% de los europeos cree que internet debe regularse, y el 66% piensa que las normas deben ser globales y abiertas. El 88% de los entrevistados considera que la UE debería tener un papel activo en el desarrollo tecnológico, a través del impulso de nuevas tecnologías o un marco regulatorio más competitivo.

    * La IA debe regularse eficazmente para proteger a la sociedad y exigir responsabilidades por los daños que pueda causar. En paralelo a la rápida evolución de la IA, crece la preocupación de los ciudadanos por sus posibles repercusiones. El 68% de los europeos defiende que, para proteger los puestos de trabajo de ser reemplazados tecnológicamente, debe regularse la automatización. Esto es una clara consecuencia del impulso de la IA generativa en los últimos tiempos; otros datos reveladores son que sólo el 27% de los encuestados cree que podría detectar contenidos generados por IA.

    * Existe una desconfianza generalizada en la economía de los datos.La población aún no tiene la certeza de que sus datos estén totalmente seguros en línea, a pesar de los avances tecnológicos. El 69% de los encuestados cree que es más seguro almacenar información personal en dispositivos físicos que en la nube, y el 74% cree que es más probable que sufran robos en línea que en la vida real. Además, la economía de datos se considera un acelerador de la desigualdad económica en lugar de una oportunidad para la prosperidad social.

    * La tecnología aplicada al ámbito sanitario es la que más confianza genera. Aunque, como era de esperar, la gran mayoría de los europeos confía más en el diagnóstico de un médico (humano) que en el de un sistema de IA, la ciencia y la salud son el ámbito en el que la implantación de la tecnología genera más confianza. Más de un tercio de los europeos se haría un implante cerebral que mejorará sus capacidades cognitivas, y el 58% cree que la tecnología CRISPR (de edición genética) tendrá resultados e impactos positivos.

    El informe, cuyo enlace lo añado al final, muestra desde los datos recogidos un camino que debe de tenerse presente. No es posible dejar a las tecnologias a «su libre albedrío», porque ya hay muestras mas que suficientes de que su libre albredrio invade el espacio del de los usuarios mas de lo soportable.

    Estoy plenamente de acuerdo con lo que expones, Enrique, y me he permitido la licencia de subrayar lo que me parece mas importante, y diría que imprescindible.

    Enhorabuena por el artículo, por la valentía con la que expresas tu preocupación, que es la de muchos. Era muy necesario que un escrito de esta índole se hiciera presente en negro sobre blanco.

    Saludos desde Galicia.

    El enlace del informe:
    https://static.ie.edu/CGC/European%20Tech%20Insights%202023%20-%20IE%20CGC.pdf

  • #011
    David Garcia - 31 octubre 2023 - 15:49

    … me resulta especialmente triste y, sobre todo, muy peligroso, que no parezcamos haber entendido nada de situaciones de regulación anteriores …

    A estas alturas, ya debería ser sabido por todos que «los humanos somos una raza estúpida, que cometemos los mismos errores una y otra vez».

    Solo porque algunos de esta raza seamos más avispados que otros, no significa que la mayoría lo sea.

  • #012
    Enrique - 31 octubre 2023 - 19:14

    Enrique, entiendo que cualquier gobierno solo tiene capacidad de prohibir por ley ciertos desarrollos de la IA, o limitar su aplicación/uso en su territorio, y si realmente quiere «acompañar» el desarrollo, requeriría crear una especie de sandbox bastante global. El problema es que todo el desarrollo digital está ocurriendo al margen los sandboxes, que por otra parte, no están dando un gran resultado en el mundo financiero y además es un concepto bastante reciente.

Dejar un Comentario

Los comentarios están cerrados