Cómo arruinar la credibilidad de un medio usando inteligencia artificial

IMAGE: OpenAI's DALL·E, via ChatGPT

CNET, que responde a la abreviatura de Computer Network, ha sido generalmente reconocido como un medio de información de prestigio en todo lo relacionado con el mundo de la tecnología desde prácticamente su creación en 1992, tanto durante su existencia como medio independiente como posteriormente tras su adquisición por CBS en el año 2008 por 1,750 millones de dólares.

En 2020, el medio fue objeto de otro cambio de manos: en esta ocasión, terminada ya la era dorada de los medios nativos en internet, quién pagó ya únicamente 500 millones de dólares por la compañía fue Red Ventures, una compañía de prestigio muy cuestionable dedicada, en general, a la elaboración de contenido diseñado específicamente para obtener una buena indexación en Google para búsquedas frecuentes y la monetización de ese tráfico con enlaces de afiliación.

Lo que ya de por sí no parecía un buen augurio para el prestigio y la credibilidad del medio se ha visto confirmado ahora cuando la mejor y más completa enciclopedia creada por la humanidad, Wikipedia, ha decidido rebajar la calificación de fiabilidad que asignaba al medio por encontrar de manera reiterada y tener que retirar de artículos de la enciclopedia artículos de mala calidad escritos claramente mediante el uso de algoritmos generativos y carentes de una supervisión mínima.

Emplear algoritmos generativos para la redacción de noticias puede resultar una idea muy apetecible si tu objetivo es publicar una cantidad elevada de artículos y conseguir clics en sus enlaces patrocinados, pero es bastante difícil que eso sea una estrategia sostenible como tal. En principio, no hay nada malo en recurrir a algoritmos generativos para determinadas tareas, pero como ya he comentado en ocasiones anteriores, si bien se puede ahorrar tiempo en la tarea de creación, se tiene necesariamente que multiplicar el tiempo dedicado a la supervisión si se quiere que los resultados sean mínimamente aceptables.

Hasta aquí, todo bien: modificar el uso del tiempo de los periodistas para que pasen menos tiempo redactando y más verificando, añadiendo datos, completando cuestiones o eliminando errores podría incluso llegar a tener cierto sentido… siempre y cuando tu sistema de control de gestión no se base en una métrica tan simple como el número de artículos producidos, algo muy típico en medios con la estrategia de los que Red Ventures posee en su portfolio. En esos casos, lo que aplica es la llamada Ley de Goodhart, que postula que cuando una métrica o indicador se convierte en un objetivo, deja de ser una buena métrica. Si te evalúan por artículos producidos, lógicamente, terminas vomitando artículos lo más rápido posible, y si además tienes una herramienta que te permite llevar esa tarea a cabo todavía más deprisa, más aún.

Ahora, tras varias décadas siendo considerado un medio de comunicación prestigioso en tecnología CNET ha pasado a perder ese prestigio, y además, a que lo diga Wikipedia. Las quejas del medio, que afirma no estar utilizando ya esos algoritmos y que se trató de un supuesto ensayo de corta duración no han servido para cambiar la opinión de nadie: pocas cosas cuestan más recuperar que el prestigio perdido. Pero si te dedicas fundamentalmente a rellenar páginas para que almas perdidas que pululan por la red terminen haciendo clic en tus anuncios basura, seguramente eso de la ética periodística y el prestigio te importe más bien poco.


This article is also available in English on my Medium page, «It takes 20 years to build a reputation…«

10 comentarios

  • #001
    Lua - 5 marzo 2024 - 20:42

    Lo mismo le pasó a Gizmodo y a otros tantos que se sumen al carro…

  • #002
    Gorki - 5 marzo 2024 - 23:03

    No se dan cuenta que tal actitud es «Pan para hoy y hambre para mañana».

    Títulos como «Arqueólogos descubren algo que hará reescribir la historia de la humanidad» «Pueblo medieval a diez minutos de Burgos» «Uno de los pueblos medievales más pequeños de España, construido sobre un acantilado de 50 metros de altura»,… hacen que pinches al principio , pero luego los esquivas como gato escaldado.

    • Rodrigo - 6 marzo 2024 - 07:51

      Yo no leo nunca los que empiezan por «Soy experto en (pon lo que quieras) y no recomiendo (pon lo que quieras)».

      Veo un montón de ese estilo.

    • Daniel Terán - 6 marzo 2024 - 16:14

      El otro día vi un tuit que decía:

      «Ustedes son muy jóvenes y no se acordarán, pero hubo un tiempo en que los titulares de prensa no se redactaban como una adivinanza cuya respuesta estaba en el último párrafo del artículo.»

  • #005
    Sergio Espósito - 6 marzo 2024 - 07:20

    ¿La dictadura del click?

    ¿O la pereza de una industria que en vez de apostar por la calidad para luego poder cobrar lo que vale un buen producto eligió “producir” al peso y cobrar en consecuencia?

  • #006
    Lua - 6 marzo 2024 - 12:36

    OFFTOPIC:

    No sere yo quien diga de que se tiene o no que hablar aqui, pero creo que a raiz de un par de articulos atras, estaria bien «re-enfocar» las cosas que se decian entonces…

    We and Elon recognized a for-profit entity would be necessary to acquire those resources

    As we discussed a for-profit structure in order to further the mission, Elon wanted us to merge with Tesla or he wanted full control. Elon left OpenAI, saying there needed to be a relevant competitor to Google/DeepMind and that he was going to do it himself. He said he’d be supportive of us finding our own path.

    In late 2017, we and Elon decided the next step for the mission was to create a for-profit entity. Elon wanted majority equity, initial board control, and to be CEO. In the middle of these discussions, he withheld funding. Reid Hoffman bridged the gap to cover salaries and operations.

    We couldn’t agree to terms on a for-profit with Elon because we felt it was against the mission for any individual to have absolute control over OpenAI. He then suggested instead merging OpenAI into Tesla. In early February 2018, Elon forwarded us an email suggesting that OpenAI should “attach to Tesla as its cash cow”, commenting that it was “exactly right… Tesla is the only path that could even hope to hold a candle to Google. Even then, the probability of being a counterweight to Google is small. It just isn’t zero”. [2]

    Elon soon chose to leave OpenAI, saying that our probability of success was 0, and that he planned to build an AGI competitor within Tesla. When he left in late February 2018, he told our team he was supportive of us finding our own path to raising billions of dollars. In December 2018, Elon sent us an email saying “Even raising several hundred million won’t be enough. This needs billions per year immediately or forget it.” [3]

    We advance our mission by building widely-available beneficial tools

    We’re making our technology broadly usable in ways that empower people and improve their daily lives, including via open-source contributions.

    We provide broad access to today’s most powerful AI, including a free version that hundreds of millions of people use every day. For example, Albania is using OpenAI’s tools to accelerate its EU accession by as much as 5.5 years; Digital Green is helping boost farmer income in Kenya and India by dropping the cost of agricultural extension services 100x by building on OpenAI; Lifespan, the largest healthcare provider in Rhode Island, uses GPT-4 to simplify its surgical consent forms from a college reading level to a 6th grade one; Iceland is using GPT-4 to preserve the Icelandic language.

    Elon understood the mission did not imply open-sourcing AGI. As Ilya told Elon: “As we get closer to building AI, it will make sense to start being less open. The Open in openAI means that everyone should benefit from the fruits of AI after its built, but it’s totally OK to not share the science…”, to which Elon replied: “Yup”. [4]

    el hombre que mas ha hecho por la humanidad

    Tambien podriamos hablar, que otro de los motivos de su extraña jugada, son las deudas y demandas que tiene por mas de 500M mas que nada para entender sus movimientos.

    • c3po - 6 marzo 2024 - 14:06

      Entre este pájaro y Apple estamos apañlado, muchas multas, pero los pringados de sus clientes no viendo un duro

      • Lua - 6 marzo 2024 - 14:26

        El pajaro tenia «claro su objetivo»… pasta, que le hace falta, y mucho…

        En idioma «tabernario» (coñac y purito): rabieta por el bolsillo. Ni humanidad ni ostias consagradas. Pasta.

  • #009
    c3po - 6 marzo 2024 - 14:27

    OFFTOPIC

    No va de Apple, a mi que timen a sus clientes, me da lo mismo…

    «La Agencia de Protección de Datos prohíbe a Worldcoin seguir recogiendo datos de iris
    El organismo congela por un procedimiento de urgencia esta actividad en España hasta esclarecer si el tratamiento de los datos se ajusta o no a derecho

    La Agencia Española de Protección de Datos (AEPD) ha ordenado hoy una medida cautelar que impide a Worldcoin, que desde verano ha recogido fotografías en alta resolución del iris de 400.000 usuarios, seguir tratando datos en España. La agencia exige el cese inmediato en la recogida y tratamiento de datos biométricos a la compañía Tools for Humanity Corporation, que trabaja para WorldCoin, tras haber recibido al menos 13 denuncias. Es la primera vez que la AEPD toma una medida cautelar de este tipo.»

    Ya sigue en ELPAIS, sobre estos pájaros…

  • #010
    Chema - 7 marzo 2024 - 10:18

    En general me parece que uno de los problemas de la IA es su uso sin supervisión. Es muy cómodo, y el humano tiende a maximizar la vagancia. Pero el exceso de irresponsablilidad sobre el trabajo supuestamente propio puede salir caro.

Dejar un Comentario

Los comentarios están cerrados