Sobre los peligros de la IA…

IMAGE: 849356 - Pixabay

Una de las cosas que más me enervan son las reacciones histéricas. Y una de las cosas que más odio es a aquello que se dedican a provocarlas. La alarma social se ha convertido, en nuestros días, en una de las formas más habituales que los spin doctors de todo tipo utilizan para influenciar desde la opinión hasta la legislación y la regulación, y esa práctica, además de una perversión de la democracia, me resulta sencillamente repugnante.

Vivimos tiempos confusos: una tecnología, el machine learning, que muchos prefieren llamar inteligencia artificial o IA a pesar de que no es inteligente (hace correlaciones estadísticas sofisticadas, que no es poco) ni mucho menos artificial (no hay nada más natural que los datos con los que trabaja, generados por todos nosotros), ha pasado de muchas décadas de historia pacífica, con sus inviernos, con sus limitaciones derivadas de la madurez de la tecnología y con sus avances, a convertirse, tras la presentación de ChatGPT el pasado noviembre, en algo que algunos pretenden presentar como un riesgo existencial para la humanidad, comparable a las pandemias o a la guerra nuclear, capaz de provocar la extinción de la especie.

¿Por qué digo que la IA no es inteligente? En el fondo, el aprendizaje humano se lleva a cabo mediante correlaciones estadísticas que nuestro cerebro es capaz de aprender, mediante deducciones apoyadas en esas correlaciones observadas, y la forma de aprender de las máquinas se parece mucho a ello. Pero por mucho que las máquinas sean capaces de paralelizar mediante los procesos adecuados nuestra forma de aprender, lo que no dejan de ser es máquinas: no tienen más intención que la que les damos, no tienen propósito ni meta más que la que les programamos, y no tiene más ambiciones que las que le introduzcamos como código.

El pasado marzo, un grupo de más de mil profesionales de la tecnología publicaron una carta abierta en la que llamaban a «una moratoria de seis meses en el entrenamiento de sistemas de AI más poderosos que GPT4», alegando «profundos riesgos para la sociedad y la humanidad», como si una moratoria como esa fuese mínimamente realista, se pudiese realmente plantear o no fuese a convertirse en la oportunidad que muchos buscan para lograr ponerse al nivel en sus desarrollos. Unos meses después, otro grupo de personas encabezados por el fundador de OpenAI, Sam Altman, que hizo un world tour en el que pasó por mi universidad, avisaron, en una frase de tan solo veintidós palabras, de que la IA suponía un riesgo de extinción comparable a las pandemias o a la guerra nuclear.

Lo siento, pero como diría un anglosajón, I call bullshit: toda esa basura es mentira. Respeto mucho a muchas de las personas que han firmado esas cartas y advertencias, pero lo que dicen, simplemente, es estúpido, y únicamente pretende influenciar a la opinión pública y, directa o indirectamente, a los políticos, para lograr una regulación que posibilite que únicamente ellos, las grandes compañías tecnológicas, sean los que puedan trabajar, bajo un supuesto control, en el desarrollo de esta tecnología. Simplemente, un intento de quitarse competencia y, sobre todo, de evitar el desarrollo de iniciativas open source relacionadas.

Escuchemos a otras personas igualmente muy autorizadas en el ámbito de la IA, como Andrew Ng, iniciador de Google Brain, Director del Stanford AI Lab (SAIL), actualmente liderando iniciativas como DeepLearning.ai, AI Fund o Landing AI; y autor de algunos de los cursos más seguidos en Coursera sobre el tema: simplemente, no es capaz de concebir cómo la IA puede llegar a suponer un riesgo de extinción para la humanidad.

¿Qué tal Marc Andreessen? Una de las mentes más preclaras en tecnología, cofundador de Mosaic, de Netscape y de Andreessen Horowitz, probablemente la compañía de capital riesgo más exitosa del mundo, acaba de escribir un artículo de muy recomendable lectura, «Why AI will save the world«, en el que habla de las muchas posibilidades que la IA tiene para el bien, y en el que afirma clara y taxativamente que

«La IA no quiere nada, no tiene metas, no quiere matarte, porque no está viva. Y la IA es una máquina: no tiene más posibilidades de cobrar vida de las que tiene tu tostador de pan»

No puedo estar más de acuerdo. Tu tostador te puede lanzar una tostada y darte en el ojo, pero no ha intentado hacerlo, no está vengándose de ti, y si le atizas un soplamocos por haberlo hecho – reacción de la que me confieso culpable en muchos casos – no estás teniendo más que una reacción irracional, y lo que es peor, lo sabes. Por supuesto, como toda tecnología, la IA genera algunos peligros, y algunos de ellos no son en absoluto despreciables: sesgos, injusticias, resultados inexactos o directamente falsos, pérdida de puestos de trabajo o concentraciones excesivas de poder. Pero con todo y con eso, hablamos de una tecnología con enormes posibilidades para solucionar muchísimos problemas, para hacer muchas cosas mejor y obtener muchísimas mejoras de eficiencia que pueden llegar a ser enormemente positivas. No, la IA no va a destruir la educación: la va a mejorar, y hablo desde la experiencia de treinta y tres años en la docencia.

Como he dicho siempre, no debemos intentar regular la tecnología. La tecnología no se puede regular, no lo admite: una vez inventada, no se puede desinventar ni poner bajo control: lo que sí se puede y se debe regular son a los imbéciles que, llevados generalmente por la megalomanía, por la ambición o por la codicia excesivas, utilizan la tecnología de forma inadecuada y generan efectos secundarios perniciosos para la humanidad o para muchas personas. Para controlar a esas personas sí necesitamos regulación, de acción rápida, inmediata, eficiente y drástica. La prueba más clara la tenemos en otra tecnología, la de las rede sociales: mientras medio mundo discutía si debíamos regular la tecnología e impedir (como si eso fuera posible) el acceso de los menores a la misma, nadie se preocupó de detener a Mark Zuckerberg cuando decidió que podía utilizar todos nuestros datos, incluidos los de especial protección, para lanzarnos anuncios ultrasegmentados – algo que estaba claramente fuera de los límites del consenso social existente sobre los límites de la publicidad – , nadie fue capaz de detenerlo cuando su red fue utilizada para manipular las elecciones presidenciales norteamericanas o el referéndum del Brexit, y nadie hizo nada para parar su destacada participación en el genocidio de los Rohingya.

La IA, como cualquier otra tecnología, tiene sus oportunidades y sus riesgos. En ambos casos, la ejecución de esas oportunidades y de esos riesgos corresponde a personas y compañías que apalancan esa tecnología para hacer con ella cosas buenas o malas, y la regulación debe funcionar para fomentar los buenos usos, impedir que se erijan en monopolios predatorios, y sobre todo, detener y desalentar de manera inmediata los usos perniciosos. Inventarnos cuentos y alentar fantasías sobre algoritmos que toman conciencia de sí mismos y destruyen a la humanidad no es una buena manera de llegar a ningún sitio, y me parece una forma repugnante de que algunos intenten asegurarse más control sobre una tecnología. Ignoremos a los agoreros, sigamos haciendo lo que sabemos hacer, e incorporemos mecanismos de control para detener rápidamente a los que hacen mal uso de la tecnología. No hay más. Y por supuesto, tampoco hay menos.


This article is also available in English on my Medium page, «AI isn’t going to take over the world, but Big Tech will, if we don’t act now»

19 comentarios

  • #001
    SNTAS PASCUAS - 9 junio 2023 - 14:48

    OFFTOPIC a medias

    Me faltan 20 minutos para terminar de ver una serie que en 2016 muchas críticas dijeron que era la mejor serie bla bla bla… sobre hosts que reciben a huéspedes en un parque temático. No quiero citar el título, y me ha chocado la mentalidad americana que existe al respecto de la IA, y es algo que se asemeja a la serie B, coño que se supone que eres un pedazo de director y todo se desarrolla bajo los canones de las novelas de Marcial Lafuente Estefania, tiros a mansalve, violaciones hasta que el protagonista dice, de esto ya me he cansado, y a matar autómatas y bichos vivientes. Es decir te gastas una millonada para luego terminar como los tomates asesinos ¿? Qué sentido tiene su historia… son neanderthales o chimpancés con pasta ??? lenta a más no poder (temporada 2 no aporta nada) y el resto pq me hice el proposito de enmienda, te la ves entera y así tienes vacuna para otros 10 años sin ver mierda.

    Y justo ahora leo a Enrique hablando de manipulación, pues si la mejor forma de prevenirla, es ver el marchamo de origen del jamón, por mucho marketing ni son pata negra las gafas, ni nada que provenga el imperio…. y la IA que nos ponen a nuestra disposición, ni es I ni es A, y mucho menos inocua, pero no porque no los digan ellos, sino porque viene de ellos. Mira el marchamo del cerdo, es USA, entonces no es ni pata negra, ni bellotero, ni mezcla, ni na de na, es puro marketing del american way of liefe, Y ESO NOS SOBRA. No van a enseñarnos ahora como tenemos que pensar, vivir, soñar, etc

    Viva Dolores manque pierda !

    • Lua - 9 junio 2023 - 16:05

      Westworld… llegue a temporada y media… nada como los originales: Almas de Metal (1973) y Mundo Futuro (1976) con el fantasbuloso Yul Brynner :P

      Por lo demas, nada a discutir… de momento…

      • SANTAS PASCUAS - 9 junio 2023 - 16:41

        Sobre los peligros de la IA no sé pero sobre el peligro de la basura que nos rodea

        https://www.dailymotion.com/search/Inteligencia%20artificial/videos

        Es increible que la mayoría son patochadas !!!

      • Dedo-en-la-llaga - 13 junio 2023 - 18:09

        En mi casa hacíamos apuestas en cada capítulo para tratar de averiguar qué se habían fumado los guionistas a partir de lo que veíamos en cada episodio. Sólo pudimos ver la 1ª temporada porque nos moríamos de envidia del material para fumar que manejaban dichos guionistas: bueno, bueno, bueno.

  • #005
    JM - 9 junio 2023 - 18:22

    ¿Cabe la posibilidad de que todo esté clamor para detener el desarrollo de la IA esté pagado por China porque todavía está detrás en la carrera de la IA?

    Está meridianamente claro que cualquier moratoria la ignorarían completamente.

  • #006
    Juan T. - 9 junio 2023 - 18:22

    Creo que hay una confusión conceptual.

    No se trata de que la IA cobre vida.

    Se trata de que será un arma muy poderosa en un mundo en el que estaremos muy avanzados tecnologicamente en muchos sectores y en la edad de piedra en cuestión de moral.

    ¿Que no harán, por ejemplo, dictadores que todos conocemos con un arma así en guerras híbridas donde vale todo y donde encima no se podrá demostrar la autoría de las acciones ?

  • #007
    Gorki - 9 junio 2023 - 21:27

    Últimamente he leído algo muy interesante. se trata sobre la Ley Amara o las falsas expectativas sobre los avances tecnológicos y es muy aplicable porque en el ML o la AI se esta cumpliendo al pie de la letra. «Los seres humanos tendemos a sobrestimar los efectos de una nueva tecnología a corto plazo, mientras que subestimamos su efecto a largo plazo.»

    Todos exageramos sobre los puestos de trabajo que va a eliminar, los riesgos de que caiga en manos de un tirano, Si ha venido a matarnos, … pero mui poco tenemos la capacidad de ver lo que en un plazo de digamos 10 años va a suponer en todo tipo de trabajos y negocios, ¿Qué puede hacer para la asistencia primaria de los enfermos?, ¿Qué puede hacer prediciendo em que piso tiene que colocar un ascensor para dar mejor servicio?, ¿Podrá clasificar y reciclar la basura urbana sustituyendo mano de obra?, ¿Hará los pedidos al supermercado por nosotros?

    Cuando apareció Internet, era para evitar que las redes de comunicaciones cayeran si se tiraba una bomba atómica, Luego se utilizó para conectar a todos los investigadores de diferentes universidades ¿Pensó alguien que fuera la forma de pasar el rato cuando viajas en una autobús urbano?

    Ley de Amara: las falsas expectativas sobre los avances tecnológicos

    • Greg - 10 junio 2023 - 02:07

      Muy muy interesante @Gorki
      Incluso el excelente paralelismo sobre la introducción de la tecnología en las aulas (TIC) ya comentado en varios ocasiones por @eDans

  • #009
    Javier Lux - 10 junio 2023 - 08:11

    A mi sí que me parece evidente que la IA, en malas manos, puede hacer mucho daño. Y es por ello que urge vigilarla, no limitarla, ni acotarla. Simplemente vigilarla, porque una buena IA en malas manos puede provocar mucho daño, y a no muy largo plazo con los famosos FAKES cada vez más realistas.

    Esos deep-fakes pueden alterar gravemente las estructuras de nuestra sociedad, provocando terremotos, que a su vez pueden provocar desastres peores como lo vimos con el maremoto de Fukushima. Imaginad vivir en un mundo donde no tenemos la certeza que lo que leemos/vemos/oímos sea verdad o mentira.

    Nuestra sociedad hoy está totalmente polarizada y basta a que vengan enjambres de deep-fakes a polarizar aún más, y sabemos que esto puede acabar muy mal.

    Por cierto, que nadie se engañe y vea esa polarización como una cosa de USA con Trump. Conozco muy bien las sociedades Francesa y española y pasa lo mismo. En Francia las fuerzas anti-inmigración como RN o Reconquête son totalmente incompatibles con la izquierda LFI y entre ambas tienen en minoría al gobierno de Macron.

    Aquí en el estado español ocurre igual, no hay que mirar quien ha ganado las pasadas elecciones en cada territorio de Euskadi o Catalunya y mirar quien ha ganado en cada provincia de españa…

    Ahora imaginad esas situaciones, bombardeadas por deep-fakes en medios malintencionados o RRSS. Incluso podríamos pensar que la IA identificaría los deep-fakes muy extremos como inefectivos, y ella misma propondria deep-fakes mas creíbles como mas influyentes. En las democracias esas actuaciones provocan cambios desastrosos porque tenemos elecciones libres. Echad un vistazo al Brexit. Un verdadero desastre que es de tal obviedad que la élite política británica se niega a mencionar el tema en debate alguno, como las avestruces. Y no tenemos ni idea como va acabar el asunto.

    Pues ya veis, Le Pen-Zemmour con su fuerza y buenos deep-fakes pueden torpedear el eje Franco-Alemán que es la base de la UE, y paraguas de la estabilidad que hemos disfrutado en Europa desde WW2. Se sabe que a Putin le calentaron la cabeza con un éxito fulgurante en Ucrania desde que se aisló totalmente en el Kremlin con fakes estúpidos. Imaginad que le hubiesen mandado fakes no sobre la facilidad hacerse con ucrania, sino que esos fakes deep/IA fueran sobre un Trump, o cualquier otro POTUS, dispuesto a atacar nuclearmente Rusia.

    Como vigilar la IA. Pues simplemente con comités públicos de gente respetable que publicara mucha información, accesibles a todos. Regular mejor posibles delitos de calumnias o alteración de procesos electorales (derecho de réplica..etc)

    • Guillermo - 10 junio 2023 - 08:46

      totalmente de acuerdo.
      La desinformación siempre ha sido una de las herramientas utilizadas para controlar a las masas.
      Las nuevas «IA» corren el peligro de convertirse en «palabra de Dios» por lo que indirectamente pueden gobernar el mundo, claro está dirigida habilmente por detras.
      Dentro de 5-10 años, será imposible saber que es real y que no lo es.
      Y sí internet nos dice que hay un ataque de otro planeta, será verdad, ¿verdad?

    • Gorki - 10 junio 2023 - 10:46

      No se por qué asocias la desinformación con la IA, ¡Cómo sino viviéamos en un mundo desinformado desde siempre!
      Todos los casos que comentas, las fuerzas anti-inmigración, el Brexit, Putin,…. todo ha ocurrido sin la intervención de la IA que es posterior.

      ¿De veras te creés lo que cuentan los periódicos? ¿No ves que unos dicen blanco y otros negros, según mande la Voz de su Amo?

      Imagino sin esfuerzo vivir en un mundo donde no tenemos la certeza que lo que leemos/vemos/oímos sea verdad o mentira, porque es es el mundo en el que me ha tocado vivir.

      • Javier Lux - 10 junio 2023 - 15:21

        No sé lo que dicen los periódicos porque casi no leo los periódicos.

        No sé lo que dice la tele o la radio porque no veo la tele española ni escucho radio.

        Simplemente creo que la IA guiará a los malos donde mentir y manipular y sobre todo, como hacerlo. Aznar, los días 11, 12 y 13 de marzo nos contó unas trolas infumables sobre la sangre de 200 madrileños en A3 media y TVE y Mediaset para intentar no perder las elecciones del 11-M-2004.

        El Aznar del futuro, que será igual de malo que el actual, tendrá un software que le guiará sobre como mentir sin que se note tanto. Como influir en la sociedad sin parecer tan patéticamente mezquino y miserable como lo fueron Aznar, Acebes o Zaplana aquellos días.

        Si, con un buen AI assistant, quizás hubiesen podido hacer creer algo mas refinado a millones de ciudadanos, y ganar las elecciones.

  • #013
    Gorki - 10 junio 2023 - 11:20

    No lo siento en absoluto, a mi la IA me parece algo tan útil para un futuro próximo, como la electricidad o la informática, pero lo cierto es que hoy la IA realmente nos tiene acojonados.

    El 88% de los españoles propone regular la Inteligencia Artificial Generativa

  • #014
    Xaquín - 10 junio 2023 - 11:34

    Una tostadora tiene dos problemas básicos, y ninguno depende de ella.

    Si eres algo tonto y tocas con los dedos la resistencia interna, o pillas las tostadas con los dedos (sin cuidado), vas jodido/a/e.

    Si no sabes calibrar (ah, los dichosos filtros mentales para interactuar con la realidad), el tiempo de tostado, vas a encontrar tostadas poco adecuadas.

    Como decimos, ambas caraterísticas dependen exclusivamente del agente que interactúa con la tostadora. Para nada depende de la propia tostadora, por muy poco «inteligente» que sea.

    Ergo, si una IH tiene problemas con una IA, es por deficiencias en el circuitado neuronal del ser humano soporte (mediocre versión…).

    Pienso que incluso las tostadoras más baratas (o las IAs) pueden ser domesticadas, para servir a una IH «con posibles» (de capacidad mental, no monetaria).

    También es cierto que una buena feria, da para sacar conclusiones muy diferentes, en función de como nos vaya en ella.

    Espero que los desarrolladores de aplicaciones sean profesionales, por muy freeprogramatorius que sean, y le ofrezcan a estas gafas de Vision Pro el software que se merecen.

    Y si, también que Samsung logre bajar su precio (aunque no lleguen a ser un Mercedes o un Tesla). Aunque considero que, el reparto más equitativo de la riqueza terrestre, es un objectivo (para mi) mucho más deseable.

  • #015
    Michel Henric-Coll - 10 junio 2023 - 14:58

    EDans escribe: «no tienen más intención que la que les damos, no tienen propósito ni meta más que la que les programamos, y no tiene más ambiciones que las que le introduzcamos como código.»

    y yo digo que EDans tiene una visión y una comprensión limitada del tema.

    No lo digo para molestarle, incordiarlo o contradecirle por placer. Pero tiene una visión aún mecanicista del asunto.

    ¿Máquinas inteligentes o no? Todo dependen de cómo definimos la inteligencia. Hasta un protozoario tiene inteligencia, cualquier célula de nuestro cuerpo tiene inteligencia. Porque es capaz de conceptuar la vida y la muerte y por tanto discernir los comportamientos que le llevan a sobrevivir de los que no.

    Y esto ya es una forma de inteligencia.

    ¿Qué las máquinas no tienen más metas e intenciones que las que les damos? De momento, lo admito.

    Pero a partir del momento que tendrán acceso a más formas de datos que no les hemos suministrados voluntariamente (algo inevitable), dispondrán de todos los modelos necesarios para crear sus propias metas.

  • #016
    Dani - 11 junio 2023 - 00:12

    No acabo de entender por qué la gente se centra tanto en la posibilidad de que la IA se rebele y empiece a hacer cosas malas.
    ¿Qué más da esto? No hace falta que se rebele. Ya sabemos que se dedicará a hacer cosas malas porque los países lo usarán como un arma.

    El único debate, en cuanto a los peligros de destrucción de la IA, creo que debería ser si, como arma, cuando evolucione mucho será muy peligrosa o no.

  • #017
    ALICIA EDITH ABREGÚ - 11 junio 2023 - 05:02

    ¡Excelente artículo! Muchas gracias. ¡Afectuosos saludos desde Córdoba, Argentina!

  • #018
    Luisondome - 12 junio 2023 - 20:58

    Hoy, Francisco Perez Bes, abogado experto el legislación digital, escribe en su muro de LinkedIn sobre el debate y la votación sobre la primera normativa sobre inteligencia artificial en la Euro Cámara, y dice lo siguiente:

    Los eurodiputados debatirán el martes 13 de junio de 2023 y votarán el miércoles 14 de junio un proyecto legislativo pionero en el mundo para gestionar la inteligencia artificial (AI) e impulsar su utilización bajo supervisión humana y respetando los valores de la UE, incluidos el respeto de la privacidad y la no discriminación.

    Las reglas propuestas siguen un enfoque basado en el riesgo y establecen obligaciones para los proveedores y usuarios dependiendo del nivel de riesgo que puede generar una AI, hasta la prohibición en casos en que ese nivel se considere inaceptable.

    Entre otras prioridades, el borrador de informe plantea prohibir los sistemas de identificación biométrica remota, la categorización basada en características sensibles, la vigilancia policial predictiva y los sistemas de reconocimiento de emociones.

    Los eurodiputados también proponen normas a medida para la IA generativa, como ChatGPT, incluido el etiquetado de los contenidos generados por estos sistemas y la obligación de publicar resúmenes de los datos protegidos por derechos de autor utilizados para su formación.

    Para impulsar la innovación en IA, los eurodiputados se inclinan por exenciones para las actividades de investigación y los componentes de IA de código abierto, así como por impulsar los entornos de pruebas controlados por las autoridades públicas para testar la IA antes de su despliegue.

    Un ejemplo de uso de IA en entornos equivocados:
    Hace unos días, se celebró en Alemania un evento masivo que marcó un hito en la fusión de tecnología y religión. En un edificio neogótico ubicado en las ciudades bávaras de Nuremberg y Fuerth, se desarrolló un servicio religioso de AI.
    Cientos de protestantes alemanes se congregaron para presenciar el espectáculo de un chatbot ChatGPT, una máquina, que los guió a través de 40 minutos de oración, música y sermones. El evento fue parte de la convención Deutscher Evangelischer Kirchentag, atrayendo a decenas de miles de creyentes para discutir su fe y los problemas mundiales actuales.
    Si bien este evento fue una demostración sorprendente del potencial de la tecnología de IA, también destacó las limitaciones y los riesgos de los sistemas totalmente automatizados. Incluso cuando AI desempeñó su papel de manera competente, algunos asistentes sintieron la falta de contacto humano y conexión en los sermones pronunciados con una voz monótona y un rostro inexpresivo.

    Este ejemplo de evento masivo de IA fallido fue un servicio entregado por un avatar conocido como GODGPT. Su voz monótona y falta de emoción provocó la risa de la congregación. Un sentimiento de desconexión emanaba de las palabras pronunciadas, lo que dificultaba que la congregación participara en el servicio. Si bien la tecnología fue impresionante, la falta de cualidades humanas (corazón, alma, lenguaje corporal) hizo que la experiencia fuera alienante para algunos asistentes que la encontraron “cada vez más desagradable a medida que avanzaba”.
    La experiencia sirvió como advertencia: si bien la IA puede realizar tareas de manera eficiente, la aplicación de la tecnología debe ejecutarse cuidadosamente para lograr el efecto deseado.

    Esto, y otras experiencias similares, es lo que tiene que evitar la nueva legislación de la Unión Europea.

  • #019
    Dedo-en-la-llaga - 13 junio 2023 - 18:16

    Estando parcialmente de acuerdo, o de acuerdo con matices, me resultó harto, pero muy harto sospechoso la moratoria de, ¡¡¡ta-chan!!! ¡¡¡6 meses, señores, 6 meses!!! Ja, ja, ja, ja, estos idiotas no acababan de terminar su aviso y ya habían pasado los 6 meses… Vamos, de risa. Eso sí, pedir moratorias para que se paren las guerras, la producción de armamento, la contaminación, o que el botarate de Musk deje de lanzar sus pedos tóxicos y contaminantes al espacio, etc., etc., eso lo dejamos para otro momento que lo de la IA es mucho más importante. Qué nivel.

Dejar un Comentario

Los comentarios están cerrados