El complejo reto de regular la tecnología

IMAGE: Alexandra Koch - Pixabay

Mi columna en Invertia de esta semana se titula «El futuro ecosistema de la IA» (pdf), y habla sobre la regulación de los algoritmos generativos y del machine learning en general, y de hasta qué punto puede afectar el panorama competitivo que se establezca a partir de ella.

Resulta muy llamativo presenciar los procesos de regulación puestos en marcha a partir de la irrupción de la algoritmia generativa en la sociedad, fundamentalmente desde el momento en que OpenAI, aplicando una filosofía muy del estilo Silicon Valley, lanzó dos productos, Dall·E y, sobre todo, ChatGPT.

En ese sentido, vale la pena invertir un buen rato – el vídeo completo dura casi tres horas – en ver la comparecencia del cofundador de OpenAI, Sam Altman, junto con la directora de privacidad y confianza de IBM, Christina Montgomery y el profesor emérito de Psicología de NYU Gary Marcus, ante el Congreso de los Estados Unidos, y compararlo con el proceso legislativo que ha llevado al desarrollo del borrador de la norma europea que pretende regular la misma tecnología.

En el caso de los Estados Unidos podemos ver un genuino esfuerzo por alfabetizar tecnológicamente a los miembros del Congreso: el presidente del comité, Richard Blumenthal, comienza la sesión anunciando que va a hacer una introducción al tema, pero deja de hablar, se mantiene ante el micrófono con la boca cerrada, y lo que suena es una grabación que es, en realidad, un deepfake de su voz leyendo un texto generado por ChatGPT respondiendo a la pregunta de cómo debería él abrir esa sesión.

La idea puede parecer ya manida: hace tiempo que muchos utilizamos deepfakes y preguntas a ChatGPT o a otros algoritmos para ilustrar nuestras presentaciones, pero por más que lo intento, no consigo imaginarme algo así en, por ejemplo, el parlamento europeo o el español: políticos que, como parece evidente en el caso de los tres participantes principales, el propio Richard Blumenthal, el republicano Josh Hawley y el líder de la mayoría demócrata Dick Durbin, no solo se han preparado el tema con profesionalidad y llevan a cabo presentaciones bien estructuradas, sino que hacen además el ejercicio de buscar invitados relevantes y de hacerles preguntas perfectamente pertinentes e interesantes. Ser profesional cuando representas a tus electores no parece tanto pedir, y más aún recordando sesiones pasadas en las que algunos representantes parecían estar enormemente perdidos con respecto a, por ejemplo, el funcionamiento de redes sociales como Facebook, pero mucho me temo que, en el caso de parlamentos como el europeo o el español, esos representantes tienden a estar mucho más perdidos y a recibir mucha menos información.

Que los políticos terminen legislando sobre asuntos de los que no entienden prácticamente nada resulta desgraciadamente habitual. Que quien regula una tecnología no sepa nada de ella y termine guiándose por criterios como el nivel de alarma social que genera es profundamente preocupante, porque las primeras nociones que muchos tienen de una tecnología incipiente suelen estar basadas en el miedo y en el inmovilismo, y regular algo que percibes más como amenaza que como oportunidad tiene un problema evidente.

En el caso del borrador de legislación europea, nos encontramos con que pretende obligar a cualquiera que ponga un algoritmo en el mercado a licenciarlo y certificarlo asegurando que no atenta contra ningún posible riesgo, algo que prácticamente imposibilitaría, por ejemplo, el modelo de desarrollo mediante comunidades de código abierto, posiblemente una de nuestras mayores esperanzas de obtener algoritmos desarrollados de manera transparente y sin intentar servir a intereses corporativos espureos. La idea de un desarrollo del machine learning únicamente en manos de grandes compañías tecnológicas debido a que son consideradas como «los únicos actores responsables» cuando, de hecho, han probado sobradamente su enorme nivel de irresponsabilidad y su cultura del «muévete rápido y rompe cosas» podría ser el peor efecto secundario que surgiese de un proceso regulatorio para una tecnología como el machine learning.

La regulación es muy importante y necesaria, pero una mala regulación puede convertirse en cómplice de muchos problemas. Cuando hablamos de machine learning, la regulación debe asegurar que no se traspasan determinadas líneas rojas para que, por ejemplo, se utilicen algoritmos generativos para intentar manipularnos, provocar que hagamos clic en anuncios, espiarnos o vendernos productos, porque los efectos de eso ya los hemos visto en la tecnología anterior.

La regulación de las redes sociales y de internet en general falló estrepitosamente porque permitió que determinadas empresas crecieran a su antojo comprando y copiando todo aquello que les viniese en gana con un desprecio total a la legislación antimonopolio, y porque además, les permitió traspasar la barrera que protegía la información personal: antes de Google y Facebook, la única forma de hacernos publicidad era basándose en elementos tan genéricos como si veíamos uno u otro programa en la televisión, si pasábamos por un sitio determinado o si comprábamos un periódico o una revista concreta. Tras ellos, se estableció como normal hacernos publicidad basándose en lo que pensábamos de cualquier asunto, en nuestras creencias políticas o religiosas, en nuestro género, en nuestros miedos o en si teníamos una enfermedad determinada. Todo eso se normalizó a pesar de que no existía consenso social alguno para ello, y de hecho, sigue siendo supuestamente legal, aunque nunca debería haberlo sido. Llamar a eso un error de la regulación es quedarse tremendamente corto.

Con el machine learning no deberíamos incurrir en ese tipo de errores. Deberíamos ser capaces como sociedad de detener inmediatamente iniciativas que consideremos predatorias, malintencionadas o destinadas a explotar cuestiones que no deberían ser explotadas, pero paradójicamente, hay ya algunas en marcha, en algunos casos con protagonistas que ya mostraron su absoluta irresponsabilidad en numerosas ocasiones, y nadie habla de detenerlas. Meta o Google ya pretenden utilizar algoritmia generativa para ayudar a los anunciantes a que desarrollen el mejor formato para cada usuario basándose en todas las características que conocen de él, pero sospechosamente, ningún político pestañea ante ello.

Regular no es reunirse en el parlamento y, en función de criterios absurdos, superficiales e ignorantes, dictar las primeras normas que se nos pasan por la cabeza, o las que creemos que van a gustar más a unos electores igualmente desinformados. Regular debería ser actuar con responsabilidad, hacer esfuerzos para adquirir un criterio informado, invitar a quien haya que invitar para que nos ofrezca su visión, investigar, y finalmente, llegar a un modelo de normas planteadas con responsabilidad, que no coarten la innovación pero sí protejan a la sociedad ante excesos evidentes. ¿Es realmente tanto pedir? ¿Se aproxima el proceso regulatorio europeo que estamos viendo a algo así? ¿O se limitará a repetir los errores anteriores?

Desgraciadamente, la pregunta es retórica.


This article is also available in English on my Medium page, «Why I’m afraid that European legislation on generative algorithms is going to repeat the mistakes of the past»

35 comentarios

  • #001
    Notenio - 17 mayo 2023 - 12:32

    y muy relevante la pregunta.

    Campo abonado para lo lobbies para que instruyan a los legisladores. Horror

    Me temo que es causa perdida esperar que los políticos se formen en algo tan crucial, complejo y determinante para el futuro como esto.

    Que Díos o la IA nos coja confesados

  • #002
    Lua - 17 mayo 2023 - 13:29

    Hombre, hace poco, por decir que era necesaria una regulación, se me echo todo diox encima… XDD Ahora lo dice el propio Altman.

    La pregunta, será retórica, y no falta de ironía según se lea. Pero no puedes esperar que los políticos “entiendan” de algo, que los propios desarrolladores están diciendo que no saben que pasa en sus tripas. OpenAi esta usando a GPT4 para averiguar que pasaba dentro de GPT2…

    Otrosi: este fin de semana “jugando” con el Gepeto, a la pregunta “Como eliminar un padrastro”, nos recomendó la amputación del miembro para evitar males mayores, eso sí, rogándonos encarecidamente que fuera por un profesional, y con toda la educación del mundo. XDD

    • Matt - 18 mayo 2023 - 01:14

      Que decepción. Cuando he leído lo de «como eliminar un padrastro» he pensado que el comentario acabaría con las instrucciones que el Gepeto te había dado para deshacerte del marido de tu madre.

      • Lua - 18 mayo 2023 - 08:19

        Y asi fue… su primera respuesta fue el rollo ese de que es una IA decente y no puede dar respuestas que motiven la violencia, el racismo y bla bla bla…

        Luego le explicamos que mas podia ser un padrastro… :P

    • Chipiron - 18 mayo 2023 - 14:07

      Para mí está claro que el problema es que los creadores de estos LLMs no tienen ni idea de como funcionan por dentro, y de ahí que sea difícil poner puertas al campo…

      Sí había leído de ciertos esfuerzos por entender como funcionan. Ya dije que unos científicos consiguieron que un LLM pensase que la Torre Eiffiel estaba en Roma y no París toqueteando los pesos de la neuronas del sistema, lo cual puede (o no) ser un logro interesante en el entendimiento de como funcionan.

      Y la noticia de LUA sobre utilizar GPT4 para ver como funciona por dentro GPT2 me parece una buena aproximación.

      Pero mientras las respuestas sean, hasta cierto punto, imprevistas, tenemos un problema con este tipo de algoritmos si no se educa a la población a no dar por sentado que lo que dicen «va a Misa».

      O sea que quizás mostrar masivamente a la población los errores que pueden cometer sea una manera de minimizar riesgos mientras «los monstruitos» no se pueden controlar…

  • #006
    Benji - 17 mayo 2023 - 14:20

    Todo se quiere regular, pero eso también mata la innovación.

    Pongo siempre como ejemplo la… laxitud de la ITV en USA. Tus ruedas pueden ser gigantes, pueden estar dos metros por debajo de la carrocería o pueden ser seis, nada de eso es relevante, permiten a la gente adaptar la carrocería, pintarla, ponerle pegatinas de todo tipo, llevar una matrícula delante o detrás (no es obligatorio ambas en todas partes) y ciertamente tunear los motores.

    ¿Aquí? Aquí recortas el tubo de escape y estás frito.

    ¿En qué país se da más innovación? ¿Por qué Tesla o Waymo operan en USA y no en España o Francia? Me temo que ese es el problema.

    ———

    Otro caso: Los drones con pasajeros. Aquí el funcionario de turno te dice «si vuela, debes tener licencia de piloto, avisar a las FFAA y UE y todo quisqui del plan de vuelo, propósito, duración, altura, tener seguro contra blablabla….

    En USA: En tu rancho mandas tú, así que te construyes tu propio dron y lo haces volar.

    Os apuesto algo que las primeras empresas de drones con pasajeros serán de un lado u otro del pacífico, pero no del mediterráneo.

    ———–

    Y así nos va, solo queremos regular cosas que a veces ni se entienden y con «expertos» que nadie sabe quienes son (como los de Fernando Simón) o cuya experiencia se reduce al sector público, nunca al privado. Y eso… eso se paga al final

    • Notenio - 17 mayo 2023 - 16:11

      Toda la razón Benji, en este lado del planeta hiperregulamos. Creo que fue un argumento de los brexiters, no? pregúntales cómo les va, por otra parte.

      Buenos ejemplos traes a colación. No obstante, diría que nos enfrentamos a otra dimensión de reto. Las derivadas son increíbles en lo bueno y en lo malo.

      La propia compadecencia de Altman es significativa: «por favor, regulennos!» y lo indica como amenaza a la humanidad… tela

  • #008
    Gorki - 17 mayo 2023 - 16:29

    Si regulas y penalizas las malas consecuencias de aplicar un chatGPT o otra herramienta semejante, ya has resuelto las 4/5 partes del problema , quien lo use ya se preocupará, por la cuenta que le tiene, de «censurar» convenientemente los resultados.

    La herramienta mas peligrosa es el lenguaje, tanto hablado y escrito, pero su uso no está regulado, tu puedes escribir/decir lo que quieras, Pero las consecuencias de lo que dices o escribes si son tuyas, si difamas, propagas mentiras, atacas con la palabra dicha o escrita a otra persona, no te extraña absolutamente nada que termines en los tribunales.

    Igual pasa con la fotografía, en principio nadie censura lo que puedes fotografiar, pero si la fotografía, (o su obra derivada), se utilizan para difamar, propagar mentiras, atacar con imágenes a otra persona, no te extrañe absolutamente nada que termines en los tribunales.

    Pues opino que con las herramientas AI exactamente igual, si pones un chatbot que atiende a las reclamaciones de los clientes y termina dando falsas soluciones o insultando a los clientes, te juegas terminar en los tribunales, porque la respuesta la dará una maquina, pero eres tu quien la ha seleccionado y maneja
    ,

  • #009
    Juan T. - 17 mayo 2023 - 19:22

    Es que , claro, imagínate un europarlamentario de VOX con graduado escolar (y un «master» en inmigración, okupación y separatismo, eso sí) , en un comité del Parlamento Europeo para legislar la IA.

    • Lua - 17 mayo 2023 - 20:02

      Te refieres….

      a estos? XDD

    • chipiron - 17 mayo 2023 - 20:46

      Hola Juan:

      Es sólo una sugerencia: Yo no introduciría temas políticos de partidos españoles en el debate, pues no es un blog político, al menos a ese nivel.

      Ni eres el primero que lo hace y sospecho que no serás el ultimo. Pero cuánto más alejados de la política nacional, creo que nos podremos concentrar todos en los temas del artículo que escriba Enrique.

      Y lo digo confesando que jamás he votado a Vox ni creo que lo haga nunca, no comparto sus ideales.

      Un abrazo y perdona si te molesta mi sugerencia.

      • C3PO - 17 mayo 2023 - 23:00

        Gora Bildu Tabarnia Askatasuna sección IA

        No es español XDDDDD,
        bueno Tabarnia a medias

      • Juan T. - 18 mayo 2023 - 10:11

        Es buena sugerencia en general Chipiron, y no suelo hablar de política si el articulo no lo necesita, pero en este caso va de regulación de la tecnología, o sea de política.

        Pero sí, podía haberme ahorrado la mención concreta de un partido político , en lugar de decir por ejemplo …¿Que políticos son mas susceptibles de entender menos de tecnología en base al nivel de estudios que tienen sus votantes?.

        Y todo el mundo me habría entendido.

        • Enrique Dans - 18 mayo 2023 - 10:31

          Juan T., porfa, cuando puedas envíame un correo a enrique.dans@ie.edu

          • Benji - 18 mayo 2023 - 11:14

            Uf, la liaste parda…

        • Dani - 18 mayo 2023 - 13:40

          Si crees que todo el mundo habría pensado en el mismo partido político, es que vives en un microcosmos muyyy pequeño :D

  • #017
    Chipiron - 17 mayo 2023 - 23:07

    Para regular algo, parece lógico primero entender cómo funciona y que fallos y problemas puede generar.

    Que a día de hoy los LLM son una caja negra (y llena de sorpresas) para sus propios creadores, es evidente. Lo que sí se puede estudiar de forma seria y rigurosa es que consecuencias puede traer. Y sobre dicho estudio determinar la regulación.

    Yo permitiría que las empresas sigan investigando y experimentando, pero hasta que dicho informe no esté acabado, no permitiría acceso general a cualquier usuario.

  • #018
    SANTAS PASCUAS - 18 mayo 2023 - 12:46

    Recogiendo el debate abierto sobre política creo oportuno señalar que todas las voces deben ser oidas, incluidas las de grupos legales como VOX o BILDU. Y en cuanto a IA deberán dar su opinión a la regularización política que debe estar detrás del fenómeno IA. Que dicho sea de paso, también hay un hype y una estrategia de fondo por parte de las Big Techs. Del mismo modo que el tema climático tiene su grupo de poder, y los gobiernos «montaron» el IPCC por algo ( no digo que bueno o malo) pero ahí están financiando ese estudio… y que sus conclusiones son compartidas por una mayoría de políticos y votantes, y siempre habrá una minoría que disienta, por convicción propia o por tener a su parroquia contenta, pero el hecho es el que es, que por ahora los planteamientos ultra son minoria. Y que cuando están en el poder en paises como Italia, Hungria están (por ahora) acatando sus leyes. Eso si manejando como pueden los medios (p.ej Tele 5, Telemadrid, A3) para que los mensajes mayoritarios sean afines. ¿Y en cuanto la IA? Pues me da la impresión que el argumentario y la estrategia la estamos recibiendo de EEUU y que poco a poco se colará en esos medios para ir impartiendo doctrina desde la metrópoli a sus colonias.

    DISCLAIMER

    No juzgo a las personas por su TITULO, de hecho hay personas que tienen o tenemos estudios primarios pero les interesa recoger información de diferentes fuentes y tener espíritu crítico. Y otros que en sus comentarios del día a día, se ve que un TITULO no garantiza que sea un analfabeto funcional en cultura general y que su educación real la podamos leer en su dimensión pública actual ligados a mensajes ultras.

    DATOS NO OPINION

    Fuente enlace EL DIARIO

    Vox cuenta con 3 eurodiputados.

    1. Jorge Buxadé Villalba. Abogado del Estado, pasado en Falange y de las JONS (1995-2003) y PP (2004-2014).
    su despacho de abogados cobró del ayuntamiento de Badalona(Albiol) por trabajos mensuales mediante
    fundación opaca, que llegó a facturar 110.000 euros.
    2. Mazaly Aguilar, Licenciada en económicas, (Bank of America, BBVA, BAnesto, Transmediterránea, Airtel, y C.U. Villanueva (vinculada al Opus). Pero en realidad su CV oficial lo mantiene como no disponible
    3. Hermann Tertsch. Corresponsal y subdirector de ELPAIS. De 1996 a 2007 Columnista. A partir de 2008:ABC, Telemadrid, pero oficialmente sin CV
    Y después conocido por ser lo que alguno llama un Troll en Twitter.

    En definitiva, títulos si, pero funcionalmente adscritos a la ideología ligada al odio al inmigrante, grupos de poder establecido, anti muchas coas, salvo lo que coincide con antiguos postulados no democráticos . En definitiva, Son como los curas pedófilos, que los hay, no significan que no hayan estudiado Teología y el amor a los semejantes.

    • Chipiron - 18 mayo 2023 - 13:58

      Querido SPs:

      Totalmente de acuerdo en que ni una formación universitaria, ni siquiera una cultura general amplia, evita que una persona tenga buenas o malas intenciones. Hay muchos ejemplos en ambos casos, y de cualquier ideología política.

      Precisamente por eso creo que, en un blog básicamente de innovación y/o tecnologia, ya tenemos a veces suficientes trifulcas como para meter la política nacional por en medio, salvo que sea totalmente relevante al articulo.

      Lo que si considero más relevante es la política internacional, pues está relacionada con el libre (o no) comercio, modelos de negocio, posiciones de los partidos políticos de las superpotencias mundiales que marcan tendencia en temas de innovación y tecnología a nivel mundial, etc…

      Pero empezar ahora a decir (sin ser relevante) que si VOX esto, que si P. SANCHEZ aquello, que si PODEMOS aquello otro, etc, puede convertir este foro en un gallinero… y muy alejado de su propósito inicial (al menos tal como yo lo entiendo).

      De todas maneras no es más que mi humilde opinión, no seré yo el que prohiba que se toquen determinados temas en este forum. Quien legítimamente puede hacerlo, en todo caso, el propietario del blog, Enrique Dans. Él ya decidirá que comentarios somete a moderación que puede implicar su publicación o eliminación.

      Un saludo!

      • SANTAS PASCUAS - 18 mayo 2023 - 15:28

        Enrique

        Ya sabes tienes el benéplacito de su santísima ilustrísima para censurar.

        No hace falta para ello insultar, no hace falta propugnar mensajes de odio, sino simplemente por

        a) Opinar que el debate de las IAs tiene un fuerte componente político o ideológico (curiosamente lo mismo que dice él)

        b) Por mostrar que no es necesario no «tener estudios» para ser una persona que propugne ideas no tolerantes, poniendo ejemplos de ellos que son públicos y notorios. Debe ser este el tema que le moleste, ver que hay gente impresentable con estudios… vaya novedad

        De hecho el mensaje se resume en que tiene ganas de censurar pero como no puede sacar las tijeras de la censura propone que el blog se amolde a su ideología excluyente y su complejo de superioridad que destila en muchos comentarios.

        El que ajos come….

        • Chipiron - 18 mayo 2023 - 17:36

          Ni mi ideología es excluyente, ni tengo complejo de superioridad …ni como ajo. Era una sugerencia con la que estoy seguro que muchos lectores estarán de acuerdo.

          El que quiera entender lo que he dicho (hasta Juan T. admite que quizás podría haberlo dicho sin nombres concretos) lo hará clara y meridianamente. Por otro lado, no hay más sordo que el que no quiere oír.

          Por cierto, en general conozco a más buena gente sin estudios que con ellos, pero en general el tenerlos o tener una amplia cultura no te hace ni mejor ni peor persona.

          La película te la montas tú, típico por otra parte. Además con mensajes muchas veces sobrecargadnos de odio. Tu sabrás porqué…

  • #022
    Lua - 18 mayo 2023 - 15:57

    No veo porque se tiene que liar parda como dice Benji… en todo caso, si a alguien le tiene que caer una bronca, es a mi por contestar con un chascarrillo a un comentario (el de Juan T) que a mi juicio no va falto de razón. (con la mejor de las intenciones por cierto, intentar arrancar una sonrisa no está -aun- penado por ley… o si según el caso)

    Como quiera que sea… me ahorro la parrafada (del todo innecesaria) que tenia escrita esta mañana (ya han hablado otros por mi)


    Dicho esto:

    La IA (las) deben ser reguladas. A mi el rollo del “buen rollo” que se llevan no me parece bien.

    Si busco información sobre el nazismo (por ejemplo), porque tengo que hacer un trabajo o por simple curiosidad, me la tiene que dar sin más, y no soltarme el rollo “esto no… caca”. El filtro ya lo pondré yo. La Wiki no me da los buenos dias ni me trata poco menos que como un niño de tres años.

    Pero creo que, si necesita la regulación, sobre todo en tanto al tratamiento de datos personales, a no proporcionar información que pueda ser lesiva (revelación de secretos, fabricación de bombas, incitación al suicidio, etc), y sobre todo, para evitar los sesgos y ofrecer información veraz y neutral (y eso va a ser lo más difícil… Quien controla al controlador?).

    Esa regulación, si o si, va a venir de manos de la política (de derechas o de izquierdas, demócratas o republicanas, sea en USA, en EU o en el ayuntamiento de tu barrio), y convendría empezar por enseñarles, adoctrinarles o lo que quiera que queramos llamar al hecho de que “aprendan” (los politicos), que es eso que tienen entre manos, y no solo escuchar a tecnólogos, sino también a filósofos, catedráticos de distintas disciplinas y también a organizaciones sociales. Porque el alcance es casi infinito y acotar limites es una NECESIDAD.

    Insisto en que cuando los propios creadores estan afirmando «que no saben como»… tenemos un problema.

    ps.- tambien valoro la opcion de que ese «no sabemos como» sea una forma de hype

    • SANTAS PASCUAS - 18 mayo 2023 - 16:16

      De acuerdo contigo y con Juan T. (por si no había quedado claro antes)

      A mi lo que me extraña que para las RRSS esperaron más de una década, p.ej. FB surge en 2003 y CA sute en 2013 y escándalo con Trum es de 2018.

      Y Gepeto está casi en pruebas, con la beta pública desde Noviembre, y ya están diciendo que tienen una bomba que puede explotar

      No me cuadra, ahora hay que regular a un «charlas» que cuando la respuesta tiene que dar un salto de la wiki a otra web, ya se lía y se inventa un rollo???

      ¿Por qué?

      • Lua - 18 mayo 2023 - 17:03

        Porque prefiero una regulacion antes que poner tiritas en la herida…

        Donde mas veo el peligro no es en la IA en si… sino en «quien» la controle y como no, y mas peligroso… «quien» la use… (los votantes de y de y de…)

        Ahora se entiende mas? :P

      • Lua - 18 mayo 2023 - 17:19

        Para que veas por donde voy…

        Iker Jimenez y las IA

        XDD

        • SANTAS PASCUAS - 18 mayo 2023 - 17:49

          Hay una película 2050 que trata sobre robots de acompañamiento, que es muy lenta y muy hablada, es curioso lo que viene al pelo de GPT… hay que escuchar los diálogos, curiosamente está a la altura de otras conocidas pero no es muy comercial, y por eso solo tiene un 4 en filmaffinity

          https://www.youtube.com/watch?v=sLNXzhTizHA
          https://www.filmaffinity.com/es/film966422.html

          PS: Por cierto voy a seguirte respecto a lo que te imaginas, nada como la nada!

          • Lua - 18 mayo 2023 - 19:12

            Creo que la vi…

            ps.- es un descanso, creeme…

          • Lua - 18 mayo 2023 - 20:12

            Vale… dos cosas…

            – Te confirmo que 2050 la vi hace un mes (aun la tengo disponible)

            – El twitter de antes no vale (o si, porque sus comentarios son oro)

            el bueno es este:

            DotCSV sobre Iker

          • chipiron - 18 mayo 2023 - 20:59

            Una cosa está clara: Para decir que «algo» tiene consciencia, primero hay que definirla bien y saber que és.

            A día de hoy hay algún científico que lo intenta, pero por ahora cualquier estudio sobre el tema se considera, por la mayor parte de científicos, como «pseudociencia». Por algo será…

            Y estoy muy de acuerdo con dotCSV, claramente tener consciencia y conseguir una AGI son cosas completamente distintas.

            Y personalmente, aunque podamos estar un poco más cerca, no creo que hayamos llegado a la AGI todavía…

        • SANTAS PASCUAS - 18 mayo 2023 - 20:30

          Ay esa memoria !!!

          De todas formas el tema va un poco retrasado…

          https://www.enriquedans.com/2023/03/descifrando-el-algoritmo-modelos-de-lenguaje-masivos-y-transparencia.html#comment-493834


          "Primero, que igual se ha pasado por alto este paper.

          * Sparks of Artificial General Intelligence: Early experiments with GPT-4 Viene en un link encadenado de Enrique. Y es una aproximación informal a lo que piensan sobre GPT-4 en MS.

          Bueno hay atisbos de inteligencia o al menos emerge alguna propiedad? Pues en mi opinión no lo pero OJO, es bueno leerlo y como han puesto a prueba una versión preliminar.

          A la respuesta es inteligente esta IA?

          El principio sería: define que es ser inteligente

          de una definición de consenso de 1994, esta IA destaca en algunos aspectos.

          Me ha dado la sensación que cualquiera que ahora diga «esta máquina es inteligente» tendremos el sesgo (yo lo tengo) de este es un alucinado…. dicho esto sigo pensando no podemos afirmar que lo sea,

          ….pero nos pone un paper con multitud de pruebas que le han pasado y sus resultados.

          No es la típica gilipollez dicho por alguien para haceres con un montón de tweets diciendo esto es inteligente, o esto es peligroso, ni demás payasadas que podemos leer en cualquier lado.

          ¿Pero razona? ¿interpreta? ¿planifica? ¿resuelve problemas complejos? ¿maneja abstracciones? ¿aprende de la experiencia?

          Creo que debemos de tener un sesgo en ciencia, todo lo que no es replicable en nuestro laboratorio, es pseudociencia, y esto no es replicable les han dejado una versión de desarrollo y ahí llega el detalle. (Sres de MS, hacen un estudio como este y no dicen es la versión X Build Y de fecha Z)…si no fuera por lo detallado del paper ahí deberíamos dejar de leer…

          Ahora mismo no tenemos acceso al detalle técnico de GPT4, que filtros tiene, que arquitectura, etc… por lo tanto, no sabemos si la caja negra que nosotros vemos es equiparable a la que MS le hizo pruebas. Por ahora la AI con la que podemos interaccionar tiene una memoria de trabajo (histórico) limitada y fuera de ese contexto, desaparece. Por tanto no es un paper extrapolable, pero si asumimos que no nos mienten (porque iban a hacerlo?) alguno de los resultados es impresionante

          Que debería hacerse?

          OPENAI debería dar detalles técnicos de verdad, y no la chuminada de «technical report» que da vergüenza ajena

          Deberían ponerse, a disposición de los usuarios versiones libres de pago, para coroborar lo que ellos afirman que hacen

          Y hacer más papers con más calado al estilo del de MS

          Mientras estamos en manos del marketing"

          • Lua - 18 mayo 2023 - 21:41

            Me lo dices a mi? A Iker? a Sauron? XDDD

          • C3po - 18 mayo 2023 - 22:48

            El primero que metió el enlace fue Enrique…

          • C3po - 19 mayo 2023 - 10:11

            Lua,
            Releyendo me ha hecho gracia esto

            «No es la típica gilipollez dicho por alguien para haceres con un montón de tweets diciendo esto es inteligente, o esto es peligroso, ni demás payasadas que podemos leer en cualquier lado»

            Y luego mandas el hilo de Carlos, poniendo en su sitio a Iker…

          • Lua - 19 mayo 2023 - 10:37

            El parrafo al que te refieres es de Santas Pascuas… XDD Yo puse el tweet 15min antes :P

  • #035
    Xaquín - 18 mayo 2023 - 16:18

    Empecemos por el final, que es lo que mejor saben hacer los políticos : pedir el puto voto … y a tomar por culo (que para eso está bien preparado el lobby gay… el de «los ricos», claro, porque los pobres no tienen ni lobby ni love… y, menos mal, que aún tienen culo y les queda Portugal!!!).

    Si algo diferencia a un colono del Far West, de un colono español español, fanático del Fdo VII de los Polotós, y toda la derechona facha española, es que los colonos USA, mejor que peor, se planificaban muy en serio la Conquista del Oeste… no valía , ni siquiera esperar, que un Custer y medio te viniera a masacrar, la panda de indios piel rojas, que defendía como podía su territorio.

    Mejor o peor, se había que saber sacar las castañas del fuego. Ellos, cuando salían de su tienda de campaña, tenían claras un par de cosas.

    A diferencia de esos colonos, los españolitos decidieron que era mejor quemar en la hoguera a los afrancesados, venderse a los británicos… y, por supuesto, hacerse casi todos borbónicos y subvencionados… una comisión por aquí, un trabajito de sicario por allá… de vez en cuando, ponerse en modo bandolero, para vivir del cuento torero… (y salir por la TV, cuando ésta llegara). Y, sobre todo, hablar mal del vecino, que siempre podía caer una limosnita del terrateniente o cacique gallego de tuno.

    Pero claro, luego pasó lo que pasó, los yankees, mejor que «go home», porque, como pasó con los franceses solo traen desgracias.

    Y mira que son imperialistas, más que napoleónicos… pero el problema es que con sus marines venían, durante el putísimo franquismo, los «cigarretes» y algo de chocolate (del «normal», que luego vino lo que vino… y no lo trajeron ellos precisamente). Aparte dosis y dosis de leche en polvo, aún no siliconada, que también cuenta mucho.

    Quién nos diera su mediocre democracia, que hasta el Trump supera al político medio de este puto país.

    Y, para colmo, los muy siliconados, ahora nos quieren comer el coco con la morralla de las IA. Hagamos caso a sus gurús, como newbeatles… nada de algoritmos, mejor políticos «of cheap sale»… o el Saldos Arias de la Política, típicamente hispánico. ¡Ellos sí que saben!

Dejar un Comentario a Lua

Los comentarios están cerrados