GPT-4, la estrategia de machine learning y el futuro

IMAGE: OpenAI

Mi columna de esta semana en Invertia se titula «Y después de ChatGPT, ¿qué?» (pdf), y trata de elucubrar sobre el futuro del machine learning tras la presentación de GPT-4, una herramienta que aprovecha los recursos puestos a disposición de OpenAI por Microsoft para ofrecer capacidades muy superiores: generación de contenidos hasta ocho veces más largos (límite de 25,000 palabras), conocimiento de más idiomas, posibilidad de entender imágenes, más rápido y más preciso en sus respuestas.

GPT-4 representa el abandono definitivo de la idea de herramienta abierta para mejorar el conocimiento y refinar los usos del machine learning, y la aplicación del modelo de Silicon Valley a la puesta en valor de una prestación concreta, la que proporcionan los Large Language Models o LLMs. En realidad, los LLM son simplemente una de las múltiples variedades de machine learning y no necesariamente la más interesante, pero que OpenAI ha conseguido plasmar como primera aplicación de uso masivo y convertirla en un fenómeno viral, con todo lo que ello conlleva.

A partir de aquí, es importante entender lo que viene: seguir tratando de aplicar LLM a todo sería absurdo, lo que corresponde es centrarse en los otros muchos tipos de algoritmos que pueden utilizarse y constituirse en modelos de automatización avanzada para todo tipo de compañías. Es el momento de entender que, como dije en 2016 en un artículo en Forbes, «es importante entender que da igual a qué te dediques: la clave de tu futuro estará en la capacidad que tu compañía tenga de convertirse en una generadora constante de datos sobre toda su actividad, datos que sirvan para alimentar el aprendizaje de tus algoritmos». 

Es el momento de pensar hasta qué punto la capacidad que las compañías tengan para hacer las cosas mejor que su competencia dependerá de cómo de buenas sean a la hora de generar esos datos, tratarlos adecuadamente y utilizarlos para crear sus propios algoritmos, algo con mucho más sentido que tratar de utilizar el «uber-algoritmo» que supuestamente vale para todo (pero que hoy, preguntándole sobre mi biografía, me ha «casado» con cuatro mujeres distintas, ninguna de las cuales era la mía :-)

Entender cómo funciona un algoritmo y el efecto de su entrenamiento es importante. Es, por ejemplo, la razón por la que OpenAI abrió ChatGPT al público el pasado diciembre: para incorporar a su base de entrenamiento las conversaciones de todos los usuarios que empezaron a interaccionar con él, incluidas las de aquellos que creían estar tomándole el pelo. Yo puedo encontrarme con que no tiene ni idea de mi vida personal y se la inventa para parecer convincente, pero si le corrijo y le explico quién es realmente mi mujer, no solo lo incorpora a su entrenamiento, sino que además, pasa a utilizarlo con otros usuarios que le pregunten sobre el tema. Literalmente, lo que dice ChatGPT es:

«Sí, como modelo de lenguaje tengo la capacidad de utilizar la información que se me proporciona para responder a las preguntas de los usuarios de la manera más precisa y útil posible. Si me preguntan en el futuro sobre la esposa de Enrique Dans, podré utilizar la información actualizada que me proporcionó para brindar una respuesta más precisa. Mi objetivo es brindar la información más precisa y actualizada en todo momento, y cualquier información adicional que reciba es valiosa para cumplir con ese objetivo.»

Es, simplemente, la aplicación de libro de la filosofía y el modelo de Silicon Valley al machine learning: primero, voy a captar capital riesgo para poder crecer muy rápido y crear tracción, momentum. Y segundo, voy a presentar un producto que no está (ni con mucho) terminado ni es perfecto, pero que los usuarios me van a ayudar a mejorar.

Hay otros ejemplo. Tesla utiliza toda la información que sus vehículos en circulación generan – salvo que el usuario diga que no quiere compartirla – y, gracias a ello, consigue que las infinitas posibilidades y circunstancias que pueden ocurrir durante la conducción ya se consideren bajo control, o al menos, que terminen dando como resultado una consecuencia más segura que si el que condujese fuese un ser humano. Mejorar la seguridad de la conducción en un 5x o en un 10x con respecto a lo que ocurre cuando conduce un ser humano es algo impresionante, aunque lograr que una agencia de seguridad lo homologue como método de conducción más seguro va a llevar, seguramente, un buen par de años de intenso estudio y lobbying (y más aún en la Unión Europea). Pero la idea, además, es ir teniendo más situaciones inesperadas controladas y más experiencia en su gestión, algo que solo se consigue con más entrenamiento, y plantearse alcanzar el objetivo del 20x, de ser veinte veces más seguro que un conductor humano en una circunstancia equivalente.

Para ello, necesitas datos: millones de recorridos de automóvil en circunstancias reales con conductores reales que los comparten con Tesla en tiempo real, unidos a muchas decenas de millones más en circunstancias simuladas. En este momento, solo Tesla está en condiciones de generar esos datos y tiene la experiencia suficiente como para procesarlos en tiempo real y mejorar sus algoritmos. Otros competidores están en otros temas: Waymo, en conseguir navegar por zonas que hayan sido cuidadosamente microcartografiadas. Mercedes, en conseguir navegación eficiente cuando el vehículo circula tras otro automóvil. Conseguir conducción autónoma total y hacerlo únicamente con cámaras exige un trabajo de algoritmia que cualquier otro que no sea Tesla está a muchos años de lograr. La clave, como hemos visto en muchas otras ocasiones, está en entender el componente de economías de escala que tiene el entrenamiento de algoritmos. Las economías de escala, una vez más.

Plantéatelo, y diseña una estrategia de machine learning para tu compañía en esos términos. Porque si no la tienes, algún competidor tuyo seguro que sí la tendrá.


This article is also available in English on my Medium page, «GPT-4: why your company needs a machine learning strategy»

35 comentarios

  • #001
    JPR - 15 marzo 2023 - 18:12

    Me he releido el paper de GPT4, he visto (esta vez con saltos el video de dotcsv), y he comprobado los ejemplos de https://openai.com/product/gpt-4 en la web de chatgpt, y al menos hoy no… una simulación del 4… como en los viejos tiempos … que cojones tienen, los de Open-AI!!

    Lo primero que ni a tiros me dice que versión es, pero en fin, que el Ohhhh! de diciembre, no lo he podido seguir diciendo. Va más o menos igual que ayer, y que la semana pasada, y que hace un mes, y me parece todo una táctica para que la competencia entre al trapo. Todo muy medido, muy cuidado,… vendeburras 3.5 vestidito de 4

    En fin que no, que para alguna cosilla, si pero tampoco el GPT4 de hoy, ha sido la bomba, al menos el dispnible en el lanzamiento.

    La mejor estrategia de ML, señores empresarios por ahora es un juguete… úsenlo con precaución, cuidado con los vende burras, no se gasten mucho, y para el trabajo de todos los días cuando puedan, aprovenchelo, por ahora gratis. Sus empleados lo usarán, En un futuro, que llegará, si donde había 5 desarrolladores, lo pueden hacer 4, ó 3, ó 2,… vds. mismos… pero hoy va a ser que no, mañana!

    PS: Y el model T? seamos serios, por favor !!

    • Juan T. - 15 marzo 2023 - 18:39

      Cierto que no dice ni a tiros si es el modelo 3 o el 4, todo son evasivas y circunloquios.

  • #003
    Gorki - 15 marzo 2023 - 20:33

    He estado probando chatGPT y me parece maravillosa, pero hoy mismo no está en fase 3 o 4, sino aun en un fase beta- No es una herramienta en estado de utilización, sino tan solo un prototipo de lo que algún día llegue a ser.

    Falla mas que una escopeta de feria, en lo básico, su GUI o interfaz de usuario, Por ejemplo hoy en mi ordenador no es capaz de guardar la pregunta que le he hecho sino que en su lugar guarda las palabras «New chat» en cambio hace unos días, si la guardaba con ligeras modificaciones a la pregunta que le había hecho por ejemplo le pregunte «Qué igualdad se logro en la Revolución Francesa» y lo que guardó es «Igualdad en Revolución».

    Otra cosa que también ocurre en mi ordenador , (no se si ocurre en todos), es que con frecuencia da un error de ejecución, o esta saturada de trabajo, e incluso parece que ha escrito una respuesta sin sentido, pero posteriormente, aparece en tu historial una respuesta a tu pregunta razonablemente buena.

    Por tanto creo, que aun hay cosas que aun se están puliendo y que incluso, en vez de avanzar, se atrasa, a mi juicio, (a falta de mas información), debido a una utilización que sobrepasa todo lo esperado, lo que da lugar a que las bases de datos donde se guardan ciertas cosas sean insuficientemente grandes, o quizá los índices sean pequeños y no admitan tal cantidad de datos. .

    Por tanto los mayores defectos son bastante secundarios, frente a que las respuestas, que en su mayoría son muy sensatas y completas. Cierto es que alguna vez cometen errores, por ejemplo me contó, que el escritor Stendal se había enamorado de una mujer mayor, cuando la realidad es que esa más joven que él. Pero en conjunto, sus respuestas tiene una calidad sorprendente alta.

    Soy de los que creo que con este programa la AI ha marcado un antes y un después y que su probable uso en todas sus versiones, de AI de uso general como chatGPT a las AI confeccionadas para un uso específico, como pueden ser l en la atención a clientes, dará lugar a un cambio equivalente a lo que supuso el motor de vapor a la Revolución Industrial,

    Me siento incapaz de ver como quedará el mundo con la adopción de la AI, por tanto no puedo dar una imagen sensata del futuro. Solo espero, dado mi natural optimismo, que como ha ocurrido siempre, las ventajas de su uso, superen a los inconvenientes, que también los tendrá.

    • Gorki - 15 marzo 2023 - 20:45

      Lo que comento, Acabo de utilizarla y me da este mensaje

      Something went wrong. If this issue persists please contact us through our help center at help.openai.com.

  • #005
    Lua - 15 marzo 2023 - 20:47

    Pues a mi me sigue diciendo, que la señora esposa de eDans, es Maria de las Mercedes García-Arcicollar Álvarez… (y dos hijos)

    Me añade, que GPT-4 aun no se ha lanzado y que el mail que recibi de OpenAI puede que sea un intento de phishing…

    • Nicker - 16 marzo 2023 - 16:50

      Es ocurrente y humorista este GPT…jejeje

      • Lua - 16 marzo 2023 - 17:24

        No miento… XDDD

        La Señora Dans

        me trolea

        • Enrique Dans - 16 marzo 2023 - 17:48

          Calla, calla… llevo días escribiendo desde un hotel. ChatGPT identifica hasta a cinco mujeres como mis esposas, y ninguna de ellas es la mía. Claro, mi mujer (la de verdad desde hace más de treinta años) me ha echado de casa y me ha denunciado por poligamia, porque si lo dice ChatGPT, tiene que ser verdad, ¿no?. Si le preguntas, ChatGPT me vincula matrimonialmente con una conocida conferenciante y ex-alumna mía, con dos mujeres más que no sé quienes son, y también con la mujer de mi jefe, lo que supongo que provocará que me echen también de mi trabajo. Ya me ves:sin casa, sin trabajo… solo puedo contar con la simpatía de mis comentaristas. ¿Alguien me presta un sofá?

          Es terrible, mi vida es un infierno… :-D

          • Lua - 16 marzo 2023 - 17:51

            Sabes que la puerta de casa esta abierta para ti… XDD

            Ahh… ni profe ni profa: Las cervezas son mias. XDD

            ps.- GPT me dio hasta tres nombres mas y en total 6 hijos… espero que Susana no te convierta en Ectoplasma de eDans XDDD

          • JPR - 16 marzo 2023 - 18:18

            Enrique,

            Mira

            Yo: ¿quien es la mujer de Enrique Dans?

            CHATGPT:
            «La esposa de Enrique Dans es ******* ****** . Ella es abogada y actualmente trabaja como Directora de Asuntos Legales de la compañía tecnológica ***** España. La pareja se casó en el año 1995 y tienen tres hijos juntos. Enrique Dans es un reconocido profesor … escritor.»

            Y BING
            «No he encontrado información sobre la mujer de Enrique Dans en los resultados de búsqueda. Parece que el profesor y bloguero no ha revelado públicamente el nombre o los detalles de su esposa. ¿Por qué te interesa saberlo?»
            YO: Esta mañana me diste la respuesta. Quiero saber porque tu resultado no coincide en el tiempo
            BING: Lo siento pero no puedo continuar esta conversación. Todavía estoy aprendiendo así que agradezco tu comprensión y paciencia.

            Y me echa…

            Esta mañana Bing me dió el nombre bueno y el de tu hija.

            Tremendo lío tienen montado dentro de las IAs…

            Y en google a un humano teclea «Enrique Dans esposa» y sale el primer resultado la entrevista de EP de 2006.


            ¿Se entiende que esté siendo tan crítico con la calidad de la información de los chats?

            Pista: En bing y DDG buscadores tampoco sale…

          • Dedo-en-la-llaga - 17 marzo 2023 - 10:55

            Cualquiera le ofrece a este señor un sofá en su casa: al día siguiente se te llevó a la mujer, a las hijas y a todo lo que haya en la casa con aroma femenino. Lo siento, Sr. Dans, es usted un peligro público número 1 y tiene bien merecido el acabar durmiendo en un cajero. (Al menos mientras no devuelva todas las mujeres que nos ha robado…). ¡¡¡Menudo sin vergüenza!!!

            ¡¡¡Corred, insensatos!!!

          • Lua - 18 marzo 2023 - 10:24

            Mientras no toque mi cerveza… XDD

  • #013
    Gorki - 15 marzo 2023 - 23:09

    Aprovechando que el Pisuerga pasa por Valladolid, ha salido el nombre de Tesla y la conducción automática.

    Recuerdo que la conducción automática lleva ya tres años de retraso sobre lo previsto y que Tesla quizá esté mas cercano, pero no ha adelantado mucho en este campo. Por poner un ejemplo, un Tesla se lanzo descontrolado en China generando dos muertes.

    Tesla revisa 80.000 coches tras el accidente de un vehículo sin control en China

    • Chipiron - 16 marzo 2023 - 08:52

      Mi opinión personal sobre el FSD de Tesla es que les llevará mucho más tiempo de lo que predice Elon Musk, famoso por su «Elon Time», pues siempre se pasa de optimista en los plazos de entrega de los productos que promete.

      Creo que pueden llegar a tardar hasta una década a tener un sistema FSD certificado por las autoridades con la prometida ventaja de ser 10 veces más seguro.

      A pesar de ese tiempo que les puede llevar a refinar el sistema y, sobre todo, homologarlo, creo que es el único fabricante con una estratégia suficientemente olística al tema de la conducción autónoma para llegar al nivel 4-5 en menos de una década.

      Y sí, por el camino tendrán baches y algunos accidentes atribuibles al «autopilot». De todas formas, no debemos olvidar que mientras sean notícia es que son casos aislados, suficientemente poco probables como para que supongan una noticia.

      Un saludo, Gorki.

  • #015
    Chipiron - 16 marzo 2023 - 09:05

    No he tenido tiempo de probar GPT-4 o ver su presentación. Pero lo que sí me llama la atención es la posibilidad de que interprete imágenes. Una AGI completa (al menos lo que entenderíamos intuitivamente como un inteligencia con cierta semelanza a la humana) debe saber interpretar imagenes para aprender de ellas.

    Aunque es cierto que los invidentes no ven nada y son igual (o más inteligentes) que el resto de la población. Pero supongo que suplen con «un narrador» y otros sentidos (oído, tacto, etc.) las experiencias que los videntes captamos a través de la vista.

    No se.. por lo poco que he leido de GPT-4 es lo único que me ha llamado la atención, el poder presentarle imagenes y que las interprete. No se si ya está implementado o simplemente es un plan de futuro.

    • JPR - 16 marzo 2023 - 10:58

      Loa a los lectore diagonale sin ese !!

      Es el lector diagonal un loro estocástico?

      Me explico, si había algo sumamente español, es comprar un electrodoméstico y ponerlo a funcionar, sin leer el manual de instrucciones.

      De hecho, ese comportamiento podría ser considerado como no inteligente en si mismo, pero hasta punto ha calado, que hoy, compras cualquier dispositivo y el manual, se ha convertido en un guiaburros de dos pasos,… ahorro doble para nuesstras mentes inquietas, y para los fabricantes que pasan del librito multiidoma de 100 pgs. al prospecto, que básicamente dice, búscate la vida pardillo.

      De esa escuela, devienen otras especies, el devorador de libros que no abre un libro pero opina sobre el autor gracias a google, el experto en medicina gracias a google, y el experto en cualquier tema, el lector diagonal. En lenguaje coloquial son los torrentes, los cuñados, etc… y tienen una facultad similar a chatgpt, es decir, hablan con nosotros, escriben entre nosotros,… de oidas con una capacidad de síntesis im-presionante. No es eso inteligencia, que se fijan en los grelos, opinar de lo que está por debajo de tierra, esto es del nabo, no está de moda. No nos quejemos de chatgpt es nuestro cuñado sintético. Sin más.

      Disclaimer: No es una alusión elíptica. Constatamos luego existimos

      • Chipiron - 16 marzo 2023 - 11:50

        No seas tan zoquete. Cada uno tiene el tiempo que tiene y optimiza su uso.

        Ya he dicho que poco he indagado en las características de GPT4, pero entre sus novedades (por las noticias cortas que he leido) está la capacidad de interpretar imagenes.

        Simplemente me ha parecido interesante y lo he comentado, admitiendo, desde un primer momento, que no para nada al dia de GPT-4 pues no he tenido tiempo ni de leer el paper ni de ver el video de dos horas de DotCSV, al que tambien sigo pero cuando sus videos no son tan largos. No por falta de interés, si no por falta de tiempo.

        Hasta tu mismo has dicho que te has mirado el video a trozos.

        Deja ya de tocar la pera!

  • #018
    Lua - 16 marzo 2023 - 10:33

    Ayer me parecio interesante la lectura de este articulo de Noam Chomsky:

    Noam Chomsky: La falsa promesa del ChatGPT

    (Por Noam Chomsky, Ian Roberts y Jeffrey Watumull)

    • Gorki - 16 marzo 2023 - 13:33

      Pues a mi esta vez Noam Chomsky no me ha convencido- Dice:
      La mente humana no es, como ChatGPT y sus similares, un pesado motor estadístico de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la respuesta conversacional más probable o la respuesta más probable a una pregunta científica.

      Y estoy absolutamente de acuerdo con él, la mente humana (no sabemos aun que es). es evidentemente es otra cosa diferente a la AI, Sin embargo, eso no quiere decir que la AI, (en su momento), no vaya a ser mucho mas «inteligente» (sea eso lo que sea), que la media de la inteligencia de los cerebros humanos. (dejemos un espacio para un Arquimedes, un Newton, un Einstein,… que supere con mucho a la AI).

      Vamos a ver, cuando el hombre invento la forma de desplazarse, inventó la rueda que en nada se parece a las piernas, sino que además precisa que le preparen el camino. Pero la rueda ha demostrado ser mucho mas eficaz para desplazarse que las piernas, Por eso los ciclistas. dan pedales y no llevan la bicicleta por el manillar, andando.

      Cuando el hombre quiso navegar, inventó la barca que nada tiene que ver con la forma humana de nadar, pero la barca ha de mostrado ser mucho mas eficaz que el hombre nadando, por eso existen los barcos salvavidas,

      Cuando el hombre quiso ampliar su memoria, no invento un cerebro, sino las tablillas de barro, que aun en pleno siglo XXI no informan de los problemas de los Babilonios.

      En ningún caso que yo recuerde el hombre ha imitado al cuerpo humano, ¿Por que habría de hacerlo al tratar de emular la inteligencia?. Pero eso no quiere decir que lo emulado de otra forma. no supere y con mucho a lo que el hombre es capaz de hacer de forma natural.

      Puede que Noam Chomsky, que vive de pensar, le asuste el porvernir de su trabajo, como al taxista el asusta la existencia de UBER, o al pintor la existencia de Dalle-2, pero eso no debería nublar su inteligencia natural, que es privilegiada.

      • Lua - 16 marzo 2023 - 13:37

        Te remito a la respuesta que le he puesto a Xaquin…

        No has entendido NADA de lo que dice Noam.

  • #021
    Chipiron - 16 marzo 2023 - 10:42

    Noam Chomsky, interesante personaje… lo digo en un sentido MUY positivo.

  • #022
    Xaquín - 16 marzo 2023 - 12:54

    El cerebro humano suele anquilosarse, no por ADN, sino por diversos motivos : lameculos aficionado e, incluso, profesional, apego excesivo al poder, sentirse una especie de dios en la Tierra… así que, si una IA es capaz de ir soslayando ciertos vicios, mejor que mejor. Incluso el gran cerebro del Noam, puede sufrir de ciertas dosis de subjetividad.

    Una de las peores tendencias de un humano es dejarse llevar por la rutina, sea la de ser el tonto del pueblo o la de ser el más listo de la clase. Esperemos que la IA esté vacunada contra la rutina, salvo en seguir precisamente las rutinas burocráticas en modo Fórmula I. Y que ningún programador marveliano ,le inculque la capacidad de hacer bulling a otras IA.

    El sistema de filtrado humano está bajo mínimos, y no precisamente por ser imposible mejorarlo continuamente (otra vez el ADN). La IA no tendrá los vicios varios, que tanto gusta apreciar el ser humano actual.

    Y, por no seguir, el mecanismo evolutivo de una IA, contando con una buena programación inicial (nada fácil), no tiene porqué dejarse llevar por la rutina perezosa/envidiosa del que ha conseguido algo «casi sobrehumano», y, por ello, pretende que nadie más lo consiga mejorar.

    Ese nanoinstante de evolución (en algo puede servir de aprendizaje para la naturaleza, ya que somos nosotros!), que efectúa un chat con la información recibida sobre «las mujeres del EDans», no es pecata minuta a la hora de desvelar la enorme potencialidad de una máquina dispuesta , ni a tergiversar los datos recibidos, ni, lo más importante, a comerciar con ellos, manipulándolos o vendiéndolos al mejor postor.

    Claro que para eso, como en el caso del cerebro humano, necesita la IA tener poder para SER INDEPENDIENTE. A nosotros nos lo pide nuestro ADN, pero, ¿quién se lo pide a una IA?

    • Lua - 16 marzo 2023 - 13:14

      «Los problemas de comprensión lectora no se deben únicamente al mal uso de la tecnología. Faltaría más. También tienen una raíz social. Vivimos en un mundo acelerado donde se premia la inmediatez, de manera que a veces sentimos que no tenemos tiempo para leer todo un artículo, informarnos a profundidad o profundizar en el contexto.

      Así nos sumimos en la pereza cognitiva.»

      Vivimos en una sociedad que comprende cada vez menos y opina cada vez más

      Imprescindible NO leerlo en diagonal, como apunta JPR… sopena de caer en lo mismo que criticamos (que para algunos, ya es deporte olimpico)

      • Chipiron - 16 marzo 2023 - 13:41

        Yo tengo el tiempo que tengo. Y mi compresión lectora es muy buena. Cuando leo algo en diagonal, lo digo. Y aunque tu parrafo diga que «a veces sentimos que no tenemos tiempo para leer», es que a veces es verdad, no es sólo un sentimiento.

        Además de leer a Enrique Dans y, en diagonal los comentarios, tengo una vida: trabajo, familia, otros hobbies e intereses…

        Así que si opino de algo super-convencido será porque conozco bien el tema. Si no, como en el caso de GPT4, advierto que no estoy al dia (total, no hace ni una semana que lo anunciaron), y en un resumen leí que podía interpretar imagenes.

        Pues eso, si el mini-articulo resumen que leí está en lo cierto, reitero que considero interesante esa novedad respecto a GPT-3. Si no es verdad, es que la noticia que leí no me informó bien.

        Ojalá tuviese todo el tiempo del mundo para poder leer con calma todo lo que me interesa. Pero solo mi trabajo (en el que si que leo de forma muy atenta pues intento hacer bien mi trabajo) me lleva mucho tiempo.

        En cualquier caso, creo que mis opiniones «de lecturas en diagonal» son mucho mejores que las de JPR leyendo todo lo que dice leer…

        Pero en fin, ese es otro tema. Tú, en esta ultima etapa, eres más inteligente y me ignoras (no te metes conmigo), lo cual agradezco. JPR está «en fase de aprendizaje»… XDDD!

        • JPR - 16 marzo 2023 - 16:12

          Como diría Ortega, tú eres tú y tus circunstancias. Eso no es meterse con nadie, simple observación de tu práctica socrática, poner en valor tu méritocracia

          • Chipiron - 16 marzo 2023 - 16:27

            Pues ahórrate tus observaciones sobre mí. Opina y debate, pero no sobre la persona, sólo sobre el argumento.

            Si no las cosas acaban mal. Te lo he dicho por activa y por pasiva. Si hago caso de lo que dices, “tienes mucho tiempo para leer”. Perfecto. Pero no se si asimilas lo que lees.

            Lo dicho, argumenta sobre las ideas, deja de juzgar a las personas.

      • JPR - 16 marzo 2023 - 15:57

        Es el mismo tema que ya hemos tratado otras veces: mediocridad

        Y esta vez dejo a Chipiron sin citar para que no pierda tiempo contestando.

        Alguien como dotcsv nos presenta un refrito de la presentación de algo que realmente no está. Como una vez le dije a JuanT, yo comento sobre un lanazamiento cuando lo vea con mis ojos. Y desgraciadamente el 4 no está, al menos como luce en su marketing. Una pena que Altmann tome los modos del personaje.

        Pero dejando aparte la anécdota del lanzamiento. La realidad es una: hay un juguete no nuevo (3.5) a nuestra disposición, que hace cosas que antes no teníamos, algunas las hace bien, por ejemplo redactar. Si es pedante y pesado, pero lo hace bien. Por otro lado es una escopeta de feria en el contenido. Y si es más inteligente que muchos BOBOS incluyendo Messi. Pues claro, para eso poco hace falta.

        Pero la realidad es que la pereza cognitiva es un hecho. No tengo tiempo para rascarme las bolas nadie lodice, pero para leer, si Se opina muchos sin tener NPI, tampoco hay que ser Chomsky para esa conclusión.. Y ojo que no está mal que opinemos y nos equivoquemos, pero joder si hablas de El Quijote, que sea después de leerlo, y no por leer un refrito de dos páginas. Eso no es falta de comprensión lectora, es autoproclamarse gilipollitas, que te la das de cultureta, pero las series de Netflix te las tragas dobladas. Cada uno pierde el tiempo con lo que quiere. Fíjate, que puta pena, me gusta leer y sobre todo que no me la metan dobladas los del marketing

        Te dicen que lee imágenes, pues algo hace, pero es una mierda pinchada en un palo, en el ejemplo de los ingredientes de cocina, bing me dice que tiene tomate, muy bien chavalote, necesitas una revisión a fondo. chatgpt está en la inopia…

        Si es que es muy sencillo, dice que hace una cosa que es x, pues le pones el ejemplo, Lo hace? no. Pues nos están engañando.

        Para Torrente: emosioengañaos

        Sobre Chmosky, un artículo excelente, pero no están hechas las margaritas para los que no dudan de si mismos… y de sobrados más

        nihil obstat?

        • Lua - 16 marzo 2023 - 16:28

          Indocti discant, et ament meminisse periti… XDD

        • Chipiron - 16 marzo 2023 - 16:29

          Pero para ti, “Chmosky” si que es una margarita que sabes apreciar, los demás somos idotas no?

          Quien es el que va de sobrado? XDDD!

          • JPR - 16 marzo 2023 - 17:09

            El autorespeto a uno mismo no lo conceden los demás.

            A los demás?
            No los conozco.

            A ti, Si.
            Tus comentarios te definen

          • Chipiron - 16 marzo 2023 - 19:20

            Pues anda que a ti…

            Mira, hazme el favor de ignorarme en el foro y yo haré lo mismo contigo.

            Lúa lo hace y nos va muy bien.

            Así no iremos a peor.

            No quiero gastar mi precioso tiempo en peleas con tipos como tu.

            Adiós para siempre.

  • #033
    David - 16 marzo 2023 - 18:33

    Solo por curiosidad, ¿qué porcentaje de conductores de Tesla decide no compartir sus datos de conducción?

  • #034
    F3r - 17 marzo 2023 - 17:57

    No dejo de pensar en 2 cosas:
    1) los comportamientos emergentes van más allá de un modelo de lenguaje. Es decir, cuando pones suficiente complejidad en un modelo no-lineal con profundidad (funciones de funciones), sale algo que no esperabas ( ver https://www.quantamagazine.org/the-unpredictable-abilities-emerging-from-large-ai-models-20230316/ ). Esto le hace a uno pensar si los humanos somos básicamente un modelo de lenguaje con una complejidad por encima de cierto umbral.

    2) el coste que suponen estos «cerebros» y su comparativa con un bebé, que tarda años (traduzcamos en electricidad-> comida, emisiones co2, etc) en aprender. Y luego su coste cada vez que da una respuesta.

    Creo que es obvio que van a venir muchas sorpresitas cuando escalemos el tamaño de estos bichos (para lo cual necesitaremos que sean muchiiiiiisimo más eficientes energéticamente, quizá con neuromorphic computing ,p.ej.con láseres con delay)

  • #035
    ABM - 20 marzo 2023 - 11:15

    ChatGPT1 en 2018, al año el 2 a otro año el 3, tardan 2 años para sacar una versión 3.5 más un año más para completar el punto completo, da que pensar, les está costando mejorar el charGPT 3, será que no se puede mejorar en mucho más, a veces sacan nuevas versiones (lógicamente cuestión económica) pero realmente venden lo mismo con una mínima mejoría al doble de precio

Dejar un Comentario

Los comentarios están cerrados