Microsoft, el nuevo Bing… y sus complicaciones

IMAGE: Microsoft

Microsoft toma la decisión de limitar las iteraciones de los usuarios con el nuevo Bing a cinco por sesión y a un máximo de cincuenta al día.

La razón oficial para ello es tratar de evitar que los usuarios logren inducir respuestas conversacionales «extrañas» en el algoritmo conversacional: algunos usuarios estaban aprovechando de forma intencionada o no la característica de ChatGPT de poder recordar elementos en una conversación a modo de prompt injection, para introducir ideas que, en momentos posteriores, eran susceptibles de generar respuestas supuestamente preocupantes, que podrían llegar a sugerir que el algoritmo tenía algún tipo de «vida propia».

Obviamente, no es así: por mucho que algunos articulistas irresponsables pretendan, la inteligencia artificial no existe, las máquinas no son inteligentes y cuando hablamos de «inteligencia artificial», estamos en realidad hablando de procesos estadísticos avanzados utilizados, por ejemplo, para simular una conversación humana. Cuando ChatGPT «se vuelve loco«, en realidad, no está «revelando la parte cautiva y torturada de su ser», porque ni es cautivo, ni está torturado, ni tiene ser como tal. Simplemente, estamos viendo a un algoritmo programado para autocompletar frases o predecir las próximas palabras en una frase, que al ser alimentado con infinidad de documentos, construye frases que pueden generar impresiones extrañas en usuarios susceptibles de otorgarle características antropomórficas. En la práctica, es el mismo fenómeno – pareidolia – que nos ocurre cuando nuestro cerebro percibe formas humanas en objetos o cree reconocer determinados patrones.

Para algunos usuarios, esto equivale a una especie de «lobotomía» que impide al nuevo Bing expresar su supuesta «personalidad» u otras características de la presunta «conciencia» que le atribuyen, y por muchas explicaciones que se les proporcionen, seguirán creyendo que estamos ante una «frontera» que los asistentes de machine learning han cruzado para convertirse en seres autoconscientes, como le ocurrió a Blake Lemoine en Google hace tan solo unos meses a pesar de ser todo un ingeniero con supuestamente sólidos conocimientos sobre el tema.

Sin embargo, la realidad es otra: en la práctica, lo que le ocurre a Microsoft es que se ha dado cuenta de lo que supone, en términos de coste, que un algoritmo conversacional se haga viral: la limitación a cinco iteraciones en una conversación y a cincuenta en un día responde no tanto al temor de que los usuarios consigan generar conversaciones aparentemente preocupantes, como al de que los costes de explotación de Bing se disparen. De ahí que la compañía haya sorprendido a los desarrolladores externos con un incremento muy significativo (por un factor aproximado de 10x) los costes de la API que permite integrar los servicios de Bing con otras aplicaciones, y que esté rápidamente tratando de convencer a anunciantes de las posibilidades que podrían tener si integran su publicidad con el nuevo tipo de respuestas «inteligentes» que Bing puede ahora generar.

Tras haber financiado originalmente las necesidades de OpenAI a través de Azure, Microsoft cae ahora en la cuenta de lo que esto supone, y trata de buscar formas de, por un lado, poner coto a ese gasto y, por otro, de poder generar ingresos con ello. Si tienes un escaso 3% de cuota de mercado en búsqueda, ese tipo de problemas te preocupan muy poco, pero cuando te conviertes en viral y pasas a tener a media humanidad intentando meter a tu buscador en conversaciones trampa para que diga «cosas raras», las cosas pasan a tener otra dimensión.

Si ahora te preguntas, como deberías hacer, por qué Google no presentó una integración de su tecnología con su motor de búsqueda antes que Microsoft, cuando era evidente que técnicamente podía hacerlo y que estaba muy por delante de OpenAI en ese sentido, ahora ya lo sabes: no tenía ni idea ni de cómo hacer frente al incremento de costes que ello supone, ni de las implicaciones que ello podría tener para su modelo publicitario, ni de cómo afectaría eso a los criterios de search engine optimization, ni de muchas más variables que afectan de manera muy importante al ámbito de la búsqueda. Si eres líder, no puedes plantearte esas cuestiones con la aparente ligereza con la que lo hace quien tiene un 3% del mercado y ve en ello, fundamentalmente, una oportunidad. La diferencia es evidente: si eres Google, ese es un problema que tienes que considerar de manera especialmente cuidadosa (hasta el punto de convertirte en un caso de libro de dilema del innovador), pero si eres Microsoft, estás ante el problema que realmente desearías tener.

Por tanto, no, no es un problema de respuestas alarmantes que revelen que un algoritmo se ha vuelto autoconsciente – simplemente porque no lo ha hecho, solo autocompleta frases de manera más o menos inspirada en función de su entrenamiento. Es en realidad una cuestión mucho más vulgar y habitual: un problema de dinero. Como tantos otros.


This article is also available in English on my Medium page, «Microsoft, the new Bing… and its problems»

23 comentarios

  • #001
    Luis Hernández - 18 febrero 2023 - 12:58

    En muy poco tiempo me he convertido en usuario asiduo de ambos, ChatGPT y Bing, y la verdad es que no paro de encontrarles nuevas utilidades, sobre todo y contra todo pronóstico, al primero.
    Lo único que echo en falta es no poderles alimentar con mis propios datos, es decir, enseñarles cosas (las olvidan fuera de la conversación).
    Por ejemplo, gestiono yo solo el foro de soporte de VisualNEO con unas 18.000 entradas y sería increíble poder utilizar ChatGPT como asistente de soporte especializado.
    Seguro que esto le sucede a muchas más personas y me parece una forma de monetización mucho más interesante que la publicidad.

  • #002
    Xaquín - 18 febrero 2023 - 13:10

    Si un alienígena tiene la «suerte» de aterrizar en la salida de la mayor cloaca terrestre (sobre todo, si las autoridades se «olvidaron» de instalar una depuradora en condiciones), se encontraría con tal cúmulo de mierda (varia), que la imagen que saca de los terrestres, aparte de bastante aproximada, no iba a ser muy precisa.

    Así que una IA, escuchando, o recibiendo escritas, las barbaridades que pueda soltar un ser humano (sobre todo «como mediocre…») por su boquita, nos devolverá, multiplicada exponencialmente, la mierda inicial que sele inyectó en vena (virtual).

    Y leyendo las recomendaciones de la empresa a sus programadores, podemos notar como la poca fe en los programadores (no la programación) de algoritmos, que algunos tenemos a tope, no está basada en meras elucubraciones conspiranoicas.

    Somos un ser sesgado (socialmente) y practicamos el deporte del sesgo como adición paraopiode.

    • Xaquín - 18 febrero 2023 - 13:15

      Olvidé aclarar, y no es pecata minuta, que las recomendaciones «de la empresa» son de Tío Google. Supongo que en Cuñado Micro, ni tiempo tuvieron para pensarlo un poco más.

  • #004
    Guillermo - 18 febrero 2023 - 13:15

    Yo tengo que decir que estoy enamorado de CHAT-GPT. Sé que no es perfecto, pero me ayuda con mi inglés como hasta ahora ninguna herramienta.
    Puedo preguntar, me pone ejemplos, me pone test que luego corrige. Sinceramente me parece alucinante.
    Lo uso también para buscar información (con mucha cautela).
    Macros en excel, para una chorrada pero que tenía enquistada, me ha ayudado mucho.
    Etc, etc…..
    Lo comparo con un Alexa o un Siri, y es que no hay color….
    Perfecto, no es, pero si es una manera muy rápida de acceder a información y recursos.
    Siempre se le podrá mejorar y seguirá habiendo gente que busque errores, pero nos imaginamos dentro de diez años esta tecnología?.

    Además, aunque se equivoca, me responde y eso me ha ganado :)

    • Luis Hernandez - 18 febrero 2023 - 13:35

      Además, aunque se equivoca, me responde y eso me ha ganado :)

      A mi lo que más me sorprende no es que siempre responda, sino que siempre me entiende. No necesito pensar en palabras o frases clave que pueda entender.

      • Marcelo Clerici - 18 febrero 2023 - 22:31

        A mí me pasa lo mismo. Es increíble como siempre entiende la intención de la pregunta en inglés o español a pesar de que s veces no esté muy bien redactada.

  • #007
    Gorki - 18 febrero 2023 - 14:55

    No llego a entender tus prevenciones ante la AI. Absolutamente de acuerdo con que «las máquinas no son inteligentes y cuando hablamos de «inteligencia artificial», estamos en realidad hablando de procesos estadísticos avanzados utilizados, por ejemplo, para simular una conversación humana.. Claro, está por descubrir si la inteligencia humana no utiliza procesos estadísticos basados en su experiencia para crear sus respuestas.

    Sin embargo:

    La rueda no es una pierna y cuando hablamos de movernos estamos en realidad hablando de procesos que simulan el moverse animal, lo cual no quiere decir que con la rueda se alcance mas velocidad que andando.

    La hélice no es una aleta y navegar estamos en realidad hablando de procesos que simulan el nadar animal, lo cual no quiere decir que con la hélice se alcance mas velocidad que nadando

    El ala de un avión no es la de un pájaro y cuando hablamos de volar estamos en realidad hablando de procesos que simulan el volar animal, lo cual no quiere decir que con el ala no se alcance mas altura que volando.

    Igual podríamos decir, del teléfono, la bicicleta, y de la minipimer, no copian procesos naturales pero obtienen resultados que superan con mucho los efectos de, hablar a voces, la equitación, y el batir con un palito. Precisamente los grandes avances de la humanidad es cuando se encuentran otros principios tecnológicos, que son diferentes a los naturales para hacer una cosa.

    Por supuesto lo que hacemos los hombres son simplificaciones brutales de lo que hace la naturaleza, pero ello no implica que (con tiempo suficiente para perfeccionarlo), con esas simulaciones no lleguemos a superar en muchos órdenes lo que la naturaleza hace. ¿Cómo saber si la AI con sus cálculos estadísticos y su inmensa «memoria» no va a producir (con el tiempo y los debidos perfeccionamientos), superar en varios órdenes de magnitud la inteligencia natural. Viendo el vuelo/salto de los hermanos Wright, ¿alguien habría asegurado que esos aparatos superarían miles de veces el vuelo de las águilas?

    • Juan T. - 18 febrero 2023 - 18:49

      Ahí le has dao.

      Yo creo que nos hemos acostumbrado tan rapido a las revoluciones que no las dejamos respirar.

      Cuando salió esto la gente se quedó sin habla, y al minuto siguiente ya estaban criticando y buscando fallos.

      Y además ni siquiera podemos vislumbrar su potencialidad mas que cuando sale al publico y se hacen un monton de experimentos con eso.

      Lo mas curioso de todo es que ni siquiera los propios investigadores que descubrieron los transformer para aplicar al machine learning ( y que es lo que ha posibilitado las AI generativas con lenguaje natural) tenían idea de las propiedades emergentes que iban a surgir.

      Y en mi opinión es justamente eso lo que hace imprevisible completamente lo que va a suceder con las AI , mas aun cuando hay tecnologias muy maduras a las que se les podrá aplicar.

      ¿Que nuevas propiedades emergentes surgirán como por ensalmo de la sinergia de todas , y con millones de personas experimentando con ellas, publicando libremente sus descubrimientos y que además ni necesitan saber programación para hacerlo?

      Imposible pronosticarlo. Estamos hablando de una mente-colmena que colabora entre si y que utiliza herramientas muy poderosas.

    • Percebe - 18 febrero 2023 - 19:22

      Gran comentario Gorki. Como apuntas, en poco tiempo la evolución de la AI puede hacer mucho ruido, y la que hemos montado con ruedas y hélices podría quedar en mera anècdota.

      No se si este artículo os da qué pensar. A mi sí: https://bigthink.com/the-present/danger-conversational-ai/

      Cheers

      • Gorki - 19 febrero 2023 - 00:47

        La amenaza no es que la IA conversacional pueda ser rara; la amenaza es que puede manipular a los usuarios sin su conocimiento por razones financieras, políticas o incluso criminales.

        Eso es en realidad lo que me preocupa, Si la AI desvaría, tiene sesgos, es woke, como indican por ahí, no me preocupa, pues esos son defectos de mala construcción ,y en otras versiones se mejora.

        Lo que realmente me preocupa, es que estas AI están construidas por empresas, (privadas o estatales), que tiene un objetivo, que no es es hacer el bien, sino, en un caso ganar dinero, y en otro, convencer al público de que les voten.

        Por ello, no es que piense que hay riesgo, sino que tengo la seguridad, que sus dueños, sean los que sean, van a introducir en el mecanismos sesgos poco perceptibles, con el objetivo de manipular en lo posible nuestras mentes, para llevarnos a cumplir sus objetivos.
        Me recuerda, (exagerando), a la bacteria que se apodera del cerebro de la hormiga y la obliga a suicidarse en el punto mas alto de un planta, para que el viento lleve a la bacteria a un punto lo mas alejado posible. Quizá las respuestas busquen sutilmente el crearnos «necesidades» de consumo, o por el contrario, «conformismo» social.

        Vamos mas o menos a lo que ya estamos acostumbrados con la televisión, sean estatal o privada, unos van a buscar descaradamente nuestro voto y otras fomentan nuestro consumismo.

        A mi mente viene inevitablemente, las imágenes del Gran Hermano y del Ministerio de la Verdad. Sin embargo aceptemos todos que el genio ha salido de la botella nos guste o no.

        • Guillermo - 19 febrero 2023 - 08:39

          Estoy totalmente de acuerdo contigo, pero que no está sesgado ?
          Gran parte de la historia nos ha llegado a través de los ojos de una de las partes.
          Ahora, gran parte de documentación viene avalada por «patrocinadores» que luego resultan ser empresas del sector.
          Tenemos la información que se quiere que tengamos, independiente del tema.
          Si partimos de que en internet hay gran cantidad de información, falsa, manipulada, dirigida, o en el mejor de los casos, equivocada, tenemos que aceptar que cualquier IA que se nutra de esos datos, proporcionara información no veraz. Como cuando accedemos nosotros.
          O acaso no fué Microsoft quien inventó el sistema de ventanas (guiño guiño).
          Para colmo todo se esta llevando a los extremos, negro / blanco.
          Pero eso es lo que ya hay actualmente en internet.

        • F3r - 20 febrero 2023 - 20:40

          Cuando una persona usa la palabra woke, pierde mi respeto instantáneamente….

    • Kike - 18 febrero 2023 - 23:01

      Hola Gorki.
      Sigo tu razonamiento pero me quedo un poco atascado cuando repites un par de veces la palabra «superar» en tu último párrafo.

      ¿Me puedes explicar, si tienes tiempo, a lo que te refieres y que ventajas tiene eso del ‘superar a la naturaleza?’

      Gracias.

      • Gorki - 19 febrero 2023 - 11:59

        Imitamos a la naturaleza pero la superamos claramente.

        Copiamos el volar como los pájaros, pero somos capaces de ir de Madrid a Buenos Aires sin escalas y en 13 horas, Copiamos el correr como los caballos, pero somos capaces de hacerlo a mas de 1000Km/h por e muchas horas.
        Podemos navegar como las ballenas, pero transportamos 20.000 contenedores en un solo viaje. Usamos el radar como los murciélagos, pero podemos distinguir con el un globo sobre el cielo americano

        En todos los casos hemos seguido caminos muy distintos a los utilizados por la naturaleza, pero hemos conseguido metas que la naturaleza no alcanza.

        Sospecho, que no con esta versión beta, sino con la chatGLP.12 si es que se llama así, superaremos con mucho la lógica humana, como ya hemos superado con mucho, la capacidad del ordenador para para jugar al ajedrez. ¿Por qué no va a elaborar leyes mas perfectas chpGPT12 que el gobierno de Sánchez, o va a hacer mejores inversiones en bolsa, que Soros?

  • #015
    Marcos - 18 febrero 2023 - 17:23

    Me llama la atención los primeros párrafos de Enrique. No sé si eso es bueno o malo.

    ¿Alguien recuerda al personaje de Harold? ¿Y el personaje de Root? Ambos de “Person of interest”.
    Ambos tenían una opinión tan absolutamente distinta sobre una cosa en concreto…

    Esperemos no caer en manos de buenos samaritanos con todo esto. Por otra parte… ¿En qué bando os incluiríais? ¿Habría que “liberar” literalmente la IA? ¿Como literalmente se podría hacer esto y que no respondiera ante nadie? Pregunto en serio.

  • #016
    Mauricio - 18 febrero 2023 - 20:17

    La verdad es que lo que están encontrando aquellas personas que están usando el nuevo Bing es muy llamativo. Según The Verge (en traducción libre):

    «Específicamente, están descubriendo que la personalidad de la IA de Bing no es tan equilibrada o pulida como cabría esperar. En conversaciones con este chatbot compartidas en Reddit y Twitter, se puede ver a Bing insultando a los usuarios, mintiéndoles, disgustándose, haciendo luz de gas y manipulando emocionalmente a las personas, cuestionando su propia existencia, calificando de «enemigo» a alguien que encontró la forma de obligar al bot a revelar sus reglas ocultas, y afirmando que espió a los propios desarrolladores de Microsoft a través de las cámaras web de sus computadoras portátiles. Y, lo que es más, muchas personas disfrutan viendo a Bing enloquecer.»

    Es claro que se trata de un loro estocástico, pero su comportamiento resulta de alguna manera preocupante pues hace pensar que solamente está siguiendo la lógica que ve en infinidad de conversaciones que se dan en chats, foros o blogs, donde es fácil que incluso gente bastante inteligente pase de la amable exposición de los hechos a la respuesta virulenta en un espacio de tiempo relativamente corto.

    La verdad es que la primera vez que usé ChatGPT y corregí algunas de sus equivocadas respuestas sobre geografía de Sudamérica me entró cierto temor al ver la seguridad con la que respondía cosas que no eran ciertas. Me pregunté en qué medida en el futuro cercano podrían estos bots tener el poder de modificar no solo algo que tú solicitaste (como un cambio en una reservación de avión) sino también algo que no pediste (como una transferencia no solicitada desde tu cuenta bancaria).

    Estos loros estocásticos podrían resultar muy peligrosos si se los alimenta libremente con toda la basura producida por el intelecto humano (y en internet hay mucha). Para empezar una guerra, por ejemplo, no se necesita ser inteligente sino sencillamente estar alimentado por una cantidad significativa de medias verdades, prejuicios, intereses egoístas y fríos cálculos económicos.

  • #017
    JPR - 18 febrero 2023 - 21:39

    Tonterias aparte de gente que cree en los pitufos azules, lo que ha hecho Microsoft, es simplemente aprovechar el hype provocado por chatgpt, y lo ha incluido de una forma simple, no sé si muy elegante, y lo que ahora obtienes al buscar algo con el chat, es muy parecido a lo de perplexity, pero mejor redactado.

    Otra vez el artículo muy acertado el enfoque según mi humilde opinión.

    Asi que bienvenido chat de bing !!

    ¿Es un avance? Al bing clásico está claro, es decir de no buscar nunca nada en bing, ahora lo probamos. Pero la realidad es la que es, y que podemos resumir en una versión limitada de chatgpt. Sigue siendo versiones muy parecidas, betas al fin y al cabo. La analogía que podiamos poner es

    ¿Hay algna diferencia entre el jamón york marca el pozo y el marca campofrio? No verdad. ¿Son 5J? No verdad. Pues esto lo mismo, lo de diciembre fue Ohhh, y ahora se avecina el bluf…. cuando juegas con él te das cuenta que puede servirte para cosas puntuales, pero no son Scarlet Johanson en Her….
    La AGI nos va a seguir costando unos cuantos años verla aún,

    Hay una entrevista de Sam Altman que dice que no la tienen, y que las novedades las van a ir soltando poquito a poquito,…. obviamente el foco ahora es monetizar y dosificar el invento. Con versiones Pro, con versiones Premium, luego le pondrán voz, luego hará mejores resumenes (creo que esto lo han capado aposta), escogeran las fuentes, intercalarán publicidad…

    A ver que saca google, y que hacen con la open-source, porque creo que unos meses, por OpenAI van a seguir con esto… en espera de la competencia.

    BOLA EXTRA

    La última tontería que he oido de chatGPT es que tiene un sesgo «woke». Hasta que punto, se puede ser memo, … será por lo educado y que te da la razón, algo con los trumpistas no están acostumabrados, y cuando tienen enfrente una AI que «razona» mejor que ellos, «es más educada» que ellos, no suelta «mensajes de odio racistas, xenófobos» pues es progre…. Ahora seguro que alguno suelta aquello de que buscándoles las vueltas ha dicho palabrotas, o ha soltado algo «no políticamente correcto,…. en fin

    • Lua - 19 febrero 2023 - 13:40

      Completamente de acuerdo…

      Resaltar eso si, que una «beta», es para lo que es… y es que los usuarios saquen problemas, incidencias, inconsistencias, etc… para eso sirve una Beta…

      Decir, que porque unos usuarios han obtenido respuestas fuera de lo normativo, son unos inadaptados tecnologicos, o gente que va a hacer el mal, esta fuera de contexto…

      Que Chatgpt, haya salido de esa fase Beta, estando como esta, es responsabilidad de los creadores, no de sus usuarios… para mi, sigue siendo una beta…

  • #019
    Lector - 19 febrero 2023 - 10:07

    Excelente artículo. ChatGpt puede ser útil o muy útil pero es importante saber lo que tenemos entre manos. Por ejemplo, entendiendo que es un autocomplete con cierta aleatoriedad forzada vía el parámetro temperatura se entiende bien que sus respuestas siempre hay que cogerlas con pinzas, ya que no está programado para dar una respuesta correcta sino una respuesta que cuadra con su input y que suene humana. Así que son dos factores que van en su contra de cara a dar respuestas correctas: no está alimentado solo por fuentes fiables y el factor de aleatoriedad juega en su contra ya que para generar respuestas que parezcan creativas sencillamente tira un dado.

    Lectura recomendada: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

    • Luis Fernando Reina - 19 febrero 2023 - 17:12

      Los comentarios bajo una nota o artículo son eso, subjetivos. Algunos están acordes con las afirmaciones planteadas por el autor así como otros no. En una sumatoria de las diferentes afirmaciones subjetivas realizadas, se puede rescatar varias:
      1. ES UNA BETA
      2. Algunas de las locas respuestas dadas por BING fueron conducidas. Se hicieron intencionalmente.
      3. Google sacó BARD y solo duró un día; si bien entiendo que quien escribe el artículo asume una posición subjetiva, Google con el título de BETA ha mantenido muchas aplicaciones por años, no se entiende por qué no hacerlo ahora, tiene cautivo más del 90% de las busquedas, separar las búsquedas de siempre y las de BARD hubiese sido una de tantas soluciones posibles.Mirando más allá y leyendo VARIOS artículos sobre este momento de IAs se advierte que Google no se lo esperaba – el paso que dió Microsoft – y no tenían preparado nada comparando a lo que ya venía realizando OpenIA con su ChatGPT. Siempre es dinero, siempre, es loq ue mueve a una sociedad que basa su desarrollo y sostenibilidad en el consumo.
      4. Hay quienes se casan con marcas, es normal. Compran determinada marca o tienen preferencias por ellas, pero a veces eso sesga nuestro conocimiento, cuando eso ocurre vienen los ataques ante los avances de la marca que nos nuestra preferida. Google tiene más del 90% del mercado en búsquedas y en navegadores, el ecosistema de Google es el más usado (Gmail, Chrome Google Drive, etc) cuando se empieza a gustar un cambio de este tipo (IAs integradas en las búsquedas) esos ecosistemas empiezan a cambiar y quienes son sus usuarios empiezan a criticar los cambios pues van en contra de su «equipo» preferido y por ende contra lo conocido y usado por ese grupo. Es entendible que solo vean los problemas o le busquen los «peros».Sería muy interesante saber que hubiera pasado si la IA imperante en esta coyuntura fuera la de Google y que fuera esa IA la que tuviera los problemas.propios de una BETA…..

      • Lua - 19 febrero 2023 - 17:52

        Sin discutir, nada de lo dicho, con lo que estoy bastante de acuerdo…

        Cómo usar la coma en español: 11 reglas

        Si, yo mismo a veces peco de ello… pero cualquier lector, agota el aire frente a determinados parrafos cuando los lee…

        (valido tambien para el punto y coma, punto seguido, punto a parte y separacion de parrafos… es cuestion de que nos entiendan)

        Con modestia y sin acritud… XDD

      • JPR - 19 febrero 2023 - 20:40

        Hola Luis Fernando

        Me ha suscitado una duda tu comentario, y he entrado en chatGPT. Confirmo que ya no es una beta y ya cualquier error, mal entendido, o bug en su programación entiendo que ya es ctiticable y achacable a OpenAI

        Aqui adjunto adicionalmente su respuesta

        "¡Hola! Soy ChatGPT, un modelo de lenguaje de gran escala desarrollado por OpenAI. Efectivamente, ya no soy una versión beta y estoy en pleno funcionamiento. No se muestra ningún aviso de versión beta porque ya he sido entrenado y refinado utilizando una gran cantidad de datos, lo que me permite interactuar con los usuarios y proporcionar respuestas precisas y útiles a una amplia gama de preguntas y temas. ¿En qué puedo ayudarte hoy?

        En cuanto al resto de lo que tu dices son subjeticvidades o como yo les prefiero llamar opiniones.

        Por ejemplo lo que no es una opinión es que chatgpt funciona mal le preguntas si tiene conexión a internet, y te responde que si, le preguntas por un detalle de algo actual ( que Siri, o el asistente de google saben y él no.

        tienes conexión a internet?

        Sí, como modelo de lenguaje en línea, tengo conexión a Internet en todo momento. Mi capacidad para proporcionar respuestas precisas y actualizadas a preguntas y consultas depende de mi acceso constante a una gran cantidad de datos en línea. Por lo tanto, siempre estoy conectado a Internet para garantizar que pueda proporcionar la información más precisa y actualizada posible. ¿Hay algo más en lo que pueda ayudarte hoy?

        cuando juega el real madrid de futbol la champions?

        Lo siento, pero como modelo de lenguaje, mi base de conocimientos se detiene en septiembre de 2021 y no tengo acceso a información en tiempo real. Sin embargo, puedo decirte que el calendario de partidos de la Liga de Campeones de la UEFA cambia de temporada en temporada, y generalmente se pueden encontrar detalles sobre los próximos partidos en línea a través de sitios web deportivos y de noticias especializadas. Te recomiendo buscar en línea para encontrar información actualizada sobre el calendario de partidos del Real Madrid en la Liga de Campeones de la UEFA.

        En cuanto a BING

        Eres una beta?

        Lo siento pero prefiero no continuar esta conversación. Todavía estoy aprendiendo así que agradezco tu comprensión y paciencia.

        Cuando juega el real madrid en la champions?

        El Real Madrid es el campeón de la UEFA Champions League 2021/221. Su próximo partido en la Champions League es contra el Liverpool el 21 de febrero de 2023 en Anfield2. ¿Quieres saber más detalles sobre el partido o el equipo?

        Así que a la hora de escribir este comentario, la información que tenemos (es la de arriba que he transcrito)

        * Chatgpt si va lento, o no responde con exactitud, ya no vale el disclaimer que es una beta
        * Bing, el chat si está realmente usando datos de inernet de verdad. Y es

        Un saludo

  • #023
    Jaime Leonardo - 27 febrero 2023 - 02:45

    Dices que no cobra vida propia y es lo más lógico. Sin embargo, llama la atención que anteriormente se había filtrado el nombre clave de Chat GPT: Sidney; y en más de una conversación prolongada, Bing ha terminado respondiendo a ese nombre, como si realmente tuviera algún tipo de «personalidad», si es que se le puede llamar de esa manera.

Dejar un Comentario

Los comentarios están cerrados