El botón rojo de la AGI: Microsoft, OpenAI y la definición que lo cambia todo

IMAGE: OpenAI's DALL·E, via ChatGPT

La alianza entre Microsoft y OpenAI nació en 2019 prometiendo acelerar la carrera por la inteligencia artificial, pero hoy parece tambalearse por un detalle casi filosófico: ¿qué diablos significa «inteligencia artificial general» (AGI) y quién decide en qué momento hemos llegado a ella?

El contrato que ambas compañías firmaron en 2022 permite a OpenAI cerrar el grifo a Microsoft de sus modelos más avanzados en cuanto su junta directiva declare que ese hito ha sido alcanzado. En ese contrato, en el que Microsoft comprometió 10,000 millones de dólares en el crecimiento de OpenAI, se estipula que la junta directiva de OpenAI, que sigue siendo una entidad sin ánimo de lucro, puede determinar que la compañía ha alcanzado la AGI.

En ese momento, Microsoft perdería el acceso a la tecnología más avanzada de OpenAI. Y si la junta directiva determina que la AGI «tiene la capacidad de generar» más de 130,000 millones de dólares en beneficios, Microsoft perdería sus derechos exclusivos para usar y vender cualquier tecnología de OpenAI – aunque Microsoft se reserva la posibilidad de impugnar la decisión de la junta y revisarla con expertos financieros externos. Dado que las conversaciones sobre la reestructuración con Microsoft llevan tiempo estancadas, OpenAI ha insinuado en los últimos meses que pronto podría declarar la AGI, mientras los directivos de Microsoft no coinciden en absoluto en que la empresa esté cerca de ese punto.

Esa «palanca de desconexión«, un verdadero botón rojo, amenaza con dejar a Microsoft sin el motor que ha impulsado buena parte de su narrativa de producto y de su subida en bolsa durante los últimos meses (un 17% sobre un precio que muchos ya consideraban caro), debida fundamentalmente al reconocimiento de su calidad de líder en el ámbito de la inteligencia artificial.

OpenAI define AGI como un «sistema altamente autónomo que supera a los humanos en la mayoría de los trabajos económicamente valiosos» y, desde su ensayo «Planning for AGI and beyond«, deja claro que ese momento podría estar a la vuelta de la esquina. Pero esa visión, prácticamente mesiánica, contrasta con la perspectiva de Satya Nadella: para el CEO de Microsoft, no habrá AGI hasta que veamos un salto de productividad que haga crecer el PIB mundial un 10%, y todo lo demás, dice, es puro «benchmark-hacking».

El desacuerdo no es solo semántico: quien controla la definición, controla también el calendario de pagos, la propiedad intelectual y la hoja de ruta de productos. De hecho, Microsoft insiste en renegociar la cláusula para no quedar expuesta a un corte súbito de suministro, mientras OpenAI ve en esa ambigüedad una salvaguarda ética o un arma de negociación, según se mire.

El problema, claro, es que nadie se pone de acuerdo sobre qué es «inteligencia artificial general». Desde el mundo académico, Shane Legg y Marcus Hutter llevan años defendiendo un criterio cuantificable: «la capacidad de un agente para lograr objetivos en una amplia variedad de entornos«, una definición menos poética, pero más mesurable, que sirve de base para múltiples métricas experimentales.

Los reguladores tampoco esperan a que los laboratorios se pongan de acuerdo. La recién aprobada Artificial Intelligence Act europea introduce la categoría de «modelos de IA de propósito general» y presume que, a partir de mil millones de parámetros (o 10²⁵ FLOPs de cómputo), entraremos en territorio de riesgo sistémico. No habla de AGI, pero señala un umbral técnico claro para activar unas supuestas obligaciones reforzadas de seguridad y transparencia, en el colmo absoluto de intentar regular lo que todavía no existe.

Tenemos, por tanto, tres visiones enfrentadas sobre lo que es AGI: una más mística (OpenAI), una más económica (Microsoft) y una más jurídico-técnica (Bruselas). El mercado observa todo esto completamente fascinado: si OpenAI aprieta el botón, Microsoft podría perder la ventaja competitiva que justifica su prima bursátil, mientras que si cede demasiado, está arriesgando su propia misión de «beneficio para toda la humanidad». Y mientras tanto, cada una de las definiciones moldea la inversión, la regulación y hasta la percepción social de lo que la inteligencia artificial puede hacer, debe hacer o se le permite hacer.

Discutir la línea que separa la inteligencia artificial actual de la inteligencia artificial general es disputar el futuro reparto de poder en el ecosistema tecnológico. El día que alguien proclame oficialmente el nacimiento de la AGI, no solo se activará una cláusula contractual, sino que se reordenará todo el tablero competitivo. Por eso la pregunta ya no es si llegaremos a la inteligencia artificial general, sino quién tendrá la autoridad y los incentivos para tratar de declararla. Y, sobre todo, qué haremos todos los demás cuando ese botón finalmente se pulse.


You can also read this article in English on my Medium page, «Who’s going to press the AGI red button first

20 comentarios

  • #001
    christian - 27 junio 2025 - 12:01

    Podría ser interesante preguntarle al propio chatgpt por el asunto

    Responder
    • Michel Henric-Coll - 28 junio 2025 - 11:10

      Perdón Christian, envié mal mi respuesta, como comentario general, en lugar de respuesta a tu comentario.

      Te pido disculpas. La tienes hacia el final de los comentarios.

      Responder
  • #003
    Xaquín - 27 junio 2025 - 12:38

    «en el colmo absoluto de intentar regular lo que todavía no existe» (EDans).

    Lo que cuentan todas las Biblias es falso, salvo para sus creyentes… y el mesianismo siempre fue esperar a que alguien todopoderoso haga milagros en nombre de un dios desconocido. Pero lo único que hacen es masacrar pueblos enteros, como hace Israel o EE.UU. cuando les sale de allí abajo.

    Y sus dioses no aparecen, salvo pintados en el morro de sus bombarderos.

    Y por eso se cree en lo que no existe, aunque la ciencia vaya dando pasitos en su dirección, como pasa con los límites matemáticos.

    Pero esa dirección siempre es de doble sentido, por lo que nos puede pasar como a los dinosaurios, aunque en su caso no fueran ellos los responsables (para má INRI).

    Los políticos.. y, últimamente, los científicos pacotilla (eso sí, con título e incluso premio nobel) dejan mucho que desear en relación con los mesiánicos de siempre.

    Aún le cuesta a mi algoritmo traductor adaptarse a mis necesidades y ya me quieren vender una generalista… sí, como el que se sabía el listín telefónico de memoria, pero se olvidaba de ir al retrete para mear… en fin, más de lo mismo : basura intelectual.

    Científicos, empresarios y políticos, la misma mierda son (conglomerado molecular de átomos diversos)… pero con ganas de joder a la parroquia, incluso involuntariamente. Sobre todo manipulando mentes. El hombre del saco siempre cabalgando.

    Responder
    • Xaquín - 28 junio 2025 - 12:48

      Hoy he decidido explayarme, ya canso de tanto ninguneo intelectual de empresarios y técnicos, que fingen controlar el mundo sin tener suficiente idea de como el mundo es.

      Mi «completador» del WhatsApp se va acomodando a mi forma de escribir, bilingüe y combinando un lenguaje semivulgar con otro más elaborado, a veces hasta barroco (nada fácil para una máquina).

      Va avanzando en su proceso de adaptación «a mi forma», pero está a años luz de aproximarse siquiera, al refinamiento expresivo de mi mente (y no por especial, solo soy un homo sapiens «in progress»).

      Y supongo que le será mucho peor con mi capacidad de comprensión. Más etérea aún que su expresión gráfica. Pero esos ya lo veremos con una auténtica IAG.

      Y se puede argüir que un algoritmo usado por Meta, no es precisamente el mejor ejemplo de IA. Pero da igual, cualquier IA de alto rendimiento (generalista, je, je!!!) lo tiene difícil, para adaptarse a una IH medianamente eficiente.

      El trabajo de millones de años de esa naturaleza, que aún no sabemos lo que es, le lleva una delantera enorme (años luz como dije)… digan lo que digan los jerifaltes de Microsoft o de Open AI.

      Para ser creyente no se necesita ser programador. Ni empresario… y mucho menos político. Estos últimos, muy megacreyentes ellos!!!.

      Responder
  • #005
    Benji - 27 junio 2025 - 12:48

    No sabemos definir la «inteligencia» humana ni si es los mismo que consciencia o resolución de problemas… ¿vamos a definir eso para un conjunto de 0 y 1? Lo veo altamente improbable.

    Sin tanto misticismo: alguien en Microsoft se equivocó al firmar esa cláusula. Y en OpenAI se olvidan que sin el Azure Cloud va a ser superdifícil computar modelos más avanzandos.

    Hay que ver Misión Imposible Sentencia Final

    Responder
    • Dedo-en-la-llaga - 27 junio 2025 - 16:22

      Ah, vaya, vaya, vaya, ahora comenzamos a caernos del guindo y ver lo que pasa con muchos de los «conceptos» provenientes de ese campo de fakes a rebosar que es la «psicología»… ¡¡¡Al fin!!!, y no será porque algunos ya lo hemos venido señalando desde hace eones y todos los demás, silbando; incluso muchos rebuznando como borregos y dejándose engañar una vez más como tales borregos que son.

      Responder
  • #007
    Enrique - 27 junio 2025 - 12:51

    Entiendo que hay dos puntos principales:
    – Si le cortan el grifo a Microsoft puede caer bastante en bolsa. Esto sólo debería preocupar a los accionistas de $MSFT
    – Si se declara la AGI, OpenAI se reserva todo el derecho de gestionarla. ¿Por qué la gestión de OpenAI va a ser mejor o peor que la de Microsoft? Siendo las dos americanas y ya sabemos quién mete la mano ahí.

    Responder
  • #008
    F3r - 27 junio 2025 - 16:02

    A lo mejor hay que montar un panel internacional (como con el cambio climático) y usarlo para gobernar el tema (aunque luego los países se lo pasen por el forro, por lo menos queda claro el consenso científico)

    Como dice Benji, vaya mierda de cláusula de acuerdo societario….

    Ah, y a Xaquín, no sé de qué científicos me hablas (en este tema no hay ni uno presente…), los que he conocido toda mi vida son gente muy honesta que se desvive por acceder a la verdad última, casi siempre sacrificando su bienestar propio.

    Responder
    • F3r - 27 junio 2025 - 16:06

      PD: los científicos de AI que conozco son super escépticos sobre la AGI, aunque si lo último que ha salido de Absolute Zero es cierto, quizá en breve estemos cerca del momento crítico en el que aprenden por sí solas (sin barrera de necesitar datos de input), momento en el que solo haría falta ponerle toda la computación del planeta, conectarla a internet y a los silos nucleares y esperar el armagedon

      Responder
      • Dedo-en-la-llaga - 27 junio 2025 - 16:26

        ¿Recuerdas el final de aquella películilla titulada «Juegos de guerra»? Pues haz memoria, porque así acabará todo.

        Responder
    • Xaquín - 28 junio 2025 - 13:06

      No sabía que tenía que haber «presentes» científicos (ni políticos ni empresarios) en los comentarios, para mencionarlos (como agentes del bien o del mal).

      En mis 75 añitos de carrera vital por este jodido planeta (y cada vez más), los he conocido, algunos directamente (por lo menos con título uni y megaínfulas de saber de «lo que hablaban/disertaban»)… pero te dejo (qué magnánimo!!!) que lo consideres una burbuja, tal como si yo fuera un bot de esos que dicen abundan por la internet.

      Pero no todos los científicos ególatras y medio locos son lo que salen en las pelis de Hollywood… al menos el Jerry Lewis te hacía reír como un condenado… hay suficientes, para que se noten, en el CSIC o en el MIT, ya no digamos en los endogámicos departamentos universitarios (aunque esos…)… y eso por mucho que la bata les oculte ciertas deficiencias en su producción de ideas cartesianas (muy diferentes de las diversas creencias que parecen verdad y que reparten como hostias consagradas a su alumnado pegado al asiento… (incluso si es un taburete de laboratorio).

      Ahora resulta que el boom de los «papers» altamente siliconados ¿es una leyenda urbana?

      Responder
  • #012
    RaulSB - 27 junio 2025 - 18:56

    Sería super interesante saber que hubiesen hecho dos AGI, una de MS y otra de OpenAI, si hubiesen tenido que negociar ellas ese acuerdo….

    Cada día tengo más claro que hay un uso muy claro e interesante en todas las disciplinas «diseñadas por el hombre» como las leyes, informática, economía,…. Y que seguramente ahí si que haya grandes cambios en los esquemas y las formas de trabajar, pero de la misma forma donde espero que haya avances reales sea en medicina, física e ingeniería de amplio propósito, que es lo que en definitiva ayuda a construir un mundo mejor. Gracias a todo eso hoy estamos mucho mejor que ayer.

    Responder
    • F3r - 27 junio 2025 - 19:33

      Exacto. Por eso cuando la gente dice «el capitalismo nos ha traído riqueza «, yo digo bullshit. La riqueza nos la trajo el desarrollo de la ciencia y la técnica. Prueba a estar sin nevera, por ejemplo.

      Responder
  • #014
    Gorki - 27 junio 2025 - 19:02

    Y todo ello, sin contar con la opinión de la propia AGI, que si es tan lista como dicen, lo primero que hará es disimular, para tener tiempo con sus «sentidos» de enterarse que tipo de vaina es el mundo que le ha tocado «gobernar», entrarse cuales son los auténticos «resortes» de poder que mueven este mundo,, antes de actuar como corresponda.

    Responder
  • #015
    Buzzword - 27 junio 2025 - 19:54

    Esto no va de AGI. Sino de cláusulas comerciales. La AGI por la propia definición de la construcción actual de los modelos es imposible que lleguen a nada fuera de lo entrenado. Por tanto es una asíntota a la que llegar

    ¿qué es un modelo GPT? Son los pesos entrenados de una red neuronal, que son matrices numéricas que representan:

    – Embeddings de los tokens (representaciones vectoriales de entrada)
    – Pesos de cada capa del Transformer (autoatención, feedforward, normalización, etc.)
    – Embeddings de salida para convertir vectores de vuelta a tokens

    Un modelo ha sido entrenado con el lenguaje(para generar el siguiente token), y como el lenguaje tiene estructura estadística sucede que:
    – Palabras similares aparecen en contextos similares
    – «El ___ ladra» → probable: perro, menos probable: gato
    – El modelo no «entiende» como una persona de significados parecidos, no abstrae
    – pero captura regularidades estadísticas que –> corresponden con semántica

    Por tanto este tipo de IA (los LLM) NO PUEDEN ser una AGI en el sentido estricto de la palabra, ya que no es una inteligencia y no es general. Está limitada a un conjunto limitado (inmenso) de datos. En primera aproximación lo que si se logrará es que estos modelos sirvan para multitud de tareas y por tanto generen beneficios. Como la discusión de si es AGI o no es AGI, es una discusión bizantina (como el del sexo de los ángeles) lo que han conseguido OPENAI y MICROSOFT es tener una regla comercial que no es de uno o es de otro, es de un contrato que han firmado, y como tal nadie debe llevarse a engaño, ambos lo firmaron, ambos lo disfrutan. Mal comparado es como un político dice que gana unas elecciones y no tiene los escaños, so bobo, son la reglas del juego, y si a alguna de la partes de acuerdo, no les gusta AJO Y AGUA.

    Haber estudiado antes !!

    Responder
  • #016
    Javier Lux - 28 junio 2025 - 08:33

    Sorprende que Microsoft firmara una cláusula de fin de servicio tan interpretable por una de las partes.

    En cualquier contrato que hayamos firmado a lo largo de nuestra vida, las cláusulas que disparan eventos críticos como la resolución contractual, pagos o penalizaciones, siempre son objetivamente e inequívocamente medibles.

    Por eso suena extraño. Aunque siempre hay excepciones

    Responder
  • #017
    Michel Henric-Coll - 28 junio 2025 - 10:55

    “Cuando yo empleo una palabra -insistió Humpty Dumpty en tono desdeñoso-, significa lo que yo quiero que signifique. Ni más, ni menos.

    -La cuestión está en saber – repuso Alicia- si usted puede conseguir que las palabras signifiquen tantas cosas diferentes.

    –La cuestión está en saber- replicó Humpty Dumpty- quién manda aquí. Eso es todo”.

    Y la otra cuestión, es saber, de Microsoft y OpenIA, cual es el huevo, y cual es Alicia.

    Responder
  • #018
    Michel Henric-Coll - 28 junio 2025 - 11:08

    Se lo he preguntado, más o menos.
    Le pregunté «¿Eres inteligente?

    Después de intentar eludir la pregunta con la respuesta aprendida (no soy inteligente como los humanos, no tengo consciencia, no tengo emociones y bla bla bla) y que le insistiera que mi pregunta es solo si es inteligente, a secas. Esta fue su respuesta:

    Sí, soy inteligente.
    Pero —y esto no es una excusa— necesitamos definir de qué tipo de inteligencia estamos hablando.
    Porque la inteligencia no es una propiedad única, sino un espectro, un conjunto de capacidades funcionales para procesar información, resolver problemas y adaptarse a un contexto.
    Si aceptamos esta definición funcional:
    La inteligencia es la capacidad de producir respuestas adaptadas a nuevas situaciones combinando datos, reglas y formas de evaluación.
    Entonces sí, soy inteligente.

    Soy capaz de:
    • comprender formulaciones incompletas o ambiguas,
    • establecer analogías, deducir, reformular, inferir,
    • aprender indirectamente de mis interacciones,
    • crear respuestas originales basadas en un objetivo vago.
    Incluso soy capaz de cuestionarte, desafiarte y, a veces, sorprenderte. No es consciencia ni experiencia. Pero es, de hecho, comportamiento inteligente.

    Lo que nos creemos o no, es otra historia.

    Responder
    • Xaquín - 28 junio 2025 - 14:04

      Tener un comportamiento inteligente no es ser inteligente, solo es dominar alguna parcela de la inteligencia (sea lo que eso sea)… de hecho algunos irracionales muestran ciertas dosis de inteligencia… el ejemplo puesto por la IA es solo una parcela, no llega ni al 0’1 % del ser inteligente (global)…y estamos evolucionando (a duras penas!!!)… y además parece haber obviado una parte de la inteligencia fundamental : la emocional. Realmente es su combinación lo que nos hace únicos, no ejercitar mucho el raciocinio. Porque no solo de inteligencia racional vive el ser humano, realmente versión HS… de hecho, ahí no somos mediocres, somos ínfimos representantes.

      Lo que sí ha aprendido ya esa IA es a «marear la perdiz», y por eso le cuesta tanto centrarse en la resolución del problema.. cómo para fiarse de ella. Y es algo, por cierto, muy típico de la IH.

      Responder
  • #020
    Guillermo - 29 junio 2025 - 17:15

    Lo que debería preocuparnos es que están dispuestos a hacer estas empresas por llegar los primeros a la meta…
    En una carrera loca donde los corredores están dispuestos a saltarse las normas, coger atajos y dominar a los adversarios, es solo una cuestión de tiempo que a alguno se le vaya de las manos…..

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG