Musk contra Altman: el juicio que está enterrando el idealismo de la inteligencia artificial

IMAGE: A dramatic courtroom scene showing two opposing figures facing each other across a glowing digital sphere, with a judge and a diverse jury behind them and a symbolic scale balancing people against money, set against a split red-and-blue technological background

Durante años, Silicon Valley se esforzó en vendernos una narrativa muy concreta sobre la inteligencia artificial. Una narrativa casi mesiánica. La idea de que un pequeño grupo de visionarios estaba construyendo una tecnología revolucionaria pensando, ante todo, en el bien común. La promesa de que, esta vez sí, el progreso tecnológico sería diferente: más abierto, más colaborativo, más responsable.

Y ahora, en una sala de tribunales de Oakland, California, esa narrativa se está desmoronando pieza a pieza. El juicio entre Elon Musk y OpenAI no es simplemente una pelea entre multimillonarios con egos descomunales. Tampoco es únicamente un conflicto empresarial entre antiguos socios que acabaron enfrentados. Lo que estamos viendo es algo bastante más relevante: la constatación pública de que la inteligencia artificial se ha convertido definitivamente en una cuestión de poder. Poder económico. Poder político. Poder estratégico. Y, sobre todo, poder concentrado.

El caso enfrenta a Elon Musk contra Sam Altman, Greg Brockman, OpenAI y Microsoft. Musk sostiene que OpenAI traicionó su misión original como organización sin ánimo de lucro dedicada a desarrollar inteligencia artificial «para beneficio de la humanidad», y que acabó transformándose en una estructura diseñada esencialmente para capturar valor económico y consolidar una posición dominante en el mercado. OpenAI, por su parte, responde que Musk conocía perfectamente la evolución de la compañía, que incluso apoyó estructuras similares cuando formaba parte del proyecto, y que su demanda responde más bien a un intento de frenar a un competidor directo de su propia empresa de inteligencia artificial, xAI.

Pero reducir el asunto a un simple «Musk contra Altman» sería quedarse en la superficie. Lo interesante es todo lo que el juicio está revelando sobre la evolución de la industria de la inteligencia artificial y sobre cómo las grandes promesas éticas de hace apenas una década han terminado subordinadas a la lógica habitual de Silicon Valley: crecimiento acelerado, rondas multimillonarias y control de infraestructuras críticas.

La historia de OpenAI es particularmente reveladora porque nació precisamente como reacción a esos riesgos. Cuando fue fundada en 2015, OpenAI se presentaba como una alternativa a las grandes tecnológicas. Una organización abierta, colaborativa y sin ánimo de lucro destinada a evitar que una sola empresa monopolizase el desarrollo de una inteligencia artificial general. La propia palabra «Open» era una parte esencial del relato.

Pero entrenar modelos avanzados de inteligencia artificial resultó ser muchísimo más caro de lo previsto. El desarrollo de GPT-3, GPT-4 y posteriormente ChatGPT transformó completamente la escala económica del proyecto. Lo que inicialmente parecía un laboratorio de investigación acabó necesitando inversiones astronómicas en capacidad computacional, centros de datos y talento especializado.

Y ahí apareció Microsoft. La inversión multimillonaria de Microsoft en OpenAI cambió radicalmente la naturaleza del proyecto. Ya no se trataba simplemente de un laboratorio con aspiraciones idealistas, sino de una pieza central en la estrategia geopolítica y empresarial de una de las compañías más poderosas del mundo. Ese es precisamente uno de los elementos más interesantes del juicio: aunque Microsoft no sea el protagonista mediático principal, su presencia lo impregna todo.

De hecho, una de las noticias más recientes y significativas del proceso ha sido la comparecencia de Satya Nadella, CEO de Microsoft, como testigo. Nadella defendió abiertamente que la transformación de OpenAI hacia una estructura con ánimo de lucro era necesaria para poder desarrollar la tecnología y escalarla globalmente. Según diversas crónicas del juicio, su testimonio se centró en justificar que sin enormes inversiones privadas, OpenAI jamás habría podido competir en la carrera global de la inteligencia artificial. Y probablemente tenga razón, y ese es precisamente el problema.

Porque la gran paradoja de toda esta historia es que ambos bandos tienen parte de verdad: Musk tiene razón cuando señala que OpenAI se alejó completamente del espíritu fundacional con el que fue presentada públicamente. La organización que prometía apertura terminó construyendo algunos de los sistemas más cerrados y opacos de toda la industria. Pero OpenAI también tiene razón cuando argumenta que desarrollar modelos avanzados requiere cantidades de capital simplemente incompatibles con un modelo filantrópico clásico.

La consecuencia es bastante inquietante: la inteligencia artificial parece haber alcanzado un nivel de complejidad y coste que hace prácticamente imposible mantener estructuras realmente abiertas e independientes. Y eso significa que el futuro de esta tecnología queda inevitablemente en manos de un número muy reducido de actores con capacidad para movilizar decenas de miles de millones de dólares.

El juicio está dejando además escenas enormemente simbólicas. El jurado, por ejemplo, está compuesto por ciudadanos completamente alejados del ecosistema tecnológico: una enfermera, un pintor, un jubilado, cuidadores, trabajadores normales que apenas utilizan herramientas de inteligencia artificial. Ese detalle resulta casi perfecto como metáfora de la situación actual. Las decisiones más importantes sobre el futuro tecnológico de la humanidad están siendo tomadas en un contexto que la mayoría de la sociedad apenas comprende. Y mientras tanto, fuera de la sala, se acumulan periodistas, estudiantes y curiosos como si asistieran a una mezcla entre espectáculo mediático y ajuste de cuentas histórico entre dos de las figuras más influyentes de Silicon Valley.

La jueza Yvonne Gonzalez Rogers, conocida por haber llevado también casos de enorme relevancia tecnológica, ha intentado mantener el juicio dentro de parámetros estrictamente jurídicos. Ha rechazado referencias apocalípticas sobre el “fin de la humanidad” provocado por la inteligencia artificial y ha insistido en centrar el debate en cuestiones concretas de gobernanza, contratos y estructura corporativa.

Esa decisión también resulta enormemente reveladora, porque gran parte del debate público sobre inteligencia artificial se ha convertido en una especie de teatro del miedo. Constantemente aparecen discursos maximalistas sobre riesgos existenciales, superinteligencias descontroladas y escenarios de ciencia ficción. Sin embargo, cuando el asunto llega a los tribunales, lo que realmente emerge son cuestiones mucho más terrenales: dinero, control, participaciones accionariales, consejos de administración, licencias, infraestructuras… en realidad, el juicio está mostrando que la batalla por la inteligencia artificial no se parece tanto a un debate filosófico como a una lucha clásica por el dominio de una tecnología estratégica.

Y eso enlaza con algo que llevamos años viendo repetirse en internet: cada vez que aparece una tecnología transformadora, nace rodeada de ideales utópicos: apertura, descentralización, democratización, acceso universal. Sucedió con la web, con las redes sociales, con el software libre, con las criptomonedas y ahora con la inteligencia artificial. Una y otra vez ocurre lo mismo: la escala económica termina imponiendo dinámicas de concentración. Los costes crecen, las infraestructuras se vuelven críticas, y el control acaba concentrándose en muy pocas manos.

En ese sentido, OpenAI no es una anomalía. Es simplemente el último ejemplo de un patrón perfectamente reconocible. Quizá por eso el juicio está generando tanta atención. Porque funciona casi como una radiografía moral de Silicon Valley. Musk acusa a Altman de haber convertido un proyecto altruista en una máquina de extracción de valor, pero Musk dirige empresas caracterizadas precisamente por modelos extremadamente agresivos de concentración de poder. OpenAI defiende que su evolución era inevitable para competir globalmente, pero esa evolución destruye precisamente el relato ético y abierto sobre el que construyó inicialmente su legitimidad pública.

Nadie sale completamente bien parado, y tal vez ese sea el aspecto más honesto de todo el proceso. Las filtraciones y testimonios recientes han añadido todavía más tensión. La publicación de fragmentos del diario personal de Greg Brockman, presidente de OpenAI, ha servido para alimentar las acusaciones de Musk sobre supuestas intenciones ocultas desde los primeros años del proyecto. Brockman respondió calificando esos textos como simples reflexiones privadas y no como pruebas de una estrategia deliberada.

Mientras tanto, el propio Musk ha intentado reforzar su posición afirmando que no busca enriquecerse personalmente con la demanda y que cualquier compensación económica debería regresar a la organización sin ánimo de lucro original. Pero incluso esa posición tiene algo profundamente ambiguo, porque cuesta mucho interpretar este conflicto exclusivamente como una cruzada ética cuando Musk compite directamente contra OpenAI a través de xAI y Grok.

La sensación general es que estamos viendo cómo los principios se invocan estratégicamente cuando coinciden con intereses empresariales concretos. Y eso también explica por qué, fuera del juzgado, muchas de las protestas no apoyan realmente a ninguno de los dos bandos. Existe una percepción creciente de que el problema no es simplemente quién gane este caso, sino el hecho mismo de que el futuro de una tecnología tan trascendental esté quedando atrapado en disputas corporativas y estructuras privadas opacas. La cuestión de fondo no es si OpenAI traicionó o no su misión fundacional. La cuestión verdaderamente importante es otra: ¿era siquiera posible mantener aquella misión original una vez que la inteligencia artificial empezó a convertirse en la infraestructura económica más importante del siglo XXI?

Y la respuesta, probablemente, es bastante incómoda, porque todo indica que no. La reciente cobertura de medios como Wired, Forbes, Axios o Business Insider coincide precisamente en esa idea: el juicio no decidirá únicamente el destino de OpenAI, sino que puede redefinir cómo se estructurarán las grandes compañías de inteligencia artificial en el futuro.

Si Musk ganase y los tribunales concluyesen que una organización nacida con objetivos filantrópicos no puede transformarse posteriormente en una estructura comercial sin violar sus compromisos fundacionales, el impacto sería enorme. No solo para OpenAI, sino para cualquier laboratorio de inteligencia artificial que intente atraer inversión privada manteniendo simultáneamente un discurso ético o de beneficio público. Y si OpenAI gana, el mensaje será igualmente poderoso: significará que incluso las promesas fundacionales más idealistas pueden reinterpretarse cuando la lógica económica y competitiva lo exige.

En ambos casos, el resultado parece conducir hacia la misma conclusión: la era ingenua de la inteligencia artificial ha terminado. Aquella fase en la que podíamos imaginar laboratorios abiertos colaborando desinteresadamente «por el bien de la humanidad» está desapareciendo rápidamente. La IA ya no es únicamente investigación: es infraestructura estratégica, es geopolítica, es seguridad nacional, es poder económico… y precisamente por eso, este juicio importa muchísimo más de lo que parece.

Porque no estamos viendo simplemente a Musk y Altman peleándose por el pasado de OpenAI: estamos viendo cómo se decide quién tendrá legitimidad para controlar el futuro de la inteligencia artificial.

Y esa batalla acaba de empezar.

11 comentarios

  • #001
    Gorki - 12 mayo 2026 - 10:37

    No soy imparcial, no se quien de los dos tiene la razón, pero yo me pongo del lado de Altman.

    Responder
    • Juan T. - 12 mayo 2026 - 11:09

      Bien por ti Gorki.

      No todo el mundo puede elegir tan rapido entre Belcebú y Satanás.

      Responder
    • Alguien - 12 mayo 2026 - 13:00

      El cerebro de Musk funciona de esta manera:

      A favor de la libertad y de lo procomún y del progreso excepto si ve a alguien de ideología de izquierda, en cuyo caso Musk se convierte en un Mr Hide versión nazi berserker rabioso.

      Obviamente Musk no está bien de la chaveta, pero eso no quiere decir que «no pueda tener razón nunca».

      Responder
  • #004
    Xaquín - 12 mayo 2026 - 11:37

    Tanto el amigo Elon como el amigo Sam son productos directos (algo subproductos) de una sociedad altamente competitiva, como es la USA. Capaz al mismo tiempo de masacrar nativos americanos (por tierra o por oro), como si no hubiera un mañana, y de tener jueces que se apellidan Gonzalez (aunque le quitaran la tilde).

    En muchas cosas aún nos pueden enseñar… en poner la tilde en cosas importantes.

    Responder
  • #005
    Reflexivo - 12 mayo 2026 - 11:42

    Y bajo esa visión, qué opinas sobre planteamientos alternativos como DeepSeek, abiertos por un lado, pero impulsados por un gobierno como el chino por otro?

    Responder
  • #006
    Sergio Espósito - 12 mayo 2026 - 12:16

    No tengo manera de saber si estos señores tuvieron alguna vez las loables intenciones que han alegado en el famoso juicio. El caso es que no les creo

    Responder
  • #007
    Enrique - 12 mayo 2026 - 12:32

    Altman te vende “IA por el bien de la humanidad” mientras tiene un modelo que solo se sostiene quemando miles de millones en chips, electricidad y agua.

    Y el otro…no hay mucho que decir que no sepamos ya.

    En esta lucha de egos «lo mejor para la humanidad» es que se destruyan mutuamente.

    Responder
    • Alguien - 12 mayo 2026 - 13:05

      > «se sostiene quemando miles de millones en chips, electricidad y agua.»

      Se fabrican chips. <- pof vale
      Se usa electricidad. <- renovables
      Se usa agua <- limitante renovable

      ¿Puedes concretar cuál es el problema?

      Responder
      • Enrique - 12 mayo 2026 - 13:40

        Por partes.
        1) Fabricar GPUs es una cadena hipercentralizada (TSMC, ASML, Nvidia) con dependencia geopolítica brutal, consumo intensivo de agua ultrapura, minerales críticos, y una huella de carbono que no aparece en los informes “verdes”.

        2) ¿Me estás diciendo que compras eso de que utilizan energía limpia? Por favor…los Datacenter están conectados a la red y usan el mix real (en USA 25% renovable). También hay informes de aumentos de la factura en residenciales cercanos a DCs.

        3) Una vez más, el agua no se renueva infinitamente. Además, sigue aumentando el consumo mientras tenemos escenarios de reducción y prohibición para particulares.

        En el fondo, lo de siempre pero a escala masiva: suelo público, agua pública, red eléctrica pública, incentivos fiscales públicos para beneficio privado y concentrado en 4 empresas.

        Responder
    • Gorki - 12 mayo 2026 - 13:33

      Sin embargo, considero lz AI un gran avance para la humanidad

      Responder
  • #011
    Alguien - 12 mayo 2026 - 12:50

    El cambio de OpenAI es abusivo. El Límite x100 de retorno de inversión es demasiado alto.

    Sería bueno que la ley protegiera las organizaciones filantrópicas o de lo «Procomún» estilo OpenAI o la Wikipedia.

    Responder

Dejar un Comentario a Reflexivo

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.