OpenAI y la fabricación de chips

IMAGE: OpenAI's DALL·E, via ChatGPT

Una exclusiva de Reuters afirma que OpenAI está finalizando el diseño de su primer chip de diseño propio, con el objetivo de tenerlo terminado a finales de este año 2025 y tratar de reducir su fuerte dependencia de los chips de Nvidia.

La idea, aparentemente, es terminar el diseño a finales de este año con el fin de iniciar su producción masiva en el 2026. Habitualmente, una ronda de producción típica suele costar en torno a decenas de millones de dólares, y se necesitan aproximadamente seis meses para lograr producir un chip terminado, a menos que OpenAI esté pensando en pagar sustancialmente más por acceder a un proceso de fabricación acelerado.

Por supuesto, no existe ninguna garantía de que el chip producido funcione adecuadamente y según lo esperado en la primera ronda de producción y, en caso de surgir algún tipo de problema, la empresa tendría que diagnosticar el problema, rehacer las partes del diseño afectadas, y repetir el proceso de producción.

El diseño y la producción de chips a medida de tareas concretas es enormemente complicado y costoso. Compañías con una fuerte experiencia en el ámbito de la tecnología como Microsoft o Meta lo han intentado anteriormente durante años, y han terminado fracasando. Por otro lado, los chips diseñados para tareas específicas suelen dar lugar a una flexibilidad menor frente a cambios tecnológicos y tendencias, dado que la dimensión de una compañía que no se dedica específicamente a esa tarea suele ser obviamente inferior a la que posee un especialista como Nvidia.

Como ventajas potenciales más significativas en el diseño de hardware propio, por tanto, está la posible optimización del rendimiento, la menor dependencia de Nvidia, la creación de una posible ventaja competitiva y unos hipotéticos ahorros a largo plazo derivados de la reducción de costes operativos y de una mayor eficiencia. Sin embargo, existen también riesgos potenciales elevados: el primero y evidente, el alto coste y la enorme complejidad del desarrollo. Pero además, hay una gran posibilidad de incurrir en un fuerte desfase temporal debido al tiempo que se invierte en el diseño y fabricación de los chips, un posible desfase a medida que Nvidia y otros siguen innovando, y por supuesto, un fuerte coste de oportunidad: desviar recursos a la fabricación de chips puede restar atención a la investigación en mejores modelos, en su optimización de modelos o en la construcción de alianzas estratégicas, algo que en un mercado tan dinámico como este puede llegar a ser crucial.

El rediseño de los chips para hacerlos más aptos para un tipo específico de tareas es únicamente una de las vías para lograr avanzar en el ámbito de la inteligencia artificial, y no necesariamente la más prometedora. Frente a la idea de disponer de más chips y más potentes, está la de innovar con los recursos disponibles modificando los procedimientos matemáticos aplicados, como parcialmente hizo Deepseek: menos chips, no de última generación, pero un proceso de entrenamiento del algoritmo que utilizaba reinforcement learning frente a otros modelos preexistentes, y lo hacía sin recurrir a afinamiento mediante humanos, sensiblemente más caro.

De hecho, la apuesta de China parece apuntar en esa dirección: utilizar chips fabricados en China, con arquitecturas que no logran bajar de los diez nanómetros, pero lograr mejoras que aprovechen mejor esas arquitecturas.

Además, existen también otras vías, como la colaboración con fabricantes (AMD, Intel o startups como Cerebras) para co-desarrollar aceleradores específicos, compartiendo costes y aprovechando su experiencia en hardware; un posible enfoque «software-first» que plantee exprimir el rendimiento optimizando frameworks y modelos en GPUs existentes que retrase o incluso evite la inversión en hardware a medida; o un modelo híbrido que pruebe chips personalizados que ofrecen proveedores de la nube (p.ej., Trainium o Inferentia) como forma de evaluar el rendimiento sin asumir desde el principio toda la inversión y el riesgo.

Los chips a medida pueden parecer una propuesta seductora, pero resulta brutalmente arriesgada para una empresa que, como OpenAI, ha nacido y crecido centrada en el software. Una aproximación más prudente podría pasar por alianzas con fabricantes ya consolidados, inversiones puntuales en co-optimización hardware-software o la exploración de ecosistemas emergentes (p.ej., RISC-V).

De momento, pretender cortar de raíz la dependencia de Nvidia podría ser prematuro si no hay un compromiso a largo plazo – con un presupuesto colosal y una gran tolerancia al riesgo – para impulsar esta estrategia. Al fin y al cabo, la carrera de la IA se dirime en la innovación algorítmica y la escalabilidad de la infraestructura, no solo en el hardware, por lo que conviene mantener el equilibrio justo entre ambas dimensiones. Y no olvidemos, además, que los chips de TSMC, que con total probabilidad serían fabricados en sus instalaciones más punteras en Taiwan, estarían sujetos a los aranceles a los chips fabricados fuera de los Estados Unidos ideados por el Idiot-in-Chief

Lanzarse al diseño de chips nuevos, en un momento en que las mayores mejoras recientes han venido precisamente de cambios en las metodologías de entrenamiento y con innumerables ideas de optimización que parten el ámbito de las matemáticas parece una apuesta enormemente arriesgada, y más mientras la compañía tiene evidentes problemas de rentabilidad y se dedica a anunciarse en el intermedio de la Super Bowl. Si además estás metido en líos con respecto a la naturaleza de tu compañía e incluso a su posible adquisición, peor aún.

Que puedas hacer rondas de financiación prácticamente ilimitadas y que cada vez que abras la mano aparezca alguien que deja caer dinero en ella no garantiza que seas capaz de optimizar esos recursos – de hecho, las teorías de la innovación frugal apuntan a que el incentivo para esa optimización se reduce con la disponibilidad exagerada de recursos – y tengo muy serias dudas sobre que lanzarse a competir con compañías como ARM o Nvidia en el diseño y arquitectura de chips de última generación sea la mejor de las ideas…


This article is also available in English on my Medium page, «Has OpenAI really thought through its plans to produce its own chips

23 comentarios

  • #001
    Alqvimista - 11 febrero 2025 - 11:34

    Con cero experiencia en el diseño de procesadores, hubiera sido mejor invertir en Qualcomm, por ejemplo, y que ellos hagan el trabajo.
    Algo a lo que se apuntaría MicroSoft encantado, a ver si los procesadores para sus nuevos PC+Copilot dan un salto en rendimiento y se acercan los de la competencia.

  • #002
    Chipiron - 11 febrero 2025 - 11:54

    Me ha echo reír mucho lo de «Idiot-In-Chief» :-))))

  • #003
    Chipiron - 11 febrero 2025 - 12:38

    Bromas a parte, sí que parece complicado y muy rígido el que OpenAI se dedique a fabricar chips a medida para sus algoritmos.

    Si Apple, una vez adquirida la unidad de modems de intel aún no ha sido capaz de sacar un módem 5G en ninguno de sus teléfonos… (por ahora los compra a Qualcomm)…

    • Alqvimista - 11 febrero 2025 - 13:55

      Cierto. Apple lo compró en julio del 2019 (1.000 M$, 2.200 empleados), si lo presenta este año serán cinco años justos. ¿5 años para completar un chip de comunicaciones? ¡WTF!

      Si con la experiencia de Apple ha tardado cinco años en terminarlo, ¿cuánto le puede costar a OpenAI hacer un procesador completo?
      Lo dicho, mejor se lo encargan a Qualcomm.

      Por cierto, hace un año ya que China prohibió el uso de ordenadores con Intel/AMD o Windows ¿alguien sabe cómo se ha desarrollado esa medida?
      Porque si no se han pasado todos a Apple/macOS es que están usando Linux con procesadores propios.

  • #008
    Benji - 11 febrero 2025 - 13:05

    «Hardware is hard», dijo un sabio. Será interesante ver si van por ARM, x64, CUDA o Risc-V como set de instrucciones.

    En todo caso será interesante ver si les sirve de algo, dado que los chinos van a seguir por debajo en recursos y por encima en imaginación. Lanzar más hardware a la IA no es la solución.

    Los primeros ordenadores ocupaban edificios enteros. Ahora todos llevamos en el bolsillo uno más potente que aquellos. Pues a eso hay que llegar

  • #009
    Gorki - 11 febrero 2025 - 13:19

    Zapatero a tus zapatos

  • #010
    Sergio Espósito - 11 febrero 2025 - 13:46

    Apuesto un café a qué no les saldrá bien.

    Es lo que tiene creerse el más listo

  • #011
    Lua - 11 febrero 2025 - 15:13

    No hay problema… Elon le comprara a Sam el software, y Sam podra dedicarse al Hardware… XDDD

    • Chipiron - 11 febrero 2025 - 17:40

      SAM le comprará twitter por un 10% de lo que pagó Elon Musk y se dedicará a gestionar la red social…XDDD!

      • Lua - 11 febrero 2025 - 17:59

        Lo que está claro, es que Grok es un fiasco comparado con otros quedando atrás en los benchmarks.

        Grok2 no es open source. En lo único que destaca es en no tener censura y poder generar toda la mierda que quieras.

        Elon cobra por ello, cosa que le echa en cara a Sam. Y Grok3 ni esta, ni se le espera.

        Y DeepSeek R1, gratis, le pone las cosas muy difíciles…

        Elon se ha creído que puede comprar lo que le plazca, como hizo con Twitter (una fanfarronada que le salió mal y paga cara, que los inversores le están apretando).

        Conociéndole como ya le conocemos, se ha querido sacar la chorra, quizás solo para envenenar posibles futuras rondas de inversión de OpenAI, quizás solo para desviar su fracaso con xAI.
        Quien sabe… con estos dos, jugando a poli bueno – poli malo cualquier cosa puede pasar (y ninguno de los dos es bueno)

        Para retomar el tema del articulo:

        Confeccionar un chip de este tipo (y que sea capaz de competir/desterrar a NVIDIA/CUDA), hacen falta muchos milmillones, muchos miles de técnicos, ingenieros (hard y soft), tener disponible la maquinaria para “imprimirlos” y sobre todo… mucho tiempo.

        Esto no es hacer una maqueta de Star Wars con Lego…

  • #014
    Guillermo - 11 febrero 2025 - 16:19

    Muchos procesos de ingeniería, investigación, desarrollo, fabricación etc se va a acelerar con la IA.
    Muchas veces no hace falta tener el mejor hardware para tu software sino el que mejor se integre y de eso tenemos muchos ejemplos en la historia.
    Xerox con global view y su hardware dedicado bounty

  • #015
    Enrique - 11 febrero 2025 - 17:10

    Enrique, ya sé que no te gusta hablar de España, pero ¿algún comentario sobre cómo Telefónica se acaba de cargar la neutralidad de la red?

  • #018
    Angel - 11 febrero 2025 - 19:20

    Apple hace más de 15 años qué fábrica sus propios SoC. Comenzó con el iPad 1 en 2010. Y pocos años después le incorporó su Neural Engine para optimizar el uso de IA en iOS. Mucha experiencia y ese es el arreglo que hizo con Altman para usar ChatGPT en Apple Intelligence: en vez de pagar dinero, transferir conocimiento en diseño de chips ARM.

    • Lua - 11 febrero 2025 - 20:27

      No tengo dudas, pero tampoco certezas…

    • Alqvimista - 12 febrero 2025 - 06:50

      Huyyyyyy, no sé, no sé, sería un pago demasiado grande por usar chatGPT sin cuenta de usuario ni pago.
      Voy a ver si averiguo algo.

  • #021
    Gorki - 12 febrero 2025 - 11:31

    Soy contrario a los conglomerados de empresas. Open Ai se verá obligado a comprar sus chips aunque sean peores y quien los fabrica no tendrán incentivo para mejorarlos ni bajarlos de precio porque los tienen vendidos

  • #022
    David - 14 febrero 2025 - 15:40

    Google va por la sexta generación de su hardware especializado para IA, que son las TPUs.

    https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga

    Entiendo que tiene sentido. Si no, no habrían seguido por ese camino.

  • #023
    Alqvimista - 16 febrero 2025 - 17:16

    ARM fabricará sus propios chips para centros de datos de IA, fabricados por TSMC. Meta deja atrás Intel y AMD en su apuesta por ARM:

    https://www.google.com/search?q=ARM+fabricar%C3%A1+sus+propios+chips+y+Meta+ser%C3%A1+de+los+primeros+en+usarlo&ie=UTF-8&oe=UTF-8&hl=es-es&client=safari

Dejar un Comentario

Los comentarios están cerrados