Nvidia, el lugar adecuado y el momento preciso…

IMAGE: Nvidia

Nvidia Corporation fue fundada hace más de treinta años, en abril de 1993, en Sunnyvale, California, y salió a bolsa en 1999. Uno de sus fundadores, Jen-Hsun «Jensen» Huang, un inmigrante taiwanés que llegó a los Estados Unidos con nueve años, es el CEO y presidente de la compañía, y posee un 3.6% de sus acciones.

La compañía ha pasado por todo tipo de avatares en su historia. Su primer contrato grande para el desarrollo de un chip de 3D fue con la japonesa Sega. Tras un año de desarrollo, Huang se dio cuenta de que su arquitectura era una estrategia equivocada y recomendó a Sega buscar otro socio, pero pidió a su presidente que pagase la totalidad del contrato estipulado, porque si no lo hacía, dada la magnitud de la inversión realizada, su compañía quebraría: el presidente de Sega lo consideró éticamente adecuado, y la compañía pudo salvarse.

En 2007, la compañía anunció CUDA, una plataforma de computación paralela e interfaz de programación de aplicaciones (API) que permitía que el software utilizase unidades de procesamiento de gráficos (GPU) para el procesamiento de propósito general. Ese enfoque, denominado computación de propósito general en GPU (GPGPU), fue considerado una estrategia equivocada por la mayoría de los analistas, que juzgaron que el desarrollo y adopción de una nueva plataforma llevaría muchos años, y la compañía, que decidió perseverar en su desarrollo y en su visión, tuvo que pasar por varios años de malos resultados. Pero tras esos años, llegaron usos como el renderizado acelerado de gráficos, los algoritmos criptográficos avanzados o la minería de criptomonedas, que dispararon el uso de los productos de la compañía

En 2010, la compañía había alcanzado el liderazgo en chips para telefonía móvil, pero sorpresivamente, decidió retirarse de un mercado que estaba en fortísimo crecimiento, y dedicarse a lo que consideraba su misión: construir componentes para ordenadores capaces de hacer lo que los ordenadores ordinarios no podían hacer. Esa visión, y el enorme sacrificio en todos los sentidos que supuso tomar esa decisión, han convertido a la compañía en lo que es ahora.

¿Y qué es la compañía ahora? Pues simplemente, una compañía a punto de entrar en el selecto club del billón de dólares de capitalización bursátil, tras beneficiarse del fortísimo crecimiento de los algoritmos generativos y el machine learning tras la aparición de ChatGPT. Una de sus GPUs, el chip H100, ha convertido a la empresa en una de las más valiosas del mundo, la auténtica bestia de la industria. La compañía ha subido más de $219,000 millones en su capitalización de mercado de la noche a la mañana, una de las subidas más significativas en un día en capitalización de mercado para cualquier empresa en el mercado. En solo un día, Nvidia ha crecido más que la valoración actual de Uber, PayPal, Spotify, Coinbase y Robinhood, juntos. La empresa generó ingresos brutos de $7,200 millones, en torno a un 10% más de lo previsto, un nuevo récord de ingresos y un aumento interanual del 64%.

La creciente demanda de los chips que Nvidia fabrica para aplicaciones de algoritmia generativa y machine learning, unido a la visión de futuro de la compañía, significan probablemente que sus ingresos seguirán aumentando, y es solo cuestión de tiempo antes de que se convierta en la primera empresa de semiconductores en alcanzar una valoración de 1 billón de dólares: el efecto de estar en el lugar adecuado, en el momento preciso. Y una historia francamente interesante e inspiradora sobre la que vale la pena leer. Seguramente la prepare para su discusión en clase.


This article is also available in English on my Medium page, «Nvidia, the kind of company that makes others invidious…»

17 comentarios

  • #001
    Lua - 29 mayo 2023 - 21:30

    Hemos tardado en hablar de NVIDIA, ehhh?? XDDD
    Ya era hora…

    • Enrique Dans - 29 mayo 2023 - 21:50

      Algunos artículos están mejor después de un paso por barrica y una cierta maduración en botella… ;-)

      • Lua - 29 mayo 2023 - 22:01

        Ay pillin…. invita coñe… :P

  • #004
    Gorki - 29 mayo 2023 - 22:05

    Cuando a alguien le toca el Gordo de la Lotería, (siempre hay uno al que le toca), decimos de él que tiene mucha suerte, no que es un señor muy inteligente.

    Nvidia estaba metido en un buen segmento, que eran las tarjetas gráficas para generar los dibujos de juegos de ordenador, eventualmente se las utilizaba para otras cosas, como para equipar los procesadores de supercomputadores.

    De repente se ha encontrado como proveedores de chips para AI, Han tenido mucha suerte. No son tontos, porque las tarjetas gráficas, tienen y tenían un buen segmento del mercado. Pero en lo de la AI simplemente, es que han tenido mucha suerte. Hace solo tres meses, nadie , ni ellos, se lo esperaban.

    Los procesadores de Intel multicore, no han tenido tanta suerte, los multicore en este caso no son especialmente útiles para hacer redes neuronales.

    • Lua - 29 mayo 2023 - 22:15

      Madre mia Gorki… es que ni te molestas en informarte un poco…

      » En 1993, los tres cofundadores creían que la dirección correcta para la próxima ola de computación era la computación acelerada o basada en gráficos porque podía resolver problemas que la computación de propósito general no podía. También observaron que los videojuegos eran simultáneamente uno de los problemas más desafiantes desde el punto de vista computacional y tendrían un volumen de ventas increíblemente alto. Los videojuegos se convirtieron en el volante de inercia de la empresa para llegar a grandes mercados y financiar una enorme investigación y desarrollo para resolver problemas informáticos masivos. »

      NVIDIA

      • Gorki - 29 mayo 2023 - 23:16

        Me das la razón , vieron un área de negocio u se metieron de lleno, los videojuegos, pero era un área muy limitada,

        Lo que no podían intuir, es que esa arquitectura fuera adecuada para construir redes neuronales, y menos aun, que hicieran falta gigantescas redes neuronales para crear una Learning Machine

        • Lua - 30 mayo 2023 - 09:58

          ¯\(°_o)/¯

      • Juan Ignacio - 30 mayo 2023 - 10:40

        Yo creo que te equivocas Gorki. Ellos no tenían capacidad para saber que las GPUs serían usadas en machine learning, pero sí podían saber que su penetración iría creciendo en el sector media, principalmente en el renderizado con usos en construcción (diseño de los conceptos) , comunicación audiovisual, cine, animación… Además también sabían que se podían usar en entornos científicos e ingenieriles: cálculo de estructuras, simulación, etc etc.

        Y no olvidemos, en el 2012 sale el paper de Imagenet, que inicia el boom del deep learning y que, precisamente usa dos tarjetas de Nvidia. En el mejor de los casos, Nvidia era consciente de ese trabajo y por tanto, sabía de las posibilidades de las GPU sobre el 2011; en el peor, sobre el 2012 o 2013. Definitivamente, algo de suerte hubo, pero muy poca diría yo.

  • #009
    Ernesto - 29 mayo 2023 - 22:18

    Profesor, y desde un punto de vista estrategico, como ves la posición de su rival AMD?

  • #010
    Chipiron - 30 mayo 2023 - 09:45

    Yo creo que la visión de su CEO se adelantó a los tiempos: Si bien es cierto que, más o menos, la Ley de Moore se ha mantenido hasta esta década en cuanto a densidad de integración, no es menos cierto que la velocidad «del clock» de las CPUs están muy estancadas desde hace más de una década (incluso 2) por problemas de disipación de calor.

    Ante este panorama, la única solución era la computación en paralelo («los cores») y eso ya empezó a ser realidad con los legendarios Intel Pentium.

    La diferencia entre los microprocesadores «multi-core» y las GPUs de Nvidia es que mientras los primeros son, en el fondo, multiples CPUs de caracter general, los «cores» de las GPUs son CPUs muy especializadas para las tareas más susceptibles de ser paralelizadas, como sumas y multiplicaciones.

    Por eso no creo que la visión fuera errónea, simplemente había que esperar a que la escala de integración diese la razón al fundador de Nvidia.

  • #011
    Xaquín - 30 mayo 2023 - 10:31

    «el presidente de Sega lo consideró éticamente adecuado» (EDans).

    Esta línea y el párrafo siguiente, podía ser un buen texto para analizar en las hipotética escuelas de partidos políticos, cara una innovación real. Nada de maquillajes, que solo intentan ocultar los enormes lastres de organización, que se traen entre manos.

    Y vale tanto para los llamados «de derechas», como los llamados «de izquierdas». Especialmente los segundos, porque la innovación tiene más que ver con el progreso que con la conservación.

  • #012
    f3r - 30 mayo 2023 - 11:49

    Yo creo que la visión de que una GPU podía hacer cosas importantísimas en paralelo que una CPU nunca haría fue totalmente visionaria.

    Se olvida mencionar que ahora mismo la ciencia depende en exclusividad del uso de GPUs: oceanografía, clima, reacciones nucleares, cromodinámica cuántica (en lattice), cuántica en general, procesado de señales, cálculos con diferencias finitas (usados en TODO), y un largo etc.

    En fin, en términos económicos no sé cómo computa esta contribución, pero desde luego ahora mismo un científico «no es nadie» sin una GPU de NVIDIA.

  • #013
    Enrique - 30 mayo 2023 - 13:38

    Enrique, si para ti mantener la visión durante 24 años (hasta 2017) con un éxito escaso, e incluso estando al borde de la quiebra en 3 ocasiones, es «estar en el lugar adecuado y el momento preciso» tenemos un concepto muy diferente. Incluso Gorki ha entendido que se debe a la suerte, que es lo que pretende insinuar ese título.

    Para mi es la historia de un tío enormemente visionario, que ha confiado siempre en su «intuición» y que después de mucho trabajo y sufrimiento ha conseguido el éxito.

    Sin olvidarnos de todo el juego sucio que ha hecho con la gestión del stock de sus gráficas para inflar precios desde hace más de 3 años.

    • Lua - 30 mayo 2023 - 16:42

      Lo unico que se le puede «afear» a NVIDIA y yo mismo lo he hecho en muchas ocasiones, es esto ultimo. Y no me vale que AMD hiciera lo mismo.

      Por lo demas, para mi es una empresa ejemplar, con productos ejemplares y una trayectoria de… eNVIDIA :P

  • #015
    Ernesto - 30 mayo 2023 - 14:54

    Como nota al margen, la presentación del tio Jensen ha desanimado a la comunidad gamer, que fue la que movio a la empresa por años, y que ahora ven todo el foco en AI, por lo que ahora le quedaran las sobras… algo desalentador luego del acaparamiento de GPUs por parte de los mineros

  • #016
    PS - 30 mayo 2023 - 22:50

    Creo que el mundo de la computación de datos y gráfica a gran escala no ha hecho más que empezar. Pensemos en la conducción autónoma, ya no solo de coches, sino de TODO; sistemas que posiblemente procesarán los datos a nivel local usando potentes gráficas o usarán cloud computing con un lag despreciable conforme las redes inalámbricas vayan mejorando. Los sistemas de transporte a nivel mundial se comunicarán entre sí a tiempo real y eso requerirá unos servidores muy potentes y rápidos. Auguro al sector y a NVIDIA un futuro brillante y esto es sólo el comienzo.

Dejar un Comentario

Los comentarios están cerrados