La fiebre del oro y los que venden herramientas

IMAGE: NVIDIA

Mi columna de esta semana en Invertia se titula «Nvidia: ¿dónde está el techo?» (pdf), y está motivada por la línea prácticamente vertical y ascendente que describe la evolución de la cotización de la compañía, en pleno frenesí por la adopción de la inteligencia artificial y el machine learning a todos los niveles y en todas las industrias.

La valoración de Nvidia superó esta semana a la de Amazon y podría estar a punto de superar la de Alphabet para convertirse en la cuarta o incluso la tercera empresa más valiosa de los Estados Unidos. Una compañía sobre la que he escrito recientemente, de esas que se pasan treinta años tomando decisiones difíciles de explicar a unos analistas bursátiles obsesionados por el cortoplacismo, para finalmente tener éxito «de la noche a la mañana«.

Sí, la Nvidia de Jensen Huang, ese inmigrante taiwanés llegado al país con nueve años, fue capaz de predecir hace muchos años que las necesidades de computación se dispararían en algún momento, que lo lógico era llevar a cabo esos procesos de computación de propósito general en unidades de procesamiento de gráficos (GPUs) y que para llegar a ese momento, había que concentrar los esfuerzos de investigación y desarrollo de manera obsesiva, sin dejarse distraer por cantos de sirena como la oportunidad que suponía el crecimiento del mercado smartphone.

Hoy, Jensen Huang, además de ser el número 21 del Bloomberg Billionaires Index, es un directivo con reputación de visionario, que tuvo que ver como una panda de analistas que no hacen su trabajo mejor que un mono con los ojos vendados tirando dardos sobre una pared denigraban sus esfuerzos y recomendaban no invertir en su compañía. El caso de Nvidia es una demostración de por qué no debemos fiarnos de los analistas financieros, y de por qué cuando se les hace caso, el mercado se convierte en un mecanismo perverso que aúpa lo peor de la sociedad y desprecia la verdadera innovación, la que cuesta tiempo y esfuerzo conseguir.

Ahora, Nvidia es la estrella absoluta del mercado, y para intentar competir con ella, hay quien se plantea hacer rondas de financiación de entre cinco y siete billones (europeos, es decir, millones de millones) de dólares que ni siquiera garantizarían lejanamente el éxito, mientras el propio Huang afirma que eso no es más que una enorme exageración. Es lo que tiene conocer tu negocio. Mientras, su compañía anuncia una línea de chips personalizados para las necesidades de cada compañía que puede reportarle un crecimiento todavía mayor.

No, el precio de las acciones de Nvidia no tiene, a día de hoy, un techo claro. Ha logrado convertirse, en plena fiebre del oro de la inteligencia artificial y cuando todas las compañías saben que si no la incorporan no podrán ser competitivas, en la empresa que vende las mejores palas y los mejores tamices, los que de verdad sabes que necesitas si quieres tomarte en serio eso de la búsqueda de metales preciosos. Los que venden herramientas siempre son los que más ganan en todo proceso de difusión tecnológica, y Nvidia es una muy buena prueba de ello.


This article is also available in English on my Medium page, «Nvidia: the sky’s the limit«

25 comentarios

  • #001
    c3po - 14 febrero 2024 - 13:30

    La base del procesamiento en paralelo depende en gran medida del algoritmo usado para ese fin, es decir que el cuello de botella es que parte podemos poner en paralelo, es la conocida ley de Amdhal desde los 60s.
    Las GPU siempre se han usado para aligerar la carga de trabajo de la CPU, realizando sobre todo cálculos de la «mecánica» en videojuegos y más recientemente en al cálculo matricial de la IA. Fabricantes de GPUs hay muchos, pero para IA, el acierto que hace triunfar a NVIDIA es su potencia y el lenguaje CUDA en abierto para poder programar los algoritmos de IA, es lider absoluto en IA copando el 90% del mercado. Dicho de otra forma cualquier iniciativa para no usar esa tecnología está destinado al fracaso más absoluto. El éxito se resume en una palabra «versatilidad», con la vaca que le daba leche(los juegos) tuvo la fortuna de la fiebre de la minería, y ahora el de la IA.

    El futuro para deshacer este monopolio es parecido a lo que sucedió con el PC de IBM y se llama clonar el API CUDA, que es lo que está haciendo el eterno segundón AMD, el mismo que toda la vida tenía micros compatibles INTEL. (Si los buenos)

    Mientras la blancanieves del cuento, con su nulo posicionamiento innovador en general, y particular en IA ha dejado el trono a MS. Que si ha sabido pilotar en estos tiempos su vuelta a ser el number one…

    El movimiento de Sam Altman, puede que vaya en la línea clonadora. Si esas hipotéticas fábricas de chips tienen que servir para algo es para que la producción vuelva a Occidente, y si es, debe ser para todos, no puede reinventar CUDA, hay que evolucionarla. No puede ser que te cueste algo 500 y lo quieras vender por 4000, en eso se está aprovechando NVIDIA, de su posición de monopolio de facto. Pero ha llegado a eso sabiendo, no haciendo el imbécil en RRSS

  • #002
    Gorki - 14 febrero 2024 - 14:00

    A toro pasado es muy fácil criticar a analistas bursátiles obsesionados por el cortoplacismo, que no aconsejaban compara en Navidia, pero ni tu ni yo sabemos cual será el siguiente empresa que subirá meteoricamente en el futuro, ni tan siquiera si Navidia mantendrá la actual valoración dentro de un año.
    .
    Que las necesidades de computación se dispararían en algún momento, lo sabíamos todos, Desde que se pronuncio la Ley de Moore, no han cesado de crecer las necesidades de computación de forma desbocada, Mainframes para las grandes empresas, Pc’s para el publico , Internet, Smartphones en toda la población ,…. , lo que no sabíamos era el como continuaría creciendo

    Intel lo intentaba haciendo procesadores cada vez mas potentes y se confundio, los que optaron por el IoT se confundieron, los que optaron por el Big Data se confundieron, los que optaron por los servicios de computación en la nube,… casi acertaron,… El que optó por acelerar la producción de gráficos,… acertó.

    El realmente visionario es aquel que se le ocurrió utilizar unos chips, creados específicamente para acelerar y aumentar la complejidad de las las de las imágenes en videojuegos, para su uso en la llm. Yo que disto de ser visionario, habría optado por una solución tradicional basada en cluster de procesadores, que es lo habitual en los superordenadores.

    • c3po - 14 febrero 2024 - 16:11

      Esto no va de CPUS potentes, ni de Moore (que coño de ley que le han pasado con una motillo por la derecha, ni de potencia al límite de la física, eso es una antigualla, ni de la gilipollez de la supremacía cuántica).

      Esto va de pensamiento lateral, AMDAHL !!! eso que hacían en varias CPUs en paralelo, en los 70s, ahora en tu laptop, en esa mierdecilla de chip de gráficos,…

      Y la teoría existe desde los 60s, está todo aquí

      https://es.wikipedia.org/wiki/Computación_paralela

      No hay Moore, ni CPUs potentísimas, ni nada parecido

      Lo quue hace NVIDIA es usar ese paradigma de la computación en paralelo, en tu ordenador, más en concreto en tu «PC GAMING» el de los LED de colores, en ese. Y coño donde hay materia gris, no hay manzanitas

      • Lua - 14 febrero 2024 - 17:00

        Efectivamente… ademas…

        CUDA empezó en 2003, y fue alrededor de 2006, que se conformó su lanzamiento como estándar de cómputo general en paralelo, para GPU funcionando para toda la gama (GeForce, Quadro, ION) y Tesla (no vehículo, tecnología). Por cierto, Open Source. Y gracias a su PTX (Parallel Thread Execution) se asegura de la compatibilidad entre y con posteriores desarrollos hardware.

        Añadir, que en esos momentos tenían acuerdos con Apple, que se vinieron para atrás por problemas “técnicos” ejem ejem… vamos, que Apple no estaba dispuesta a contribuir con sus controladores. Y ahi se quedo, con esa «cosa llamada Metal» que no fue a ningun lado.

    • Lua - 14 febrero 2024 - 18:05

      C3PO: No hace ni cuatro días, que hablábamos de la nueva sacada de chorra de Altman, y yo apuntaba a que a Nvidia, no se la va a ganar ni en tres/cuatro años, por más que rieguen millones sobre cualquier alternativa. Estamos hablando de tecnologías que empiezan en 1993 hasta hoy.

      Lo siento, Gorki, pero una vez más, patinas… si la evolución hubiera sido tu propuesta, aun estaríamos a niveles de Game Boy. Resulta curioso que C3PO haya escrito un comentario realista y no lo hayas entendido (o leído).

      A nivel financiero, no me voy a meter, que no es lo mío (y me ahorro hacer el ridículo). Pero Nvidia ha sido una empresa muy valorada desde ya hace años. Y ya te di respuesta en el artículo que escribió eDans y que enlaza aquí: historia sobre cómo fueron sus principios.

      Hacerle sombra a un gigante así, no será cosa de plis plas. A Nvidia le pasa un poco como a Tesla, que tiene unos precios que rayan lo abusivo (y no estoy de acuerdo), pero se lo pueden permitir, porque a día de hoy, son únicos. Nadie les hace sombra.

      Sobre lo que dices:

      Intel lo intentaba haciendo procesadores cada vez mas potentes y se confundio, los que optaron por el IoT se confundieron, los que optaron por el Big Data se confundieron, los que optaron por los servicios de computación en la nube,… casi acertaron,… El que optó por acelerar la producción de gráficos,… acertó.

      estaría bien que nos extendieras esa información que al parecer solo tienes tu.

      Porque hasta donde yo sé, los Intel Alder Lake, se comieron con patatas a los M1 (tal como predije en su momento) y los siguientes, Rocket y Meteor arrasan en todos los Benchmarks, el IoT sigue funcionando (no tanto como les gustaría a algunos en sus predicciones), el Big Data es el pan nuestro de cada día… aunque no lo notes en tus carnes).

      • c3po - 14 febrero 2024 - 18:57

        No voy a hablar de técnica, sino de estrategia y visión empresarial pero parecida a la de Enrique vamos a olvidarnos de «empodoreamientos de gurús», vamos a la SuperBowl del sentido común:

        El otro día comentaba, no sé si aqui con Chipiron, o en el «bar» que lo bueno que tiene hacer tus pinitos en IA, p.ej. con modelos de SD, y no te limitas a sacar imágenes solo, sino saber como funciona «el invento»: es que tocas muchas disciplinas de IA solapadas (modelos, python, CUDA, pytorch) algo aprendes y se te pega algo de know-how, eso si, si intenatas crear por ti mismo programas sencillos en paralelo en C, aprovechando la GPU, entiendes porque se aceleran los resultados, y de que va este asunto, aunque sea a nivel básico coges la idea.

        Idea que si no te mojas puedes hablar de ello, pero como los que hablan de toros o fútbol sin tocar bola, de oido. Y es que de oido todo va bien. Una vez que tienes un mínimo de fundamentos técnicos, y luego eso lo juntas con tu expertise en empresas del sector, y de mercado, ves que lo de Sam, queda muy bonito, pero si a empresas del sector le ha mojado Nvidia la oreja es por algo.

        No es fácil quitarse al líder tecnológico de en medio (NVIDIA),
        No uno que vende cuatro Iphones. Seamos francos: «La IA existe ahora para muchas empresas, porque maman de la teta de NVIDIA su GPU y su SW base»

        Eso si, siempe puede venir un CEO negado como le pasó a MS con Ballmer, a twitter con Elon, o si me apuras a Apple con Tim. Y como mínimo estancan el crecimiento de tu compañía. Y una compañía que no crece…

        Puedes ser de los elefantes en una cacharrería(Elon), o del estilo hago poquito para no perder mucho(Tim),… si la competencia va en un Formula 1, y tu no le sigues, estás muerto

        Esto lo ha leido bien Sam, ¿tarde? puede, pero no hacer nada (o hacerlo peor), eso si es estar muerto… A ver en que queda todo.

        • Lua - 14 febrero 2024 - 20:10

          Toda la razon. Algo que junto con otros, ya hemos hablado largo y tendido. Pero mi parte (aunque lleve 15 años «retirado» de la informatica), es justo la parte que no puedo separar (lo sabes).

          No basta solo el Hard. Hace falta el soft, y el saber sacarle rendimiento. Conocer el set de instrucciones y manejarse con ello. (aunque parezca entre recursivo y punzante, lo mismo que cuando hablamos del Flipper de los c*j*nes).

          Saber sacar partido a herramientas que nos hacen un dibujo o nos contestan aquello que esperamos, si… tiene merito… (los «prompt managers» o «engineers prompts» suena a lo mismo que cuando se popularizaron los community managers).

          Programa coño, programa y aprende y luego da tu opinion…

          (no lo digo por ti, claro) XDDD

          La cosa va de que en estos momentos, pocos le pueden hacer sombra a Nvidia (ni AMD). Similar, si. Igual, les falta unos hervores.

          Hay quien aun despues de dos años sigue sin contestar una pregunta de simples punteros (y eso que es el que mas sabe, aqui, en Quora, en su blog, y en todas partes)

          Hay quien lleva ya unos añitos programando solo en cuda (C/C++, Open CL)

          (en fin… como estoy en el pozo vietnamita, me permito estos estertores…)

          • Chipiron - 15 febrero 2024 - 09:15

            LUA, el foro esta lleno de gente que no somos (por supuesto me incluyo) de todo de lo que se habla. Yo, en mis tiempos mozos, programaba el Spectrum en código máquina, el Apple II en Pascal y el Commnodre Amiga en C.

            Pero nunca he programado con lenguajes modernos orientados a objeto.

            Pero la cuestión es que. en mi opinión, en muchos de los temas expuestos por Enrique no es necesario ser un experto «spot on» en el tema que se trata. A veces es cuestion de aplicar Sentido Común y experiencia de años gestionando proyectos en los que dichas tecnologías han jugado o pueden jugar un papel relevante.

            Obviamente nada más lejos de mi intención el despreciar al que se ha pasado 30 o 40 años detrás de un teclado y un monitor, pero gente que hemos programado en épocas puntuales creo que tambien podemos hacer aportaciones interesantes, normalmente (aunque no siempre) por encima de las opiniones «de cuñados».

          • c3po - 15 febrero 2024 - 12:10

            Chipiron,

            Totalmente de acuerdo contigo no hay que ser programador profesional para hablar. Lo mismo que los obispos hablan de aborto y ellos no lo hacen. De hecho a veces hacer una tarea repetida embrutece. Tenía un profesor de Matemáticas que decía que «hacer muchos problemas» embrutece. De hecho, cuando antes hablaba de «hacer algún programa»,me refiero a hacer los propuestos para entender el paradigma. Eso si te abre la mente, y no se habla en abstracto. ¿es obligatorio? Para mi si, si no lo veo funcionar me cuesta más trabajo que viéndolo en la superficie.

            Por eso es bueno. Pero allá cada uno. Puedes ser el obispo de la Seo o experimentar para afianzar conocimientos. Y creo que LUA va en esta tesis, por supuesto si él se dedicaba a programar antes lo tendrá más fácil que ser un «pisateclas» amateur. Pero ambos con una tecnología nuea para ellos les conviene profundizar ( si te interesa claro)

            Lo mismo que nos contaba Enrique y su afición con el Flipper, seguro que por jugar con el aparato, ha tenido que leer, investigar y sabe ahora más que antes del gadget. Pero si ha profundizado en ver que hay detrás, no si te quedas en la superficie.

          • Lua - 15 febrero 2024 - 13:54

            Efectivamente, mi comentario (despojado de la mala leche) iba por ahí.
            Es difícil poder hablar de una empresa, si no conoces su trayectoria y si no conoces sus productos. Quizás yo fui demasiado “allí”.

            Estar retirado no significa no tener inquietudes y curiosidad, y cuando me comentaron de cierto proyecto (nada de graficos) de estudiantes en Montpellier, me tire de cabeza (gratis) solo para aprender. Ni de moco soy experto, siquiera advanced user. Pero me sirvió de mucho.

            Un poco seria como hace unos días, criticábamos las Vision Pro… sin probarlas. (aunque eso es otra historia y no íbamos desencaminados )

            Lo cierto, es que cualquier empresa que ande metida en IA va a querer hacer sus propios hardwares, porque también es cierto, que le quieren arrebatar el monopolio a Nvidia, o cuan lo menos, tener menos dependencia de ella.

            Quien lo conseguirá? Al tiempo. Pero fácil, no va a ser.

            Lo que sigue siendo un error, es seguir pensando que solo son “graficas para juegos”.

      • Javier - 15 febrero 2024 - 10:57
        • c3po - 15 febrero 2024 - 15:39

          Lo acabo de ver, que bueno es Carlos presentando contenidos !!

          • Javier - 15 febrero 2024 - 19:11

            +1

  • #014
    Ernesto - 14 febrero 2024 - 14:24

    El unico que podia intentar hacerle sombra era AMD, pero ya abandono la lucha por la gama alta en las GPU, que son la base de esta ola de AI. A ver si la Dra Su mueve ficha que los monopolios nunca son buenos

  • #015
    trigesimo - 14 febrero 2024 - 17:08

    Ya, ya. Pero de 23andMe no hablas. Visionario.

  • #016
    Xaquín - 14 febrero 2024 - 20:48

    Resulta curioso que el tan cacareado masaje cerebral de los videojuegos, se fue apagando, si hasta parecía que necesitábamos una variante de psicoterapeuta neuronal. Como aquel rollo macabeo de los nativos digitales… o el más moderno de los siliconados procesadores… al final, la llamada IA, nos tiene algo frenados a los que portamos una «simple» IH, como si el futuro pasara por esperara que los muy posibles aliens (o incluso los improbables fantasmas), se dignen establecer contacto con alguno de nuestros cinco sentidos.

    En fin, me alegro por esa empresa, que parecía algo importante para tanto vídeojugador , ansioso de ver gráficos cada vez más siliconados… y que, por fin, ha descubierto que la tal «silicona» gráfica tenía otros usos más interesantes, que hacer más atractivos a los protagonistas de la carnicería.

    Si al final el cerebro humano de los que fabrican cosas ,sigue estando a años luz de las cosas que fabrican.

    • Lua - 14 febrero 2024 - 20:54

      Si hubieras entendido algo… habrias entendido que Nvidia, antes de las tarjetas graficas «para videojuegos», ya pensaba en el calculo paralelo… la semilla de la IA….

      Es que ya llevo varios enlaces hablando de ello… pero claro… «mi discurso»…

      • Xaquín - 15 febrero 2024 - 15:22

        Sí es evidente, que «tu discurso» tiene mucho de Pisuerga, incluso podía ser el mismo Duero. Y siempre pasa por Valladolid, pero luego resulta que algunos, de Valladolid, solo admiramos su esplendorosa imaginería religiosa.

        Y es que a mi, los universos paralelos, nunca llegaron a molarme demasiado. Lo mismo que el videojuego, quizás algo más.

        Y de la Matemática no es el cálculo lo que me apasiona, precisamente. Las piedrecitas en el zapato me gusta observarlas in situ… la excesiva abstracción me resulta penosa (fuera de la filosofía), por lo que prefiero observar al «resultado final» llamado Samantha, o mucho mejor Joi, sin que me expliquen su algoritmo.

        • Lua - 15 febrero 2024 - 15:43

          Salut…

  • #020
    Chipiron - 15 febrero 2024 - 09:11

    Buenas!

    En primer lugar, y siempre recalcando que es mi opinión y puedo equivocarme, no puedo evitar pensar que la posición de NVidia tiene un alto porcentaje de suerte.

    Se han mencionado, en comentarios muy interesantes, (y sí, LUA, incluyo los tuyos en esta categoría), que CUDA se creo en 2005 aproximadamente. Pero quien, en esa época, preveía la revolución del Deep Learning, los Transformers, la IA generativa y los LLMs?

    No es más prudente pensar que NVidia vió en la computación paralela el Santo Grial para acelerar los gráficos de los videojuegos y que luego, debido a las necesiades de cálculo de todas las ramas de la IA que se han disparado se ha creado una traslación fortuita de las capacidades gráficas de una GPU a entrenar redes?

    Preguntado de otra manera: Las tarjetas gráficas de NVidia siempre tuvieron una arquitectura pensada para el cálculo paralelo masivo más allá del gráfico?

    Quizás la respuesta sea un sí con una explicación con la que yo mismo me respondo: Si NVidea creo sus chips gráficos masivamente paralelos con la suficiente flexibilidad para ser usados en otros ámbitos que requieran de cálculos paralelos, entonces me quito el sombrero. Buena visión de futuro.

    Si, por el contrario, tenian claro que su mercado era la aceleración gráfica, puede que tambien hayan tenido un golpe de suerte. No olvidemos que se encontraron delante con aplicaciones que requerían de computación masivamente paralela como el minado de bitcoins (que nacieron en 2010), el DP (tambien del 2010) de los transformers (2016) y de los LLMs (inicios de 2020). Preveeian todas esas necesidades en 2005?

    En fin, tengo mis dudas de en que porcentaje la suerte y las sucesivas revoluciones tecnológicas les han ayudado sin ellos mismos haberlas predicho. Pero tambien reconozco que un inteligente diseño de sus unidades de GPU abiertas a más aplicaciones que las puramente gráficas pudo ser un gran acierto con miras a un futuro lleno de aplicaciones que requerían de computación paralela.

    Que opináis? Más allá de que soy de los que piensa que la suerte también se busca y hay que saber aprovechar las oportunidades que te pasan por delante, hasta que punto fue NVidia visionaria en 2005? Que hubiera pasado si ni las criptomonedas, el Deep Learning, los Transformers y los LLMs no hubiesen llegado a existir?

    En fin, más que una opinión lo que lanzo es una pregunta a los entendidos. Y que quede por delante que yo nunca he programado en CUDA.

    • Lua - 15 febrero 2024 - 09:45

      Lo primero pedir disculpas. Ayer no tuve un buen día y mi tono no fue el mas adecuado. Debería haber respirado antes de escribir.

      El problema, Chipiron, es que asociamos la empresa como si solo hiciera tarjetas para videojuegos y todo lo demás hubiera aparecido en el ultimo año. Las tarjetas eran el dinero fácil (y el prestigio). Tienen otros desarrollos desde hace años, como Grid (virtualización), Tesla (calculo acelerado) o NVS.

      Suerte? Podríamos decir lo mismo de Apple, Google o el propio Tesla (coche), no? Cuando sus fundadores empiezan lo que buscan es calculo en tiempo real y multiproceso (grafico), y en consecuencia acaban desarrollando con diferentes finalidades. Yo diría que el “salto”, lo da en 2009 con la arquitectura Fermi, y más tarde con Kepler. Con CUDA, que no es mas que una API, se puede desarrollar de todo, y atacarla desde varios lenguajes, de ahí que se utilicen para el minado, para el cálculo en superordenadores, para nubes, etc

      Podríamos decir, que estaban en el lugar, el tiempo y el momento adecuado. Pero si, la suerte se busca.

      Mírate esto, que es un mapa de la propia Nvidia para ver su evolución:

      Timeline

      • Chipiron - 15 febrero 2024 - 11:14

        Muchas gracias, lo miraré con detalle.

        Un saludo.

      • Chipiron - 15 febrero 2024 - 11:17

        Ah, y no tienes nada por lo que disculparte. Me alegro de este nuevo reencuentro.

        Intentaré ser lo más exquisito posible con mis intervenciones, subrayando mis carencias más que mis (mas que probables) pocas habilidades.

        Un abrazo

  • #024
    Javier Lux - 15 febrero 2024 - 14:18

    Al final entrará competencia.

    Sí, se que no es nada fácil diseñar y fabricar chips, pero ante una demanda tan brutal y cuasi-infinita que se espera, ya están Amazon, Microsoft y Google diseñando sus propios chips y financiando en VC nuevas fábricas de chips

    Amazon, y las demás, no tienen vocación de engordar aún más los beneficios y cotización de NVIDIA:

    https://www.cnbc.com/2023/11/28/amazon-reveals-trainium2-ai-chip-while-deepening-nvidia-relationship.html

  • #025
    Chipiron - 15 febrero 2024 - 14:46

    Quizás me equivoque, pero esa valoración bursátil podría tener un comportamiento volátil como la de Tesla, que llegó a multiplicar por 20 su valor y luego ha vuelto a bajar a valores mucho más realistas.

    Para mi las valoraciones, a día de hoy, de Microsoft, Apple y Amazon me parecen más estables y más ajustadas a la realidad, pues responden mucho a sus resultados financieros.

    Las de Tesla y ahora las de Nvidia se basan en posibles (no siempre probables) proyeccciones de futuro… Y suponiendo que nos les va a salir competencia, cosa muy poco realista.

    Eso no quita que NVidia haya hecho muy bien sus deberes y haya aprovechado de forma muy avispada el empuje generado por la AI generativa, pero es que incluso aún no le veo un modelo estable ni a ChatGPT, al menos mientras no puedan evitar que sus bots alucinen o puedan ser hackeados ante preguntas prohibidas de forma fácil.

Dejar un Comentario

Los comentarios están cerrados