OpenAI, Microsoft y las ventajas competitivas

IMAGE: OpenAI logo

En el año 2019, Microsoft llevó a cabo una inversión de mil millones de dólares en la división for profit de OpenAI, llamada OpenAI LP y dependiente de la organización sin ánimo de lucro OpenAI Inc., creada originalmente en diciembre de 2015 por Sam Altman, Elon Musk, Reid Hoffman, Peter Thiel, Amazon Web Services y otros inversores, que habían aportado entre todos otros mil millones de dólares para trabajar en el desarrollo de machine learning para propósitos constructivos y en código abierto. Elon Musk se retiró posteriormente del consejo y se quedó en la compañía simplemente como eventual donante de fondos, sin participación activa en su gestión.

La inversión de Microsoft se dividió entre una pequeña parte en metálico y otra en bonos de uso de Azure, suficientes como para que la compañía haya vivido en la nube de Microsoft sin prácticamente pagar alquiler hasta ahora (a pesar de su apertura al público y de la bajada del precio de su API, que incrementaron fuertemente su actividad), en lugar de hacerlo en la de Amazon, que estaba en el comité fundacional de su matriz cuando se creó en 2015. Esta forma de inversión, muy utilizada por Microsoft con startups prometedoras, permite a la compañía reducir su exposición financiera pero poder tener una gran cantidad de información sobre la compañía y, si lo estima oportuno, tener la opción de incrementar su participación en ella.

Según las condiciones del acuerdo, Microsoft podría ahora obtener derechos sobre el 75% de los beneficios generados por OpenAI LP hasta que haya logrado recuperar su inversión, y posteriormente quedarse con un 49% de la compañía, con otro 49% repartido entre otros posibles inversores y un 2% en manos de la matriz sin ánimo de lucro, OpenAI, Inc. La compañía prevé obtener doscientos millones en facturación este año 2023, y llegar a los mil millones en 2024.

Ahora, Microsoft está planteándose que posiblemente aquel billón de dólares fue una de sus mejores inversiones, y renovar su confianza invirtiendo diez mil millones más en OpenAI, ya con una valoración de $29,000 millones que la convertirían en una de las startups más valiosas del momento, y con la idea de incorporar las prestaciones de GPT3 y posteriores versiones a productos como su motor de búsqueda Bing, pero también a su proceso de textos Word o a su gestor de correo, Outlook, dotándolos así de asistentes de redacción potencialmente muy útiles.

¿Podría obtener Microsoft una ventaja competitiva gracias a incorporar este tipo de asistente de machine learning a sus productos? Quienes han probado, por ejemplo, la extensión de ChatGPT creada para Chrome afirman que la posibilidad de que un motor de búsqueda responda a tus preguntas con un texto redactado puede ser en muchos casos muy interesante, y que podría significar un cambio importante en la forma en que concebimos nuestra interacción con la web, que podría significar una amenaza para Google.

¿Es posible que la compañía que en su momento afirmó que su ventaja estaba en que su inteligencia artificial fuese más inteligente que la de sus competidores se vea ahora adelantada por la derecha, mientras sigue sin incorporar a sus productos su creación supuestamente comparable, LaMDA? ¿Puede una aplicación relativamente limitada del machine learning como son los large language models convertirse en una fuente de ventaja competitiva interesante para Microsoft?


This article is also available in English on my Medium page, «Could Microsoft be about to steal a competitive advantage over Google in machine learning?»

37 comentarios

  • #001
    Javier - 10 enero 2023 - 15:24

    ¡Pole!

    (perdón)

    OpenAI es teóricamente sin ánimo de lucro. ¿Entraría eso en conflicto con que alguna de las Big Tech la adquieran?

    • Javier - 10 enero 2023 - 15:25

      (me refiero a OpenAI en su totalidad, no a la división pro profit)

      • Chipiron - 10 enero 2023 - 22:01

        Yo creo que sí. Y para muestra un botón: Elon Musk se «apartó» de OpenAI pues vió un conflicto de intereses con la división de IA de Tesla.

  • #004
    Enrique - 10 enero 2023 - 16:34

    En mi opinión, Microsoft debería tirar a la basura su buscador indexado y trabajar en uno de LLM. Si encima es casi propietario de OpenAI con más razón.

    Off-topic:
    Enrique, ¿has leído el libro Superficiales de Nicholas Carr? ¿Qué opinión tienes?

    • Enrique Dans - 10 enero 2023 - 17:31

      Conozco bien a Nick, y siempre le pasa lo mismo: piensa a corto, sin tener en cuenta la adaptación ni la evolución. Pero claro, ha encontrado un nicho muy rentable en el escepticismo…

    • Chipiron - 10 enero 2023 - 22:30

      No sólo estoy de acuerdo con lo que dices, si no que añadiria lo que Enrique Dans ha insinuado:

      Te imaginas incorporar, como herramienta, un plug-in tipo ChatGPT al word para hacer informes de esos que nadie lee…?

  • #007
    Gorki - 10 enero 2023 - 17:16

    De momento chatGPT es una entelequia , si quieres probarlo te sale un mensaje que dice;
    Estamos experimentando una demanda excepcionalmente alta. Espera un momento mientras trabajamos para escalar nuestros sistemas.

    • Enrique Dans - 10 enero 2023 - 17:30

      Pues a mí eso solo me ha pasado una vez, y se arregló en un ratito corto…

      • Gorki - 10 enero 2023 - 17:50

        O tienes enchufe o tengo yo muy mala suerte. Llevo varios días intentando probarla y nunca he conseguido contactar con ella, Incluso por si era un sabotaje de Crome, probé con Brave y obtuve el mismo resultado.

      • Alfredo Hoz - 10 enero 2023 - 20:33

        Desde el 1 de enero en cola de espera… no hay su tia…

  • #011
    Gorki - 10 enero 2023 - 17:44

    Pueto que no lo he podido probar, me remito a lo que personas bastante solventes opinan sobre chatGPT, como Carlos Santana (@DotCSV), que considera que la aplicación de la AI, a los negocios es el equivalente a la aplicación de la Maquina de Vapor a los negocios. Aquello fue l el Comienzo de la 3º Revolución Industrial y que esto va a ser la 4ª Revolución Industrial.

    Yo había esperado el inicio de la 4ªRevolucion Industria, vendría marcado por el invento de una batería capaz de dar a un automóvil mas de 1000 Km de autonomía, pues eso transformaba a todos en «prosumidores» de energía, con todo lo que eso puede suponer de cambio en la forma de vida actual.

    ¿Qué creeís que cambiara mas el mundo que conocemos, La capacidad de aplicar AI a nuestra forma de ganarnos la vida, o la capacidad de ser autónomos energéticamente hablando?

    • JPR - 10 enero 2023 - 19:13

      Gorki

      Es una beta que está muriendo de éxito.

      En cuanto a que haya baterías milagrosa la química de los materiales es la que es, y nos movemos en estos rangos (wiki)

      . . . . . . . . . B.Plomo . . . Li-ion
      = = = = = = = = = = = = = = = = = =
      Wh/kg . . . 33/42 . . . . . 100/265
      W/kg . . . . 18 . . . . . . . . 250/340
      Wh/USD . .7/18 . . . . . . 2.5
      Ciclos . . . .500/800 . . 400/1200
      Inventada 1859 . . . . . .1985

      Segun la wiki una batería de una conocida marca tiene estas especificaciones

      * 85 kWh
      * 12000 USD
      * peso celdas: 325 kg
      * autonomía: 568 km

      Para subir la autonomía a 1000km habría que poner como aproximación grosera 2 baterias, teniendo en cuenta además que el propio peso de la batería haría disminuir esa autonomía… que no sé como fijarlo… y también subirían los tiempos de recarga con cargas bajas a algo inasumible…

      resumiendo o mejora la tecnología por un milagro «transhumanista» o nos olvidamos del peluquín, sobre todo teniendo en cuenta que ya han pasado casi 40 años desde el primer desarrollo… milagros no va a ver

        • Chipiron - 10 enero 2023 - 22:15

          Buenas, don Alfredo. Si le sirve de referencia, le puedo dar información de primera mano:

          Poseo un Tesla Model S P100D de segunda mano, con una batería de 100 kWh y 135.000km (comprado originalmente en mayo de 2017).

          A 120 km/h por autopista puedo hacer, a día de hoy, 450km entre cargas. Le aseguro que el coche tiene más autonomía que mi bufeta…. y si me apura que mi estómago.

          Que no es lo que marca el ciclo WLTP? Nada nuevo sobre la faz de la tierra. Todo experto en VEs sabe que hay 3 sistemas establecidos para medir la autonomía de un VE:

          – ciclo NEC (ahora ya solo utilizado en China)
          – ciclo WLTP (europeo)
          – ciclo EPA (americano)

          Ninguno se acerca a la realidad, aunque el americano es el más realista.

          Cuando se anuncia el consumo medio de un coche ICE suele ser el consumo real en uso diario? Yo diria que normalmente no. Pero es una forma de comparar peras con peras.

          Es decir, un coche con ciclo WLTP con mayor autonomía que otro, en la vida real, tendrá mayor autonomía.

          Hay un factor corrector? Por supuesto! Y no es único, depende de la manera en que usted conduzca.

          Respecto a la velocidad, simplemente se lo comento por si no lo sabía, la resistencia al aire incrementa con el cubo de la velocidad. Yo he hecho muchas pruebas con mi coche y el consumo a 110 km/h es MUY inferior a 120 km/h y MUY MUY inferior a 130 km/h.

          Conclusión: voy a 120 km/h, que es lo legal, y planifico mis paradas para contentar a mi bufeta y estómago si tengo un viaje largo. Pierdo algo de tiempo por la carga? Si, pero menos de lo que puede parecer de entrada con una buena (pero nada complicada) planficación.

          A cambio contamino menos y (sólo en mi caso porque esa era la oferta de Tesla en 2017 cuando comprabas un Model S o Model X) cargo gratis de por vida en los superchargers.

          Un saludo!

          • Chipiron - 10 enero 2023 - 22:29

            Se me olvidaba, si quiere datos más realistas tanto de consumo como de autonomías, aquí le dejo un link que le puede ser útil:

            https://ev-database.org/

          • Mauricio - 10 enero 2023 - 23:02

            Chipiron, para una persona que use regularmente un auto en una gran ciudad y sus alrededores, el vehículo eléctrico podría prestarle un buen servicio, pero en mi caso necesito un vehículo para largas distancias. Los autos eléctricos consumen más cuando circulan por una autopista. ¿Tienes ejemplos concretos de trayectos en España de 400 kilómetros o más que hayas podido recorrer sin detenerte a recargar? ¿Algo así como Madrid-Bilbao, Madrid-Murcia o Madrid-Badajoz?

          • Chipiron - 10 enero 2023 - 23:32

            Hola Mauricio!

            No te puedo dar ejemplos como los que me pides pues no suelo hacer viajes de 400km de una tacada.

            Pero haciendo cálculos en mis continuos viajes entre Barcelona y Tarragona, te aseguro que (con mi coche) puedes hacer viajes de 400km por autopista a 120 km/h. Y eso que ya lleva 135.000 km bajo sus espaldas.

            Mis viajes tipicos son Barcelona-Tarragona o Tarragona-Zaragoza. Los calculos qye voy haciendo confirman una y otra vez lo que te comento.

            Un saludo!

          • Chipiron - 10 enero 2023 - 23:38

            Mauricio, mira este enlace y verás autonomía de un model 3 en diferentes situaciones (autonomías reales, no las «oficiales»):

            https://ev-database.org/car/1591/Tesla-Model-3-Long-Range-Dual-Motor

        • JPR - 11 enero 2023 - 11:49

          Alfredo

          Mi comentario sobre las baterias tenía un huevo de pascua

          Por una parte está la cifra

          Wh/USD . .Li-ion -> 2.5

          Y por otra el dato cruel de un fabricante que vende su batería a 12000$….

          PS: Bueno lo de las gamuzas, en versión batería…

          • Alfredo Hoz - 11 enero 2023 - 14:05

            Reconozco no haberme fijado en la crifra… mea culpa XDD

          • Chipiron - 11 enero 2023 - 18:27

            Està notícia refuerza más lo que le decia…

            La autonomía depende de muchos factores. En cualquier caso, para mi es un fallo más atribuïble a las entidades certificadoras.

            La que lo está “haciendo menos mal” (tal y como comenta la noticia) es la EPA americana. Y aún así…

            Pero lo que también defiendo es que es un mal endémico. Las cifras de consumo de los ICE tampoco son nunca reales, son en condiciones ideales.

      • Gorki - 10 enero 2023 - 20:37

        Mi opinión es que si se inventa la «bateria ideal», no será ni de litio, ni de plomo, será de un principio químico/físico diferente, estas baterías ya han dado todo lo que dan de si y las mejoras que se pueden obtener de ellas son mínimas.

        • Javier - 10 enero 2023 - 22:47

          Baterías basadas en lignito que tienen el potencial de cargarse en 8 minutos:

          https://www.bbc.com/mundo/vert-fut-64192800

          • Enrique Dans - 10 enero 2023 - 22:57

            Lignina, no lignito. Árboles, no carbón ;-)

        • Chipiron - 10 enero 2023 - 22:56

          El «holly grail» de las baterias está en las de electrolito sólido. Muchas funcionan en laboratorio, prometen muchos avances…. pero ninguna está a la vuelta de la esquina en producción a gran escala.

          Noticias como la que amablemente «linka» Javier las veo casi cada semana, pero, por experiencia, te aseguro que pasar de un prototipo de laboratorio a un producto comercial hay un largo recorrido y casi ninguno llega.

    • Juan T. - 10 enero 2023 - 19:23

      Las AI van a impactar directamente en practicamente todas las tecnologias existentes y entre otras cosas acelerará mucho los procesos habituales de investigación.

      El asunto es que una AI con las características que se preven en GPT4 , que se acercará mucho en mi opinión a lo que se considera una AGI ,que es lo que va a marcar un verdadero hito, se esperaba unos 4 o 5 años mas tarde.

      Yo creo que la AI es la que va a relacionar entre sí a tecnologias que ya estan maduras y va a crear una sinergia que se notará en muy poco tiempo.

      Como ejemplo de que la dicotomia que propones en realidad no es tal, por que ambas tecnologias van en paralelo y se refuerzan entre sí, mira por ejemplo , una aplicacion de la AI a «la capacidad de ser autónomos energéticamente».

      https://www.elconfidencial.com/tecnologia/novaceno/2022-02-17/inesperado-ayuda-controlar-fusion-nuclear_3377307/

      • Gorki - 10 enero 2023 - 20:32

        Desde luego una AGI es algo que hoy esta casi al alcance de los dedos. De hecho chatGPT, (por lo que he visto), ya lo es, y es algo que yo nunca creí que viera en la corta vida que me queda.

        Lo que me asombra, es que se haya inventado chatGPT, que por lo que he visto, tiene una edad mental parecida a la de una persona madura, y que en cambio, aun no hayan inventado la conducción autónoma que es algo que domina cualquier joven de 14 años.

        Algo hay en las IA que consigen cosas sobrehumanas como ser campeón mundial de GO y en cambio en temas aparentemente muy sencillos como conducir se atascan y no avanzan.

        • Ramon L - 11 enero 2023 - 09:26

          He usado ChatGPT numerosas veces durante el mes de diciembre para pulsar sus capacidades y puedo decir lo siguiente:

          1. Todavía no es una AGI, aunque lo simule muy bien. De hecho, tiene notables dificultades para seguir reglas simples durante una conversación.

          2. Sus respuestas tienen una fiabilidad reducida. Has de comprobar los datos que suministra porque no pocas veces son erróneos.

          3. No sabe contar. Le pido que me cuente las letras de la pregunta anterior y, con total desparpajo, me dice que 150. Cuando le hago notar que yo cuento 74, me responde que lo siente, que se ha equivocado, que son 125.

          4. Su capacidad lingüística es asombrosa, pero no se deduce que comprenda lo que está diciendo, en el sentido en que nosotros interpretamos lo que es entender algo.

          5. Cuando le pides sus propias conclusiones sobre una conversación en curso, se limita a darte respuestas de otros. No saca conclusiones, salvo que alguien lo haya hecho antes.

          En resumen, ChatGPT parece inteligente, peto todavía falta mucho recorrido en esa dirección. Viene a ser una ELIZA muy evolucionada con una base de datos colosal. Y lo que es peor, sus respuestas son poco fiables, lo que le resta muchas posibilidades en la competición con los buscadores como Google.

          El avance es inmenso, y las conversaciones con ChatGPT te dan la sensación de ser un salto muy significativo, disruptivo, pero no hay que dejarse deslumbrar por el aspecto. Todavía falta mucho recorrido.

          • JPR - 11 enero 2023 - 11:45

            Exactamente !!!

            Hasta ahora lo que había eran engendros como los de esta web

            chai.ml

            El salto de chatGPT es enorme, desde el punto de vista de los contenidos también, pero ese 10% o 20% de resultados erróneos son un lastre, buena beta !!

            Por otro lado ¿cuál será el siguiente paso? Cuando los veamos se analizarán tan erróneo es afirmar que los vehículos autónomos eran para 2020, como pensar que habrá una inteligencia fuerte la tenemos a la vuelta de la esquina. En futuribles siempre es mejor no emplear un sistema métrico, ya saben, mejor usar el periquete, el enseguida, o el ya mismo…

            Obviamente vendrán pero que la espera nos pille sentados, a lo que es una AGI real. Y como real queremos decir que simule que tiene una inteligencia humana promedio ( ya el promedio ha bajado y cada vez es más factible alcanzar esa simulación)

            Y lo de máquinas conscientes o capaces de crear otras máquinas más inteligentes, mejor dejárselo a los fumadores de hierba o consumidores de sustancias alucinógenas amantes de la singularidad, eso si mejor con el teclado bien lejos… que luego llenan el blog de narraciones de sus efectos.

  • #031
    Alfredo Hoz - 10 enero 2023 - 20:35
    • Gorki - 10 enero 2023 - 22:52

      Un autentico sádico, porque no funciona. Es como obligarte a utilizar una calculadora electrónica sin pilas.

      Lo he vuelto a comprobar ahora mismo
      We’re experiencing exceptionally high demand. Please hang tight as we work on scaling our systems.

      • JM - 11 enero 2023 - 08:01

        A mi también me pasó ayer un par de veces.

      • Alfredo Hoz - 11 enero 2023 - 16:16

        Sera mucha IA pero sus chistes son suicidas… :P

        sigo esperando turno

    • JPR - 11 enero 2023 - 11:46

      Lo que hacen algunos para salir en los tebeos…

  • #036
    Xocoalt - 13 enero 2023 - 00:10

    La apertura de las IA que hemos tenido este año pasado, con Dall-E, Chat GPT y otras son las puertas de un cambio infinito en la forma en la que tratamos la información. Me atrevería a decir que tan grande o más que cuando pasamos de leer libros y revistas a buscar todo en internet.

    Me extraña que muchos no lo vean y se queden con un superficial «la página da errores» o «no te puedes fiar de la información»

    Estamos en el año 1 del despertar de la IA al gran consumo. Millones y millones de dólares, euros y yuans se van a invertir desde ya en potenciar todo esto.

    Va a cambiar la forma de buscar información, la forma de crearla, la forma de redactar documentos, mails, de participar en foros de empresa, va a cambiar la educación (los profesores que luchan contra Chat GPT es como luchar contra los ordenadores y pretender seguir escribiendo esculpiendo la piedra)

    No he creído en las Cryptos, no he creído en NFTs, no creo en la Web3.
    Pero la IA es la gran revolución fe nuestro tiempo, y quien sabe si será la última gran revolución que lideraremos los humanos…

    • Ramon L - 13 enero 2023 - 11:57

      Xocoalt,

      Tiene Vd. razón en un aspecto: esto lo va a cambiar todo. En eso estamos de acuerdo. Pero, como toda herramienta, también tiene sus riesgos asociados. Una búsqueda en Google nos lleva a múltiples fuentes que podemos consultar independientemente. La información que contienen no siempre coincide y el usuario tiene la responsabilidad de seleccionar. Cuando se consulta a ChatGPT, o cualquier inteligencia artificial que mejore sus capacidades, dejamos que la selección la hagan por nosotros. No nos da respuestas múltiples sino una única respuesta masticada y predigerida. El riesgo de que la información recibida no sea correcta es muy grande.
      En mi comentario anterior no puse nada más que algunas menciones de las incapacidades de GPT. Tengo otras más sustanciosas, pero tampoco importa detallarlas. Lo relevante es que dejamos en manos de un tercero la selección de la información y perdemos capacidad crítica, que es algo muy, muy importante.
      Ese es alguno de los nuevos riesgos que tenemos que empezar a tener en cuenta.

Dejar un Comentario a Gorki

Los comentarios están cerrados