La inteligencia artificial no solo está transformando industrias enteras: también está forzando a repensar los marcos teóricos que durante décadas han guiado nuestra comprensión de cómo se difunden las innovaciones, los modelos que explicamos en clase los profesores de innovación.
¿Es la inteligencia artificial una anomalía histórica, o estamos simplemente viendo una aceleración extrema dentro de un patrón reconocible? Sin embargo, tratar de aplicar modelos como el de Everett Rogers o el de Frank Bass a su adopción puede ser más útil de lo que parece… si sabemos interpretarlos desde una perspectiva dinámica.
Tanto el modelo de difusión de innovaciones de Everett Rogers como el modelo de Bass parten de una premisa común: la adopción de una innovación en una población sigue un patrón predecible. Rogers lo estructura en cinco grupos, que van desde innovadores, adoptadores tempranos, mayoría temprana, y mayoría tardía hasta rezagados, distribuidos a lo largo de una curva normal. Bass, por su parte, lo modela matemáticamente, diferenciando entre adopción por innovación (p) y adopción por imitación (q).
Durante décadas, ambos modelos han sido razonablemente útiles para prever cómo y cuándo una tecnología alcanza la masa crítica. Pero lo que estamos viendo con la inteligencia artificial, especialmente desde la aparición de ChatGPT en noviembre de 2022, es una aceleración de este proceso que parece desafiar las fases tradicionales.
¿Qué ocurre cuando la curva se comprime? El caso de ChatGPT, con más de ochocientos millones de usuarios en apenas año y medio y un crecimiento que lo sitúa ya en manos del 10% de la población mundial, sugiere que las fases de Rogers se están solapando en el tiempo, no desapareciendo. El ciclo completo de adopción, que en otras tecnologías ha llevado décadas (como el teléfono, el ordenador personal o incluso el smartphone), parece haberse comprimido a tan solo 24–36 meses.
Pero no es que no se puedan identificar innovadores o mayoría temprana: es que su tiempo de acción se ha reducido drásticamente, y sus efectos se han visto amplificados por una combinación de factores sin precedentes. En primer lugar, unos costes marginales casi nulos: mientras el entrenamiento de modelos cuesta cifras astronómicas, el uso se ha abaratado un 99% en solo dos años. En segundo, una accesibilidad sin fricción, dado que no se requiere un hardware especial, una formación avanzada ni una inversión inicial. Cualquiera que sepa leer puede utilizar un chatbot de inteligencia artificial generativa: basta con abrir una app o una web. En tercero, la imitación viral: Bass describía la «imitación» como el principal motor de adopción una vez superado cierto umbral. En el caso de la inteligencia artificial, plataformas como TikTok, YouTube o X han amplificado ese contagio de forma exponencial.
En realidad, estamos ante la ecuación de Bass, pero reescrita por la escala: en el modelo de Bass, la adopción sigue una curva logística, donde la velocidad inicial la marca la innovación (p), y luego la retroalimentación social (q) toma el control. La inteligencia artificial ha mostrado una q desproporcionadamente alta, posiblemente la más alta registrada para una tecnología de propósito general. Esto sugiere que, por un lado, la innovación inicial no fue necesariamente radical (los LLMs no eran nuevos en 2022), pero el momento sociotecnológico era el adecuado; y por otro, que la adopción por imitación ha sido exponencialmente más rápida gracias a la infraestructura digital existente y a una creciente cultura de «techfluencers».
¿Estamos ante una nueva clase de innovación? Si revisamos el modelo de Rogers desde una óptica contemporánea, podríamos decir que la inteligencia artificial ha creado una especie de «adopción simultánea», en la que todo el gradiente, desde innovadores hasta rezagados, pueden comenzar a usar la tecnología en la misma ventana temporal. Esto rompe con la lógica de secuencia, pero no con la lógica de segmentación del mensaje: los innovadores siguen motivados por el potencial, los rezagados por el miedo a quedarse atrás.
Además, los productos basados en inteligencia artificial aprenden del uso y se adaptan a sus usuarios, lo que genera una experiencia personalizada que acelera la curva de adopción. Esto introduce una retroalimentación que ni Rogers ni Bass pudieron anticipar.
Para los que nos dedicamos a tratar de modelizarlo todo, la difusión de la inteligencia artificial como innovación nos ofrece algunas lecciones interesantes:
- La velocidad no elimina la estructura: la inteligencia artificial sigue un patrón reconocible, pero comprimido.
- El contexto importa: infraestructura digital, hábitos de consumo y redes sociales han amplificado la difusión de las innovaciones de una forma que nunca habíamos visto antes.
- El modelo de Bass sigue siendo útil si se recalibran sus parámetros: necesitamos reconocer que la imitación ahora ocurre en horas, no en años.
- Las nuevas métricas de adopción deben considerar variables como las interacciones sociales, la viralidad, el machine learning integrado y los efectos de red no lineales.
- La percepción de inevitabilidad, alimentada por discursos mediáticos, adopciones institucionales y normativas emergentes, ha jugado también un papel catalizador clave.
Básicamente, los modelos tradicionales de difusión parten de una premisa ya claramente superada: consumidores relativamente pasivos, y productos estáticos. Con la inteligencia artificial, lo que tenemos son productos que evolucionan muy rápidamente con el uso, usuarios que se influyen mutuamente de forma directa a través de todo tipo de canales, y un valor que crece de manera dinámica. Estas «nuevas variables» no solo merecen ser reconocidas, sino incorporadas explícitamente a cualquier intento serio de modelar su adopción. Y en este caso, definen un panorama frenético de adopción, que todos tenemos que tener razonablemente en cuenta. A ver si sirve como aviso para navegantes…
You can also read this article in English on my Medium page, «The great AI acceleration: rewriting the rules of innovation«
Tenemos que diferenciar dos escenarios en el desarrollo de la IA, un usuario debe separar (como en Severance) el uso PRIVADO cuando compartimos datos no relevantes con «la nube» del proveedor de IAs. y otro el uso PROFESIONAL, en la cual la empresa debe montar en sus servidores los modelos y la información confiendecial para su tratamiento inteligente. Del mismo modo que se montan DB de Oracle, SAP, etc. Pero el acceso a esa superherramienta tiene que estar limitado por seguridad ante la competencia, y los consabidos espionajes comerciales e industriales. Pero vamos que allá se estrellen si no lo hacen…
En el ámbito privado, es una buena medida usar los servicios de IA simplemente con fines educativos o de entretenimiento sin compartir datos privados. No está de más que quien tenga oportunidad localmente carge herramientas como n8n/AnythingLLM + LmStudio/Ollama y que la documentación que consideremos importante sea tratada en nuestros ordenadores y no en servidores públicos.
Aunque actualmente tanto LLM adolecen de múltiples fallos, estimo que están en una fase que nos permiten sacar ventajas por ejemplo haciendo DeepResearch, ayudas a codificación, análisis de documentos(RAG) etc… Más allá del modelo de Bass lo que si es importante que cuando una tecnología emerge y se ve su potencial, le dediquemos un tiempo a utilizar sus ventajas, del mismo modo que el primitivo Clipper (guiño a Enrique), o Excel, o Basic fueron en su momento(40 años) buenos software de enganche. Ahora LLM, Python, y alguna herramienta auxiliar para hacer RAGs sencillos, o los mismos modelos de difusión con imágenes, o conocer el uso básico de Photoshop o similares, nos pueden ayudar a solucionar tareas de una forma más efectiva y cómoda.
Además de haber sido un usuario más de estos servicios de forma online, y viendo el potencial, decidí jubilar mi antigua notebook y me acabo de comprar una en la que estoy corriendo LM Studio con (actualmente) estos modelos:
• Tinyllama-1.1b-chat-v1.0.Q8_0
• Starling-lm-7b-alpha.Q4_K_S
• Openhermes-2.5-mistral-7b.Q4_K_S
• Mathstral-7B-v0.1-Q4_K_M
• Qwen3-8B-Q4_K_M
He de decir que este último es un modelo razonador y es una joyita (a falta de no saber si existe otro que lo supere) y me faltan manos y tiempo para hacer todo lo que quiero, pero lo bueno es que ya lo tengo disponible y en local y ahora estoy como un adicto al chocolate en una visita a una chocolatería y eso que solo llevo menos de una semana con el juguete nuevo.
Además ya estuve jugando también con Pinokio (cuya web está caída al momento de enviar este comentario) y también con OpenwebUI.
Mi ejemplo no entra dentro del «uso básico» actual, aunque estoy lejos de considerarme algo parecido a un usuario avanzado.
Te falta el mejor… que acaba de salir
deepseek/deepseek-r1-0528-qwen3-8b
…downloading… gracias
De nada…
Aún no le he podido engañar para que me hable de la matanza de Tianamen, parece que le han cerrado mejor el system pprompt que el anterior… para que no entre al trapo…
Mira la cadena de thinking, cuando pones solo un «hola»… es bastante gracioso ver «la paja mental» que se monta el solito
Saco las palomitas y disfruto viéndolo con Qwen. Haré lo mismo con DeepSeek.
Ya tengo instalado LLM estudio. Donde encuentro y como bajo los diferentes modelos?
En el menú de la izquierda (la lupita) haces clic y buscas el que deseas instalar. El propio LM Studio te dirá desde «Download Options», en base a tu hardware, qué modelo puedes descargar e instalar.
Genial, muchas gracias!
Pienso que no hemos valorado suficientemente otro factor en el desarrollo de la adopcion de la AI, y es que su uso es GRATUITO, esto le diferencia del desarrollo de otro elementos de adopcion universal como es por ejemplo el teléfono móvil
La absoluta gratuidad, no necesitar adquirir ningún software ni hardware específico y suscribirme a con una cuota, ha facilitado y mucho el que yo haya comenzado a utilizar la AI, pues en mi caso concreto, su uso sólo cubre mis necesidades de curiosidad y entretenimiento.
Ciertamente, se le han alineado los astros a la IA. Y no es de extrañar la adopción masiva que vemos dada su enorme utilidad, bajo coste y fácil acceso. Es una revolución y lo va a cambiar todo, estamos siendo testigos de ello. Como toda disrupción tendrá aspectos buenos y malos, según para quién y cómo se utilice, ahí está el reto de adaptarnos al cambio. Tiempos apasionantes para estar vivo.
«útiles para prever cómo y cuándo una tecnología alcanza la masa crítica.» (EDans).
No se el grado desvarío que podemos tener las diferentes IH (o posibles IA), que participamos en este blog, pero una cosa me va quedando clara… cuesta mucho asumir que el salto cualitativo de una IA, una vez que se pueda llamar realmente INTELIGENCIA, no tiene mucho que ver con cualquier otro salto. Lo diga un científico famoso o algún porquero no menos conocido.
Porque la «masa crítica» de inteligencia, que debe tener una IH, para dejar de ser mediocre, o una IA, para ser realmente competitiva , está muy lejos de ser siquiera intuida, por nuestra mente.
Y desde luego, una IA (no una simple iA), como «es debido» dudo mucho que esté interesada en combinarse de algún modo posible, con una IH tan mediocre como las que sufre el mundo actual. Tan tan lejos de tener una masa crítica de inteligencia operativa, que le permita evolucionar.
Serán de lenta evolución (según se mire) , pero dudo que sean tan tontas, como para liarse la manta neuronal con esta pandilla de «sinecurasmen», llamados homo sapiens del siglo XXI.
OFF RECORD
Hay el peligro que con el tiempo las respuestas de la AI sean mas previsibles y dejen de ser «creativas» Actualmente las respuestas son un «compe3ndio o extracto» de múultiples documentos generados por humanos, pero poco a poco la existencia de documentos generado de l por la AI van en aumento,
Por tanto en el futuro habrá una especie de «entalpía documental» que hará mas previsible y mucho menos creativas las repuestas. que no serán mas que un refrito de la respuesta anteriores de la AI
Como que los datos no se limpian, que atrevida es la ignorancia…
Si quieres que se vaya por los cerros de Ubeda, es fácil subes la temperatura al LLM, y hacen lo que les da la gana… y si se la baja, las respuestas mejoran y alucinan menos… (para tocar ese parámtero tienes que usar la API)
1. ¿Cuánta información se usa para entrenar un modelo como GPT-4 o GPT-4.5?
OpenAI no ha publicado los detalles exactos, pero con base en estimaciones razonables de expertos y documentos filtrados o papers similares, el orden de magnitud de datos usados es:
Cientos de miles de millones de palabras, posiblemente entre 300 mil millones y 1 billón de tokens (palabras/palabras parciales).
En almacenamiento crudo, eso sería entre 45 TB y 100+ TB de texto sin comprimir, aunque los datos se limpian, deduplican y curan.
Fuentes usadas incluyen:
Sitios web en la web común (Common Crawl).
Wikipedia.
Libros digitalizados (como BookCorpus, bibliotecas de dominio público).
Foros, artículos técnicos, documentación, código fuente abierto (como GitHub).
Conversaciones (como Reddit, filtrado).
2. ¿Se está “agotando” Internet como fuente para entrenar modelos?
En parte, sí, y esto es algo que la comunidad técnica está discutiendo muy activamente.
¿Por qué se dice eso?
La mayoría del contenido de calidad en internet ya ha sido usado por modelos grandes.
Muchas fuentes nuevas no crecen tan rápido como la demanda de datos.
Sitios web ahora están bloqueando a los rastreadores de IA (por razones legales o económicas).
Mucho del contenido restante es ruido, duplicado o no apto para modelos de lenguaje (spam, contenido ofensivo, baja calidad).
Estimación relevante (según investigadores de Epoch AI, 2023):
Se podría "agotar el texto público de alta calidad" antes de 2026 para entrenar modelos más potentes, si no se amplía el acceso o cambia la forma de entrenamiento.
¿Qué se puede hacer al respecto?
Usar datos sintéticos (texto generado por IA).
Aprovechar más contenido multimodal (imágenes, audio, video).
Acceder a datos privados/licenciados, como libros, archivos corporativos, etc.
Desarrollar mejores métodos de entrenamiento que requieran menos datos.
✅ Conclusión
Sí, se ha entrenado con un volumen masivo de texto, del orden de decenas a cientos de terabytes.
Y sí hay una preocupación real sobre el agotamiento de datos útiles.
El próximo salto en modelos de IA ya no será solo cuestión de más datos, sino de mejores algoritmos, fuentes nuevas o sintéticas, y aprendizaje más eficiente.
Enrique, se que tu sabes que Inteligencia artificial no es un chat ai pero ese es el unico que se ha difundido como describes y el unico que usas en tu ejemplo. Que si ,que se que tu lo sabes pero:
1. Siendo un poco tocapelotas esperaba que tu lo separaras más.
2. La innovacion en otros aspectos es incluso más disruptiva pero muy pocos la usan, incluso en sus segmentos. Ejemplo simple crear audio (musica o conversación), avanzado AlphaFold
3. No estoy de acuerdo de hecho con que los consumidores dejan de ser relativamente pasivos. Creo que sigues dependiendo mucho de una buena interfaz. Ejemplo, no conozco a ningun gamer usando sus tarjetas graficas para LM Studio que ya es una interfaz.
Aunque en la conclusiónes creo que lo intentas ampliar, punto 4. Meter todo en el mismo saco creo que simplifica los cambios que van a venir y quien y como se les va a sacar partido.
Que se note que no estoy en desacuerdo con nada excepto la pasividad de los usuarios, aunque estoy seguro que nos referimos a distintas cosas. Es más que me tienes acostumbrado a una muy buena calidad diaria de articulos <3 y este creo que este le falta chicha :P