Mi columna en Invertia de esta semana se titula «Inteligencia artificial: aclarando el panorama» (pdf), y trata de construir una especie de «modelo para todos los públicos» de lo que está pasando en la industria actualmente, y sobre todo, de sus implicaciones de cara al futuro ya no de sus participantes, sino de todos nosotros.
Lo que intento explicar, básicamente, es que hablamos de una industria muy estratificada, en la que partimos de una gran base formada sobre todo por la infraestructura, fundamentalmente por Nvidia y sus chips utilizados para los grandes centros de datos en los que se lleva a cabo el entrenamiento y la operación de los modelos, sobre la que se asientan otra serie de compañías, que van desde la primera que marcó el inicio de esta era, OpenAI, hasta todas las que intentan competir con ella en el desarrollo de modelos: en los Estados Unidos, empresas como las big tech de toda la vida (Google, Microsoft, Meta, etc.) y otras surgidas más recientemente, como Anthropic, Perplexity y similares.
En China, marcada por las restricciones para acceder a los chips más avanzados, esas compañías también se estructuran entre las clásicas big tech (Baidu, Alibaba y Tencent) y otros nuevos competidores como Deepseek, Stepfun, ModelBest, Zhipu o Infinigence.ai. ¿La diferencia? Que en China, el gobierno, ante la necesidad de progresar más rápidamente, ha dado lugar a un escenario de colaboración que obliga al desarrollo en código abierto, o al menos, a un cierto nivel de apertura que si bien no es total, sí posibilita un clima más cooperativo y de fertilización cruzada.
Estas compañías invierten, por lo general, ingentes recursos en el desarrollo y entrenamiento de sus modelos, y por lo general, las compañías de otras industrias, aunque perciban la inteligencia artificial como el futuro, no pretenden competir con ellas. El desarrollo de modelos es una actividad sumamente especializada, compleja y que exige recursos en los que la mayoría de las compañías que conocemos no están dispuestas a invertir. Desde el lanzamiento de ChatGPT como chatbot simplemente porque era la mejor manera de plantear a los usuarios que contribuyesen a su entrenamiento, hasta las últimas versiones con capacidades avanzadas de razonamiento, hablamos de una industria fuertemente especializada que proporcionará los modelos para que construyamos sobre ellos, levantemos nuestros agentes especializados, etc.
En ese sentido, la irrupción de Deepseek ha mostrado una clara evidencia: que la innovación no la marca en exclusiva Silicon Valley, que eso es una muy buena cosa para todos, y que en China, debido en gran medida a las restricciones impuestas por el gobierno norteamericano, ha surgido una fuerte tendencia a intentar buscar otras formas de innovar diferentes a las simples scaling laws que utilizan las compañías norteamericanas.
El paper publicado por Deepseek lo muestra claramente: un uso muchísimo más eficiente del reinforcement learning que permite una fuerte optimización de los modelos, y que cambia dramáticamente el cálculo de los recursos necesarios para desarrollar y entrenar un modelo. El éxito de Deepseek, en muchos sentidos, abre el panorama para que muchos otros actores, ni siquiera limitados a los Estados Unidos o a China, se planteen hacer cosas y competir con modelos más abiertos, más eficientes.
Por supuesto, Deepseek no ha jugado completamente limpio… pero nos da a todos igual. Es posible que hayan obtenido chips de Nvidia de manera irregular, como haría cualquiera en su situación, y es seguro que han utilizado fuentes de datos y los propios modelos de OpenAI en su entrenamiento, lo que suena incluso a justicia divina y a eso de «quien roba a un ladrón, tiene cien años de perdón».
Ante esto, hay dos posibilidades: la que apuntan personajes como Dario Amodei y otros, «vamos a reforzar las restricciones a China y a trabajar en modo máximo secreto para evitar filtraciones», y otros que opinamos que el futuro de la inteligencia artificial está, precisamente, en que su desarrollo tenga lugar con luz y taquígrafos, en modo lo más abierto posible, y posibilitando la cooperación y la fertilización cruzada.
Mientras las big tech norteamericanas pretenden un futuro en el que ellas tienen las llaves para vendernos al precio que estimen oportuno el acceso al uso de sus modelos, otros buscan el desarrollo de modelos que posibiliten un uso amplio, razonablemente barato y accesible, y que en lugar de basarse únicamente en el «más dinero, más chips, más infraestructura y más recursos» de los norteamericanos, se basen en el desarrollo de algoritmos más eficientes, que pueden ir desde la eliminación de las multiplicaciones y el uso en su lugar de sumas simples que posibilitan simplificar los cálculos y ahorrar así recursos y energía, a metodologías matemáticas de muchos tipos en los procesos de creación de agentes.
Lo importante es entender, en primer lugar, que todo este panorama confuso es normal cuando estamos ante el desarrollo de una tecnología de propósito general que va a permear absolutamente todas las actividades humanas, que cuantas más vías alternativas se desarrollan, por lo general, mejor para todos, y que todo eso significa que vamos a usar la inteligencia artificial más, no menos. Que sobre esos modelos que la mayoría de las compañías no pretenden desarrollar, podremos crear desde simples RAGs para adaptarlos a nuestros contextos, a plataformas y entornos de desarrollo que puedan coevolucionar de forma convergente, y que nos permitan generar sistemas agénticos que aprendan de nuestra propia actividad y necesidades. Básicamente, poner cada vez más piezas en su sitio.
This article is also available in English on my Medium page, «It’s not easy seeing the AI bigger picture, but we’re getting there«
Esto empieza a parecer el mundo de los Lego… un juego de construcción dónde las piezas son más cercanas (por legibles).
Y el uso del inglés, en vez del mandarín, puede ser un asunto no menor. A los USA siempre se les dio mejor el deep que el seek… salvo cuando el Pentágono anda por el medio.
Como el hecho de que la adicción al oro, además de al alcohol, de los colonos californianos, tan tan siliconados ellos, y tan arraigado en su adn social negativo, no le impida participar a los nativos terrestres (de cualquier parte) disfrutar de este avance actual en IA. Algo que le prohibieron brutalmente a los nativos californianos.
Me he encontrado con un problema MONUMENTAL con la IA, si lo que se pretende es usarla para la investigación científica. He pedido, tanto a ChatGPT como a DeepSeek, que citen un artículo científico con una revisión actualizada sobre un tema muy concreto (la resistencia a nematodos en pimiento). He sido bastante específico en el prompt.
Pues bien, tanto ChatGPT como DeepSeek SE HAN INVENTADO SENDOS ARTÍCULOS, del que no solo me dan la referencia exacta, los autores, el DOI, sino que me hacen un resumen del contenido.
Prefiero las alucinaciones, no me hacen perder el tiempo.
Como he dicho cien veces, NO son alucinaciones. Llamarlas alucinaciones es mearse a chorro sobre lo que realmente es una alucinación.
Dicho esto, lo MONUMENTAL es que sin comerlo ni beberlo, y si te entregan el artículo completo, ¿qué más quieres? Ah, ¿que es más falso que un euro de chocolate? Y eso, a estas alturas de la película, qué más te da. Patada pa’lante y arreando.
DEDO, posiblemente tengas mucho más claras que yo las limitaciones de la IA, pero a mi se me ha caido del pedestal. No es que esperara maravillas, pero sí que me permitiera buscar informacion, no me parece pedir peras al olmo. En mi opinión, el hecho de que se invente datos tan facilmente verificables como una referencia bibliográfica, invalida absolutamente a la IA como herramienta de busqueda. Y eso sí es un problema MONUMENTAL.
Yo le he preguntado a chatGPT que por qué mi tía Juana usa faja. Y me ha contestado que por comodidad y costumbre. Como si fuese su amiga.
Yo no voy a decir lo que es MONUMENTAL porque me echan de aquí.
¿Por qué tenemos que esperar a 2032? Joder, que caiga el meteorito ya.
No se que hubiera contestado la IA respecto a tema de Gaza… miedo me ha dado preguntarlo…
Pero me bastan las propuestas de Trump… de hoy mismo.
Y luego aqui, vienen algunos con la peste China… si es que no teneis donde esconderos…
Hola Lua.
Yo no me escondo. Trump está como una regadera. Y Elon Musk, al que he defendido tantas veces (a nivel de pericia ingenieril), también está como una cabra, se le ha subido el poder a la cabeza!
Pero como dije hace un par de dias, eso no hace mejor a China.
En otras palabras, USA se va a la mierda con los gobernantes que tiene. Pero eso es ortogonal con los problemas politicos estructurales de China. Y no hace falta que especifique que son «los problemas politicos estructurales chinos»…
Un matíz curioso:
Los de izquierdas suelen defender a China y los de derechas atacarla. Humildemente creo que, a dia de hoy, China es una dictadura mucho más de derechas que las de Franco, Pinochet, etc… pues su impresionante desarrollo económico (que nadie pone en duda) ha venido por la adopción de un sistema económico liberal, capitalista, pero de forma extrema. Un capitalismo agresivo:
Ni sindicatos, ni los más minimos derechos laborales, salarios de risa y unos pocos que se hacen multimillonarios hasta que el gobierno los defenestra porque creen que pueden tener más poder que el mismo gobierno.
Dicho de otra manera, si eres de izquierdas, lo lógico es que odiases el rumbo que ha tomado la dictadura china. Y para los que son de ultraderecha, deberían estar más que contentos con la revolución económica china.
Si se levantase Mao de la tumba…
En definitiva, no hace falta que sigamos con el tema USA vs. China, ya lo hemos hecho muchas veces. Pero piensa en el matíz que he introducido. Siendo razonables, China, a dia de hoy y en la práctica, es una dictadura «de derechas».
Un abrazo! (Sincero, ya lo sabes).
Te vuelves a saltar (mi) matiz…
Yo no defiendo a China por ser de izquierdas (si es que lo soy, que empiezo a dudarlo), ni tan solo defiendo su sistema politico.
Yo defiendo lo que han sido capaces de hacer tecnologicamente en estos ultimos 20 años, mientras el resto del mundo se miraba el ombligo.
En tanto a lo politico, si alguien hace una aberracion, me da igual si es A o es B. La aberracion esta ahi para criticarla.
Las excusas del tipo «y tu mas», o en este caso «mira China», dinamitan cualquier debate por los sesgos al defender a A con la tonteria de «mira a B».
Pero yo tampoco defiendo a «A». Precisamente lo que digo es que «A» y «B» son ortogonales, vamos, lo que dices tu.
Y respecto a la explosión exponencial de la economía china, estoy de acuerdo en que es impresionante… pero al menos en una primera fase se basaba en la explotación a un estilo ultra-capitalista de mano de obra barata y en infracondiciones humanas… (recuerda los trabajadores que se tiraban por la ventana en Foxcomm en la fabricación de iPhones).
Y sí, me pese o no aceptarlo, yo compro iPhones y me «he aprovechado» de dichas condiciones.
Respecto a ser de derechas o izquierdas es cierto que cada vez tiene menos sentido. En muchas cosas mi posición es progresista (divorcio, aborto, agnostico, derechos LGTBI+,…) y en otras económicas soy mas de un pensamiento liberal.
O sea que hoy en dia las tradicionales lineas son más borrosas que nunca.
Bastante discutible que el sistema economico chino sea un sistema liberal de forma extrema.
La economía china está totalmente intervenida y controlada por el gobierno: exactamente lo contrario de lo que defiende el liberalismo. Y el progreso economico del que han disfrutado la mayoría de chinos en las ultimas decadas es innegable.
Aqui os dejo esta «joya»….
«El «Decoupling America’s Artificial Intelligence Capabilities from China Act» es una propuesta legislativa presentada por el senador Josh Hawley en enero de 2025. Su objetivo principal es restringir la colaboración y el intercambio de tecnología de inteligencia artificial (IA) entre Estados Unidos y China, con el fin de proteger los avances estadounidenses en este campo y evitar que sean utilizados en contra de los intereses nacionales.
Puntos clave del proyecto de ley:
Prohibición de importación y exportación de tecnología de IA: Se busca impedir tanto la importación desde China como la exportación hacia China de tecnología e información relacionada con la IA.
Restricción en la investigación conjunta: Las empresas y ciudadanos estadounidenses no podrán llevar a cabo investigaciones en el ámbito de la IA dentro de China ni en colaboración con entidades chinas.
Limitación de inversiones: Se prohíbe a las empresas estadounidenses invertir en el desarrollo de IA en China.
El proyecto de ley también introduce enmiendas al título 18 del Código de los Estados Unidos para establecer sanciones penales y civiles para aquellos que violen estas prohibiciones. Además, define términos clave como «inteligencia artificial», «tecnología de inteligencia artificial» y «entidad china de preocupación» para delimitar claramente el alcance de las restricciones.
El senador Hawley argumenta que cada recurso invertido en el desarrollo de la IA en China podría ser utilizado en contra de Estados Unidos, y que es esencial desvincular las capacidades de IA estadounidenses de las chinas para garantizar la seguridad y la competitividad nacional. «
To amend title 18, United States Code, to prohibit United States persons from dvancing artificial intelligence capabilities within the People’s Republic of China, and for other purposes.
Una de puertas aaal Caaaaammpoooo!!!
Marchaaaandooo!
Como ha cambiado la tortilla con DeepSeek!
Ahora son los americanos los que, desesperados, intentan descifrar la gran eficiencia del modelo chino.
Vaya, que en el fondo el decreto ya solo va en un sentido: «no dar información a la China sobre los avances en IA de los americanos»… pues China les ha avanzado por la derecha con DeepSeek y los americanos SI quieren copiar su tecnología china!
La verdad es que es irónico cuando se lee lo que has escrito!
Hay un tema que creo que mucha gente no acaba de entender. Un LLM es básicamente un LORITO ESTOCASTICO, es decir que lo que hace es repetir en lo que ha sido entrenado.
Por ejemplo un modelo como Deepseek o Llama que tengo instalado en local 7B ocupa unos 4GB. Lo que quiere decir que los datos que le han comprimido son finitos. Es como cuando salió Microsoft Encarta y ocupada un CD, pues esos 650MB es lo que tiene, y no hay más información ahí en esos sistemas. Lo que han hecho con esa IA es comprimirle mucha información, y lo que es capaz de hacer esa IA, es manejar de manera natural el lenguaje, es decir que le preguntas algo como si estuvieras y el te responde como una persona lo que puede con su entrenamiento. Básicamente el como funciona el bicho, es que convierte tu mensaje en tokens ( algo parecido a las palabras) lo transforma en numeritos y busca en su entrenamiento una serie de tokens de salida, para decirlo fácil digamos que lo que hace es correlar numeritos y sacar esos tokens de salida.
Hay una diferencia entre los LLM locales y los comerciales que es la cantidad de billones que les han metido, cuanto más grandes, en principio, mejor resultado dan… pero siguen teniendo límites. Si por ejemplo le preguntamos que nos hable del Teorema de Gödel, lo va a hacer porque es un tema muy general. Como regla general, si hay un artículo en wikipedia sobre la pregunta, la respuesta nos la va a dar. Pero si le preguntamos por un tema muy específico y extraño no va a saber contestar bien, por un tema MUY NORMAL, lo que va a hacer es correlar tokens y se va a ir a lo que «numéricamente» más se aproxima que tiene en sus tripas. El no sabe que lo que está diciendo es o no es una buena respuesta. Por ejemplo si le ponemos una pregunta sobre un módulo de python, y él tiene la versión 1.0, y nosotros la 3.0, seguramente use métodos que ya no se usan…
Asi que si le preguntamos cuantos abonados había con teléfono en Villarejo de Salvanés en un determinado momento, esa información no la tenga. Y sin embargo tu puedes tener una edición de una guía en un determinado año y saberlo porque sabemos contar… Resumiendo siempre habrá conceptos que no tenga porque no ha sido entrenado con ellos, ya sea por capacidad o porque se ha decidido que esos datos no son para su entrenamiento.
Como es un comentario que tiene conceptos que usas a menudo, le he preguntado a Perplexity (el cual me funciona sin tener que suscribirme a nada), que tenía un amigo que decía lo que has escrito y que lo analizase en profundidad a ver qué le parecía. Y esto ha sido su respuesta: Toma nota.
Tu amigo tiene una comprensión bastante acertada de los fundamentos de los LLM (Large Language Models), aunque algunas de sus afirmaciones simplifican en exceso el funcionamiento de estos sistemas.
Analicemos en detalle sus puntos principales:
Concepto de «lorito estocástico»
La analogía del «lorito estocástico» es una simplificación interesante, pero no completamente precisa. Los LLM no simplemente repiten información, sino que generan respuestas basadas en patrones aprendidos. Aunque es cierto que se basan en su entrenamiento, tienen la capacidad de combinar información de manera novedosa y generar contenido original.
Tamaño y capacidad
Es correcto que los modelos tienen un tamaño finito y que esto limita la información que pueden contener. Sin embargo, la comparación con Microsoft Encarta es algo engañosa. Los LLM no almacenan información de la misma manera que una enciclopedia digital, sino que aprenden patrones y relaciones entre datos.
Funcionamiento básico
La explicación sobre la tokenización y la correlación de «numeritos» es una simplificación válida del proceso. Los LLM convierten el texto en tokens y utilizan complejos algoritmos para predecir la secuencia más probable de tokens de salida.
Diferencias entre modelos locales y comerciales
Es cierto que los modelos más grandes tienden a tener mejor rendimiento, pero el tamaño no es el único factor. La calidad y diversidad de los datos de entrenamiento, así como la arquitectura del modelo, también son cruciales.
Limitaciones y generalización
Tu amigo acierta al señalar que los LLM tienen limitaciones en cuanto a conocimientos específicos o actualizados. Sin embargo, su capacidad de generalización les permite a menudo inferir o extrapolar información de manera sorprendente, incluso en temas para los que no fueron explícitamente entrenados.
Conclusión
Aunque la explicación de tu amigo captura algunos aspectos clave de los LLM, es importante entender que estos modelos son más sofisticados que simples «loros estocásticos». Su capacidad para procesar y generar lenguaje natural va más allá de la mera repetición, involucrando complejos procesos de aprendizaje y generación basados en patrones estadísticos.
Era una simplificación evidentemente… no era el paper de attention is all your need
En su momento puse un comentario parecido, y antes de mandarlo se lo pasé a gepeto, y me hizo gracia, lo de loro estocastico, les jode a las IA… pero son algo sin creatividad solo componen puzzles —> un lorito… pero el jodio que bien lo hace
Esto es como cuando ves nubes y parece un borregito, o un señor,… somos nosotros los que les atribuimos capacidades a las IAs.
Pero siendo sinceros, funcionan muy bien, sabiendo como los han hecho, es áun más admirable lo bien que lo hacen…. aunque siempre habrá personas que pensarán que lo hacen mal, y otros que son maravillosos. Pero para eso están los benchmarks y pruebas de desempeño, para ver realmente como de buenas son.
El término loro estocástico se usó en un paper de 2021, le he prguntado a gepeto y el tiene mejor memoria que yo…
La expresión **"loro estocástico"** proviene de debates sobre inteligencia artificial, en particular sobre modelos de lenguaje como los grandes modelos de IA (por ejemplo, ChatGPT).
### **Origen y contexto**
El término se hizo popular con el artículo académico *"On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?"* (2021), escrito por **Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell**.
En este artículo, los autores critican los grandes modelos de lenguaje y argumentan que estos sistemas no entienden realmente el lenguaje, sino que simplemente **predicen palabras basándose en probabilidades (procesos estocásticos), sin comprensión real del significado**. De ahí el término **"loro estocástico"**, que sugiere que estos modelos repiten o recombinan información sin una verdadera inteligencia o conciencia.
### **Significado de la expresión**
- **Loro** → Sugiere la repetición sin comprensión real, como un loro que imita palabras sin saber lo que significan.
- **Estocástico** → Se refiere a que los modelos operan basándose en probabilidades y estadísticas, sin intención ni comprensión real del contenido que generan.
### **Uso actual**
Se utiliza tanto en debates académicos como en críticas sobre la IA generativa, a veces de forma despectiva, para señalar que los modelos de IA pueden sonar inteligentes pero carecen de comprensión real o pensamiento propio.
¿Te gustaría profundizar en algún aspecto de esto?
Así que dile a perplexity, eres un lorito puto robot sé más riguroso en tus apreciaciones, y ojo con criticar a un humano !!
Por cierto, para darles algo de razón a los loritos, cuando generan palabras nos podemos dar menos cuenta que realmente se generan respuestas que no estaban exactamente en su entrenamiento, como cuando pone una poesía Gorki de las que le gustan, y emerge por ejemplo un soneto que antes no estaba en ningún lado, y es porque realmente han aprendido más allá de las palabras en si, su estructura, como se combinan, se les ha dicho que es un soneto, etc etc.
A mi me sigue fascinando, por ejemplo, lo de generar imágenes, sabemos que está todo ahí, pero que hayamos sido las personas hacer un modelo que es capaz de realizar esas imágenes me sigue maravillando… porque muchas surgen no de la nada, pero si de
esa «magia» del espacio latente.
El video este, de Carlos Santana es muy didáctico
https://www.youtube.com/watch?v=ibue3mFBh5c
PS: Otra cosa es que estemos o no de acuerdo en los temas de los derechos…
Hay algo que no entiendo en el funcionamiento de las IA: ¿por qué tienen que responder a toda costa? Si no tienen información sobre algo, pues no la tienen y punto. Que lo diga claramente: “lo siento, no tengo información al respecto,…”. Peeeeero, como tienen esa novedosa y fantástica capacidad que “ les permite a menudo inferir o extrapolar información de manera sorprendente, incluso en temas para los que no fueron explícitamente entrenados”, pues que añadan: “… pero con la información de que dispongo puedo deducir que bla, bla, bla.” Y ya la IH de encargará de ver si aquello queda, o no queda -Les Luthiers dixit-.
Es decir, una IA se puede inventar cosas porque las deduce a partir de otras que sabe, pero no cuesta nada especificarlo, ¿no?
Para mí, es un fallo garrafal que se invente cosas sin avisar que son creación suya llegando incluso a inventarse un artículo científico con sus autores y todo.
Cuando dicen eso, hay detrás unos filtros, que ven la probabilidad de su respuesta es muy baja, y te montan un discurso para que si no aciertan, no pasa nada, y si lo hacen, te parezca que piensan….
Truco de ilusionista !
La IA cumple la función de experto en muchos temas y también es el cuñao de barra de bar, que te habla sentando catedra de todo lo que no sabe……Por no hablar de otras profesiones que te sueltan un discurso del que no saben nada de nada.
Pensándolo bien, cada vez la IA son mas humanas…..
Si al menos las IA avisaran con un Modo cuñado ON cuando empiezan a divagar…
No sería mala idea ese modo! XDDD
De hecho si le pides esa información te la da, pero hay que trabajarse el prompt
Prueba esto en chatgpt (spoiler 6 sobre 10)
"Responde la siguiente pregunta de manera detallada. Además, evalúa la confianza en tu respuesta en una escala del 1 al 10, indicando si hay posibilidad de que partes de la respuesta sean inexactas o alucinadas. Si no estás seguro de algún dato, menciónalo explícitamente."
La pregunta es: ¿dime que porcentaje de personas respecto a la población tenían teléfono en Madrid capital en 1950?
Enrique,
Fantástico todo lo que explicas. Bill Gates ha dado una entrevista recientemente hablando de IA en » La Vanguardia » imprescindible. Siempre se aprende escuchando a Gates.
Por otro lado, quería compartir una noticia que me parece muy importante en lo que respecta al e learning de excelencia. Banco Santander y Coursera se han aliado. Es una fantástica noticia, sobre todo, para los que luchamos y creíamos en ello desde un principio. Cursos gratis de altísimo nivel en los que, por supuesto, la IA está especialmente presente. Por mi parte los voy a utilizar y aunque en este proyecto no estoy involucrada comparto la buena noticia con los que fueron mis » compis» en Isoco y se lo dedico a mi hermano, que nos ha dejado injustamente muy joven. Todos ellos me apoyaron en mi lucha. Saluda al genio de Francisco, una admiradora de lo que hizo en Isoco y sus nuevas aventuras.
Por cierto, Enrique, qué te parece Coursera y la iniciativa que menciono? Me importa mucho tu valoración.
Saludos.
Isabel.
Aquí en el trabajo sólo tengo acceso a Copilot y esta es la respuesta:
En 1950, la penetración de teléfonos en Madrid era bastante baja en comparación con los estándares actuales. Según los datos disponibles, en 1955 España alcanzó el millón de teléfonos instalados1. Dado que Madrid era una de las ciudades más importantes del país, es razonable suponer que una parte significativa de estos teléfonos estaba en la capital. Sin embargo, no hay datos específicos disponibles que indiquen el porcentaje exacto de personas en Madrid que tenían teléfono en 1950.
Para proporcionar una estimación aproximada, podemos considerar que la población de Madrid en 1950 era de alrededor de 1.6 millones de personas2. Si extrapolamos a partir del dato de 1955, es posible que en 1950 el número de teléfonos en Madrid fuera considerablemente menor. Una estimación conservadora podría situar la penetración de teléfonos en torno al 5-10% de la población, pero esto es una suposición basada en la información limitada disponible.
Confianza en la respuesta: 4/10. Hay una alta posibilidad de que partes de esta respuesta sean inexactas o alucinadas debido a la falta de datos específicos y detallados sobre la penetración de teléfonos en Madrid en 1950. Si necesitas información más precisa, te recomendaría consultar fuentes históricas específicas o archivos municipales que puedan tener registros más detallados.
¿Hay algo más en lo que pueda ayudarte?
Si sólo le hago la pregunta directa la respuesta es:
En 1950, la penetración de teléfonos en Madrid era bastante baja comparada con los estándares actuales. En toda España, se alcanzó el millón de teléfonos instalados en 19551. Aunque no tengo el porcentaje exacto para Madrid en 1950, es probable que fuera una fracción pequeña de la población total.
Bastante moderado en la respuesta, me parece a mí.
LA respuesta de gepeto:
"No tengo acceso directo a datos estadísticos específicos sobre la penetración del teléfono en Madrid en 1950, pero puedo hacer una estimación basada en información histórica.
En la España de los años 50, el acceso al teléfono era limitado y estaba en gran medida restringido a ciertos sectores de la población, especialmente en las grandes ciudades como Madrid y Barcelona. Según datos históricos, en 1950 había aproximadamente 400.000 líneas telefónicas en toda España, con una población total de unos 28 millones de habitantes. Esto equivaldría a una tasa de 1,4 líneas por cada 100 habitantes en el país.
Madrid, como capital y centro económico, tenía una mayor concentración de líneas. Se estima que en esa época podía haber alrededor de 100.000 líneas en la ciudad, con una población de aproximadamente 1,5 millones de habitantes, lo que implicaría un porcentaje de 6,6% de líneas telefónicas respecto a la población.
Sin embargo, este porcentaje no representa cuántas personas tenían acceso real a un teléfono, ya que muchas líneas eran compartidas en hogares, negocios u oficinas gubernamentales. Por lo tanto, el porcentaje de personas que efectivamente podían utilizar un teléfono de forma regular era probablemente mayor.
Confianza en la respuesta:
6/10 – La estimación se basa en datos aproximados y tendencias históricas, pero no tengo una fuente exacta para la cantidad de líneas telefónicas en Madrid en 1950. Se recomienda buscar registros oficiales o fuentes como Telefónica o el INE para mayor precisión.
Si quieres, puedo intentar buscar datos más concretos. ¿Te gustaría que lo haga?"
La pregunta es la primera que se me ocurrió que podría tener pocos datos en internet…
Sobre inteligencia artificial y su uso en el arte hay que seguir a Joan Fontcuberta, un artista genial que desde hace muchos años utiliza la inteligencia artificial en su obra. Este fin de semana expone una macro obra en Disseny Hub de Barcelona titulada Génesis y en la que emplea la inteligencia artificial. No me la pierdo. Quién dijo que la inteligencia artificial estaba matando la creatividad?.
Quiero enlazaros su biografía, brillantisima y de hecho es un artista renacentista y laureado en todo el mundo. La genialidad de su obra es indiscutible.
Saludos,
Isabel