etiqueta: hallucinations

IMAGE: an Illustration of The Allegory of the Cave, from Plato's Republic, with the prisoners chained so they can only see a wall and not the outside of the cave, and the figures being projected as shadows on that wall

Por qué los LLMs están atrapados en la caverna de Platón (y qué viene después)

Los grandes modelos de lenguaje parecen inteligentes porque hablan con fluidez, seguridad y a gran escala. Pero la fluidez no es comprensión, y la confianza no es percepción. Para entender la verdadera limitación de los sistemas de inteligencia
31
IMAGE: A stylized digital illustration of a robotic AI assistant with glowing red eyes working on a laptop, set against a backdrop of the Windows logo, evoking both intelligence and menace

Microsoft: cuando el asistente inteligente deja de pedir permiso y empieza a ejercerlo

Microsoft ha dado un paso estratégico y arriesgado al integrar en Windows 11 lo que llama «experiencias de agente», una serie de funcionalidades de inteligencia artificial capaces de actuar sobre el sistema, los ficheros del usuario y las
17
IMAGE: A cartoon-style illustration of a panicked lawyer holding a nonsensical legal document labeled “HALLUCINATIONS,” symbolizing the dangers of AI-generated errors in professional settings

Tonterías, las justas: si tu inteligencia artificial se inventa cosas, no es mi problema

La inteligencia artificial generativa ha alcanzado un punto de inflexión: ya no se trata solo de una herramienta que «muestra fallos», sino de una tecnología que está siendo utilizada en contextos profesionales de alta responsabilidad.
29
IMAGE: OpenAI's DALL·E, via ChatGPT

¿Alucinaciones… o simplemente errores inevitables?

El término «alucinaciones» se ha convertido en la etiqueta más repetida para describir lo que ocurre cuando un modelo generativo produce afirmaciones falsas, inventadas o directamente absurdas. Es una metáfora potente porque evoca imágenes muy humanas: un cerebro
14
IMAGE: OpenAI's DALL·E, via ChatGPT

El fin de la ingenuidad: por qué convertirnos en «prompt engineers» ya no es opcional

Cuando, hace apenas un par de años, se empezó a fantasear con la figura del prompt engineer, muchos pensaron que era otro artificio inflacionario de la industria tecnológica. Sin embargo, fue necesario muy poco tiempo para que esa
12
IMAGE: OpenAI's DALL·E, via ChatGPT

Algoritmos generativos que flipan en colores…

Un fantástico estudio publicado en Columbia Journalism Review y titulado «AI Search Has A Citation Problem«, pidió a ocho algoritmos generativos que ya todos conocemos (ChatGPT, Perplexity, Perplexity Pro, Deepseek, Copilot, Grok 2, Grok 3 y Gemini) que localizasen el
27
IMAGE: OpenAI's DALL·E, via ChatGPT

Google y el dilema del robot borracho

Se vienen problemas para Google: en su última presentación, en el Google I/O, anunció la incorporación de resultados de su algoritmo generativo, Gemini, a sus resultados de búsqueda, en forma de lo que ha dado en llamar «AI Overviews». Empezando el pasado 14 de mayo, muchos
10
IMAGE: OpenAI's DALL·E, via ChatGPT

El interesante caso de la responsabilidad sobre las alucinaciones

Cada vez son más los casos en los que las mal llamadas «alucinaciones» de algoritmos generativos como ChatGPT, provocan casos suficientemente provocativos como para, como mínimo, reflexionar sobre el tema, y en algunos casos, para directamente generar
23
IMAGE: The Cambridge Dictionary

De cerebros humanos, algoritmos y alucinaciones…

El Cambridge Dictionary ha designado «hallucinate», en español «alucinar», como su palabra del año, resaltando la enorme importancia y popularidad de la algoritmia generativa y cómo la palabra ha cobrado un nuevo significado cuando hemos empezado a utilizarla como
15
Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.