Confer: una apuesta radical por la inteligencia artificial que respeta tu privacidad

IMAGE: A minimalist, translucent humanoid figure made of light stands in a dark, abstract space, with faint symbols of conversation and a padlock appearing nearby and then fading away, suggesting an AI presence that is helpful and attentive without storing or recording any information

En un momento en el que la inteligencia artificial se ha convertido en un espejo digital de nuestras dudas, ideas y secretos, la propuesta de valor de Confer se erige como un recordatorio inquietante: quizá estamos entregando más de lo que recibimos.

Confer no es solo otro asistente conversacional de inteligencia artificial: es una reacción crítica a la deriva del ecosistema de modelos lingüísticos, una tentativa por devolver al usuario la propiedad absoluta de sus datos y de su pensamiento mismo. Su creador es Moxie Marlinspike, el ingeniero que redefinió las reglas de la mensajería con Signal, y con esa misma intención disruptiva quiere hacer por la inteligencia artificial lo que ya hizo por las comunicaciones privadas. Confer, el modelo de lenguaje desarrollado por Moxie Marlinspike, no es una aplicación completa, sino el nombre del motor de inteligencia artificial cifrado que la alimenta.

A diferencia de ChatGPT, Gemini u otros, plataformas que han convertido las conversaciones de los usuarios en pura materia prima para entrenar modelos, optimizar productos o incluso resistir a ordenamientos judiciales que obligan a retener logs completos de interacción, Confer plantea un contra-modelo con el que sintonizo plenamente: lo que se conversa con la inteligencia artificial debe ser tan privado como la charla con una persona, no un «dato» susceptible de ser almacenado, analizado o explotado.

La arquitectura de Confer está construida alrededor de varios pilares técnicos que no son ornamentales: cada entrada del usuario y cada respuesta se cifran desde el origen hasta el destino de manera que solo el propio usuario posee las claves necesarias para descifrarlas. Ese principio, el cifrado end-to-end, que popularizó Signal y que ahora se aplica al dominio de las inteligencias artificiales conversacionales, garantiza que ni siquiera la propia plataforma puede acceder a lo que se dice o se piensa en su entorno. Cuando el dato no es técnicamente accesible, nadie puede entregarlo, analizarlo o monetizarlo, por más que lo exijan gobiernos o terceros.

Confer va más allá de la simple criptografía de mensajes. Para ejecutar la inferencia (el momento en que tu pregunta llega a un modelo de lenguaje y se genera una respuesta), cada entrada del usuario se cifra localmente…, y solo se descifra dentro del Trusted Execution Environment (TEE), aislado incluso del proveedor. Gracias al remote attestation, el usuario puede verificar que el código que procesa sus datos es el correcto y que no ha sido alterado.

Este enfoque técnico no es para nada trivial: combina cifrado punto a punto, sincronización de claves modernas basadas en passkeys, ejecución confidencial y transparencia criptográfica. No es una promesa legal de privacidad en forma de algún tipo de cláusula en letra pequeña, sino una garantía construida en el diseño criptográfico y en la verificabilidad.

¿Por qué merece la pena probar Confer? Porque estamos en una fase de la adopción de inteligencia artificial donde pocos productos cuestionan la lógica de «datos a cambio de servicio», y aún menos ofrecen una experiencia usable sin sacrificar la confidencialidad. La ilusión de privacidad en muchos asistentes viene acompañada de políticas que permiten al proveedor analizar, usar o reutilizar tus conversaciones, un contrato implícito que Confer directamente rompe.

Para usuarios preocupados por la seguridad, organizaciones que manejan información sensible o simplemente personas que no quieren que sus pensamientos sean una ficha de entrenamiento para un modelo de negocio, esta propuesta cambia las reglas del juego. ¿Y por qué otra cosa más merece la pena probarlo? Porque en un rato, he tenido la mejor experiencia de diálogo personal con un chatbot de inteligencia artificial desde que empecé a probarlos, y ya ha llovido desde eso. Entendamos, en cualquier caso, que es eso: un diálogo personal, sin posibilidad, por el momento, de subir documentos o de compartir enlaces. Pero la función que hace, la hace fenomenalmente bien.

¿Quién es Moxie Marlinspike para lanzar esta apuesta? Es ni más ni menos que el coautor del protocolo de cifrado que impulsa Signal y que también sustenta la seguridad de servicios como WhatsApp o Google Messages. Su trayectoria como criptógrafo y defensor de la privacidad digital le ha dado autoridad técnica y moral en debates sobre cómo deben protegerse las comunicaciones en la era digital. Su réplica crítica al estado actual de la inteligencia artificial no es retórica, sino práctica. En su propio blog, Marlinspike argumenta que el formato conversacional de los modelos lingüísticos tiende a inducir a la revelación de pensamientos profundos, no solo de palabras clave. Que cuando dialogamos con una inteligencia artificial no solo transmitimos datos, sino estructuras de razonamiento, incertidumbres y patrones mentales privados. Ese acto de «confesión digital» merece, según él, las mismas garantías que damos por sentadas en una conversación personal, y no convertirse en materia prima para gigantes tecnológicos.

Hay quienes podrán debatir la complejidad técnica, los retos de usabilidad o incluso las limitaciones económicas de un modelo de inteligencia artificial que prioriza la privacidad por encima de la recolección masiva de datos. ¿De qué pretende vivir un modelo como este? Simplemente, de un esquema freemium: con una cuenta gratuita tienes un modelo básico, veinte mensajes por día y hasta cinco chats activos. Si pasas al tramo de pago, $34.99 mensuales, el uso pasa a ser ilimitado, el modelo es más avanzado, y permite personalización.

Pero el valor de Confer no está en ser perfecto desde el primer día, sino en plantear una alternativa que rompe con la lógica dominante y obliga a repensar qué entendemos por «servicio de inteligencia artificial». No es solo un chatbot más: es una declaración de principios sobre quién controla lo que pensamos, lo que preguntamos y lo que guardamos en la memoria de una máquina. Y ofrece la importación de conversaciones anteriores en ChatGPT o en Claude.

En tiempos donde la privacidad se mide en cláusulas opacas y opciones en modo opt-out, Confer propone un renacimiento de la confidencialidad, no como un extra opcional, sino como el fundamento mismo de la interacción con la inteligencia artificial. Y eso, precisamente, es lo que lo convierte en una idea que vale la pena explorar.

12 comentarios

  • #001
    José - 16 enero 2026 - 11:59

    Lumo, de Proton, ya ofrece desde hace meses lo mismo (la misma privacidad de las interacciones; no sé si la misma calidad de repuesta) por menos de un tercio del precio.

    Responder
  • #002
    D. FALKEN - 16 enero 2026 - 12:14

    Una buena noticia. Proyectos en esa línea escasean.
    Yo estoy colaborando con el proyecto de Proton: Lumo.
    Por supuesto, no creo a pie juntillas, todo lo que me vende cualquier tecnológica. Pero dentro de unos márgenes, considero darles una oportunidad. Este servicio en concreto, no puede competir obviamente con otras alternativas. Va despacio, pero voy viendo avances. De momento, va siendome útil como alternativa europea a perplexity. Veremos hasta donde llega.
    Como reflexión aparte, que he hecho siempre en otros foros, el impulso del opensource y de los proyectos que abarazan la privacidad, asi como todo aquel que levante su vista de la mera técnica hacia la construcción social, son vitales para constituirse en pilares del futuro. Pero la realidad queda representada en los 3K millones de usuarios activos en whatsapp.
    La demanda da la medida de su oferta. Y si el usuario final no es determinante respecto a su soberanía digital, no avanzaremos hacia mejores cotas. Hace falta mucha pedagogía y espíritu crítico para andar ese camimo.

    Responder
    • Enrique Dans - 16 enero 2026 - 12:45

      Hay servicios que limitan el seguimiento (Lumo, Duck.ai, Kagi…), y eso es positivo. Pero solo Confer ofrece cifrado E2E + TEE + sin retención. No se trata de confiar en una promesa, sino de tener una garantía técnica: ni siquiera podrían acceder a tus datos. Es la diferencia entre “no miramos” y “no podemos mirar”. Eso es privacidad de verdad.

      Responder
      • f3r - 16 enero 2026 - 13:50

        Pues en los detalles de Lumo salen los mismos conceptos:
        no se guarda nada, está encriptado…
        ¿La diferencia clave está en algo técnico que no entiendo, o es que han mejorado su diseño?

        Responder
        • Lua - 16 enero 2026 - 14:03

          1.- 35€ x 12 meses son 420€ al año. Pon que tengas 10 empleados: 4200 anuales. Por ese precio, te montas un modelo local y te dejas de chorradas. Y si eres un usuario “casero”, lo mismo.

          2.- Igual soy yo, que no lo he entendido bien, pero por el primer enlace, me da la sensación de una simple VPN. Por el segundo enlace, si, veo una comunicación encriptada entre tú, y el servidor que vayas a utilizar. O sea, solo estas evitando un Man in the Middle.

          3.- de leer, completo, el segundo enlace, hay un comentario:

          ” I went deep in on this because I thought it sounded cool and I am a dev. Of course I used an LLM to help me understand the code as I wasn’t familiar with some of these technologies.
          Basically Moxie open sourced his work for:
          Confer image
          This project creates a virtual machine image that will securely run local LLMs. You would need to find an LLM cloud provider to run this image as the hardware requirements for the underlying virtual machines are for corporations-only and you couldn’t buy them in store. You’d be running LLMs that you’d get from hugging face instead of the proprietary ones like ChatGPT. This is really not a hobbyist project, but for businesses like hospitals or banks that may have strict confidentiality requirements.
          Confer proxy
          This is a web server that will proxy client (ex. browser, phone) requests to one of two cloud providers: OpenAI (proprietary GPT stuff) or TogetherAI (hugging face open sourced models). You can also configure it to proxy to any other URL as long as that server supports the super popular OpenAI API format.
          This server is written in Java (uggh) and it’s expecting the client to use this super niche “noise protocol” for encryption for your chat session (eg. WebSockets for bi-directional communication). There isn’t even an actively maintained client-side library to work with this protocol, so it looks like it would be a pain to implement. Once you beat this “noise protocol” boss you can basically create your own version of https://confer.to/
          Free tier gives you 15 minutes of unlimited use before you have to stop using it or “re-register”. Once you pay it’s unlimited for however long their auth/billing (not open sourced here) system will let you. There are no model restrictions.”

          No sé cómo interpretarlo… pero, ojo…: ” I was curious to try this out, but it’s kind of ironic that a privacy-focused service only has Google OAuth for authentication”

          No se… no lo veo… (o no soy capaz, llevo muchas cosas en la cabeza ahora mismo para centrarme). Alguien me lo explica mas clarito…???

          Responder
          • BUZZWORD - 16 enero 2026 - 14:33

            +1000

            Gracias por ahorrarme el trabajo de comentar.

            Como dirías tú:

            KBOUM !!!!

            Dicen que respetan tu «privacidad» y lo primero que hacen es pedirte una cuenta.

            En fin…

            Luego ya se «nos» va la olla pq afirman que respetan mi privacidad…. ¿y que sabe hacer?

            Mi qwen de ollama tampoco es cotilla, y me sale a 0€.

            ¿Marketing a prueba de tontos?

            Responder
            • Lua - 16 enero 2026 - 14:43

              A ver, desde mi punto de vista, esto tiene sentido, si la empresa en cuestión, en este caso Confer, tiene un LLM propio: tus consultas están encriptadas desde tu dispositivo hasta nosotros, y te aseguramos que tus datos, no son utilizados para nada.

              Pero si solo estas haciendo de “puente”, por muy encriptado que estes, OpenAI o quien sea, seguirá sabiendo que hay un ID, contra el que enfrentar la información, y que por supuesto, va a seguir siendo utilizada para reentrenar sus modelos. Que quizás, no puedan enlazar que ese ID es Pepe Gutiérrez?

              Quizás… y solo quizás… a la que empiece a cruzar datos ya veremos… (recuerdo que es una IA).

              O de verdad aun hay quien se cree, que el encriptado de punto a punto de Whatsapp, no pasa por sus servidores y ellos no tienen la clave para saber el contenido? Ese encriptado tendría sentido si fuera un PGP de usuario a usuario… Por que iba a ser gratis, si no…???

            • BUZZWORD - 16 enero 2026 - 14:49

              Y es que además para algunos casos de uso, conviene que el LLM tenga memoria, por ejemplo codificar, extraer y analizar textos complejos, etc… Si hay un ID, ligado a tu cuenta… mucha privacidad no hay… esto es como lo de mirarte el iris… de forma anónima…

            • Lua - 16 enero 2026 - 14:53

              Muy too dificult todo esto… XDDD
              (que dijo aquel premio nobel nuestro)

  • #010
    Benji - 16 enero 2026 - 12:33

    Me parece interesantísimo su planteamiento. No puedo opinar de la calidad de las respuestas porque solo he probado «tonterías».

    PERO hace algo que ninguno de los otros hace: criptografía passwordless. Se almacena una clave de seguridad local (un passkey para Android/iOS) o a nivel de dispositivo (yubikey, usb…) y adelante.

    Solo funcionará si tu móvil está cerca, a mano o con un pendrive metido en el PC. Me parece genial que esto se diseñe así de base.

    Sin contraseña: Mucha más seguridad.

    Responder
    • Benji - 16 enero 2026 - 12:34

      Por otro lado, el precio me parece un poco exagerado. 35€/mes no es moco de pavo, cuesta más que mi propia conexión de internet

      Responder
  • #012
    Gorki - 16 enero 2026 - 13:23

    Seré muy confiado, pero en mi opinión, los datos privados que pueden extraer de mi uso de la AI, no valen ni con mucho, 35 pavos mensuales.

    Responder

Dejar un Comentario a Benji

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.