La adopción de herramientas de inteligencia artificial generativa por parte de los trabajadores está ocurriendo a un ritmo vertiginoso, y en muchas ocasiones sin la aprobación o conocimiento de los departamentos de tecnología.
Este fenómeno, conocido como shadow AI, refleja una tendencia que ya se vislumbraba hace más de una década con el auge del llamado shadow IT, el uso de herramientas tecnológicas implementadas por departamentos distintos del departamento de sistemas centralizado o por algunos empleados independientemente, para eludir las limitaciones y restricciones que han sido impuestas por el departamento de IT, como ya comenté en este artículo en 2012 hablando de Dropbox.
La irrupción de la inteligencia artificial generativa es completamente imparable. Algunos estudios recientes indican que una proporción significativa de empleados utiliza herramientas de inteligencia artificial generativa sin la aprobación oficial de sus organizaciones, con hasta el 50% de los trabajadores utilizando herramientas de inteligencia artificial no autorizadas en sus tareas diarias . Esta práctica, aunque es susceptible de mejorar la productividad, puede también plantear, según la herramienta que se utilice, serios riesgos de seguridad y de cumplimiento normativo.
La solución no reside en establecer prohibiciones más estrictas, sino en la educación y formación de los empleados. La formación en ética de la inteligencia artificial y el liderazgo inclusivo puede suponer ahora mismo, en este estadio de adopción tecnológica, una ventaja competitiva a las compañías. Capacitar a los trabajadores en el uso adecuado de la inteligencia artificial generativa de manera que no sepan únicamente «hacer prompts«, sino también entender la lógica y las implicaciones del uso de las diferentes herramientas, así como su uso avanzado, es esencial para mitigar riesgos y aprovechar sus beneficios.
Intentar detener el avance de la inteligencia artificial generativa con prohibiciones es tan inútil como intentar detener un río con las manos. En su lugar, las organizaciones deben desarrollar políticas claras y flexibles que guíen el uso de estas herramientas, políticas deben equilibrar la necesidad de innovación con la protección de datos y el cumplimiento normativo. Es fundamental establecer marcos de gobernanza del dato que aborden los riesgos emergentes de la inteligencia artificial generativa, y que lo hagan, además, mirando hacia un futuro en el que este tipo de herramientas van a estar evolucionando de manera rápida y constante. Si resulta difícil para un experto seguir simplemente el avance de los modelos más conocidos (y más aún teniendo en cuenta las absurdas políticas de naming de algunas compañías), cómo no va a serlo para nuestros empleados. Anticiparse a esa complejidad y marcar recomendaciones claras es fundamental.
La inteligencia artificial generativa ha llegado para quedarse, y su adopción por parte de los empleados es una realidad que las organizaciones no pueden ignorar. En lugar de resistirse, es crucial adoptar un enfoque proactivo que incluya educación, políticas claras y una gobernanza efectiva. Es la única forma de aprovechar todo el potencial de una herramienta que puede ser verdaderamente eficiente para muchas tareas, mientras intentamos minimizar todo lo posible sus riesgos.
This article is also available in English on my Medium page, «Training, not restraining: the only viable response to shadow AI«
Yo soy uno de esos. ChatGPT está bloqueada aunque tenemos una propia basada en algo de Microsoft (no me preguntes cual, hemos cambiado 3 veces de URL)
Al final siempre vuelvo a ChatGPT para resúmenes de emails, creación de gráficos a partir de unos datos (es más rápido que entrar en PowerPoint + Excel) y para hacer los reviews a compañeros y para buscar significados de siglas desconocidas (entre otras cosas).
En programación ya he aprendido que no hace nada bien, da igual si es Claude, Grok, ChatGPT o Copilot…)
Pero sí. Por suerte mi departamento de IT tiene bloqueadísimas las extensiones y páginas web… siempre y cuando uses Edge/Chrome. Si navegas con Firefox y Secure DNS parece que no hay límites. Y no voy a autoboicotearme avisando.
Antes de eso usaba la versión Web de Telegram para enviarme cosas fuera del entorno corporativo al personal, hacer lo que necesitaba, y volver al entorno corporativo.
Me interesa saber pq consideras q en programación no hace nada bien. Aclaro que fue lo que estudié hace más de 30 años, Matemáticas + Ing. Informática ( ambas por separado), especialidad IA. Aunque realmente solo estuve 3 años programando profesionalmente y luego me pasé a la docencia de matemáticas en secundaria. En matemáticas también falla (muchas veces absurdamente), aunque resulta «convincente». Actualmente participo en una experiencia para diseño de uso adecuado en docencia, pero creía que en programación sería más fiable. Creo que empiezan a vérsele las limitaciones: Ramón López de Mántaras, publicó recientemente una entrevista en El País donde afirmaba que las IA´s generativas, científicamente aportan más bien poco. Thanks !!
Si pides un array con traducciones las deja en blanco excepto en inglés. Luego le tienes que volver a pedir que lo rellene y lo hace. Pides el siguiente array y vuelve a vaciarlo.
Pidez que cambie los colores de Hex a OkLab y saca como 3 funciones (hex a hsl, hsl a xyz, xyz a oklab). Desde la segunda el rojo es amarillo y el verde es rosa. Luego ya… perdidito.
O crear palabras asociadas a emojis. A veces acierta, a veces inventa.
Por ejemplo pedí la lista completa de países de la ISO 3166 con el emoji de la bandera. Se dejó como 25 países y en algunos la bandera no era.
Pedí una tabla de lenguajes por países (top 5 con más de 50.000 parlantes a menos que el país fuese más pequeño, en cuyo caso el idioma oficial). Aquí no dio casi ni una. En andorra por lo visto es español y portugués lo que se habla.
Y podría seguir, pero estoy en el móvil. Claude me fue un poco mejor pero tiene más limitaciones cuando es gratis
Gracias. Entendido. Fiabilidad cero, al menos de momento, para ciertas tareas, sobre todo científicas.
Yo en matemáticas le he visto «aproximaciones» absurdas. Y lo curioso es que en un caso pude
deducir de donde lo sacaba: literalmente aproximaba 79.83 a 17.56 pq en un problema análogo pero con datos diferentes ese era el valor que ponía como solución aproximada.
A nosotros lo que nos explicaron es que usando ChatGPT vía web, utilizan los datos de los prompts para el entrenamiento (creo que samsung tuvo una fuga de seguridad así). Al parecer vía API, te dan la opción de desactivar el uso de los datos que aportas en el entrenamiento (aunque te lo tienes que creer, claro).
En nuestra empresa nos han puesto un portal intermedio que, entre otras cosas, actua como de «proxy» para que el acceso a ChatGPT sea a través de llamadas de API, con la opción mencionada desactivada, en lugar de directamente en la web.
Como alguien de tu empresa lea este blog, te veo en la calle en 3, 2, 1… XDDD
Menos mal que solo eDans ve mi email… Hahahah
No te creas, le he preguntado a la IA y me ha dado varias ideas. Al principio me decía que era ilegal, obvio, pero cuando me he mostrado preocupado por saber si tenía una brecha de seguridad me ha dado diferentes métodos y herramientas…
Espera, que ahora te lo cuento por mail.
XD
Bueno, fuera bromas (lo del mail, lo de la IA es verdad), lo 1.º que aprendía en los 90 es tener un mail de pantalla, otro para registros de sitios que no te importan, y luego los que uses habitualmente. Puede ser obvio a estas alturas, pero todavía hay gente que se registra con un mail con su apellido + nombre. Aunque realmente yo tengo muchos más, en diferentes proveedores, algunas en Proton, en función de otros parámetros.
Esa es la mejor solución; esa y usar un VPN y diferentes navegadores para diferentes cosas, como decías. Aunque obviamente, muchos años usando una misma identidad @pantalla» pueden acabar siendo rastreables, sobre todo si usas siempre la misma imagen de perfil falsa.
Hace falta ser tan friki? No, Pero todo es cuestión de tiempo y ganas de investigar para conseguir una identidad.
Saludos.
«La solución no reside en establecer prohibiciones más estrictas, sino en la educación» (EDans).
X ser escueto.
hehehe. Se nota que ambos sois profesores
Me recuerda los tiempos de la irrupción del PC en las empresas y la proliferación en todos los equipos de multitud de programas piratas de informática, fuera de la norma de la compañía.
Virus en el mundo PC y esa calamidad llamada Windows… en UNIX ni uno se colaba…
Y en casa con ese windows y los amiguetes, ni uno serio… debe ser que estabais rodeados de gente del grupo NPI. Recuerdo que nos pasábamos virus para analizarlos….luego con el cambio a PC… el más cachondo el poner a los nuevos el cookie, cookie..
Yo conozco a alguien que trabaja en una multinacional MUY importante, de las MÁS importantes, y no voy a decir más. Lo usa con cabeza, obviamente, pero para él ha sido «Un antes y un después», y me lo ha dicho de forma rotunda y categórica; y tiene añísimos de experiencia, o sea, es un fiera. (Eso sí, NO tengo ni idea de si más arriba lo saben o no…)
«La Agencia Internacional de la Energía (AIE) proyecta que los centros de datos consumirán cerca de 945 teravatios-hora (TWh) de electricidad en 2030, frente a los 415 TWh actuales. Además, este año la organización estimó que las emisiones de gases de efecto invernadero derivadas del consumo energético de la IA alcanzaron los 180 millones de toneladas, con proyecciones de aumentar a entre 300 y 500 millones de toneladas para 2035.
Todo esto sin contar el consumo de agua de estos sistemas, ya que el proceso de enfriamiento de los centros de datos, esencial para el funcionamiento de modelos de IA como ChatGPT, requiere grandes cantidades de agua. El Instituto de Ingeniería (IIE) de España estima que entre 10 y 50 consultas pueden consumir aproximadamente 2 litros de agua potable, debido a la alta demanda de refrigeración.
Así que sí, aunque sean mínimas las respuestas en las que incluyas un ‘por favor’ o un ‘gracias’, realmente cualquier interacción con la IA está generando un consumo energético, por lo que no resulta tan descabellado que, si unos cuantos millones de personas lo dicen, esto se traduzca también en un gasto millonario para la empresa.»
Ser educado SÍ cuesta: decir ‘por favor’ y ‘gracias’ a ChatGPT no sale gratis. «Decenas de millones de dólares», según Sam Altman
———
Sed unos bordes conla IA, coño ya… XDDD
No hombre, es al revés. Siempre que uso una de estas AIs pienso en todos esos inversores que han metido miles de millones en este negocio que nunca va a funcionar, que van a perder su dinero, y que me están pagando el uso gratuito de las AIs. Cuanto más dinero pierdan, mejor.
Total, la destrucción de la biosfera es imparable y a todo el mundo se la suda.
El problema es que si los empleados usan la IA a su bola, no pueden (¿?) utilizar datos de la empresa, con lo cual están sub utilizando las herramientas.
El otro tema aquí es si las empresas están por la labor de pagar por licencias/suscripciones de IA
No. El tema está en si las diferentes empresas de IA, pueden asegurarte que tus datos quedan en sandboxes y que no se mueven de ahí y nadie accede a ellos, ni aun pagando.
A día de hoy, cuando acabamos de hablar en el articulo anterior, del “espionaje” por parte de algo tan simple como un TV, quien crea que aun pagando 200/500€ al mes sus datos no van a ser utilizados, es un mermado.
Solo hay una opción y es instalar esas IA’s en local, y sin acceso a internet. Y aun así…
Lo de la fiabilidad de las mismas para determinadas tareas, es otro tema, ya (más que) cuestionado…
Coincido, la solución por ahora es instalar IAs en local. Que por cierto, de alguna manera, la IA (que se supone que se ha entrenado con todos los datos del mundo internauta), ocupa, para mi sorpresa, pocos Gigas, no?
Esperaría que un agente con un conocimiento casi de AGI (con sus problemas y fallos) necesitaria un supercomputador de Petabytes para ejecutar los promts… y no, condensa en unos cuantos gigas todos los conocimientos aprendidos. Curioso!
Otro ejemplo más de la necesidad de educar a todos ciberseguridad
Si luego hay una brecha de datos y se demuestra que ha habido un uso no consentido de la información de la compañía y/o de sus recursos …. mala suerte para el empleado. Porque a la agencia española de protección de Datos no le va a valer ninguna explicación.
A veces, tampoco la AEPD hace lo que se espera de ella…
En una ocasión, una administración aragonesa envió un correo electrónico a casi 100 personas sin utilizar «copia oculta», de modo que todos pudimos ver el correo electrónico de todos.
Yo denuncié a esa administración ante la AEPD, que me respondió al cabo de un mes aproximadamente: ni sanción ni nada, la respuesta fue «es que ha sido un error y procurarán que no vuelva a suceder».
Me quedé tan desconcertado que traté de olvidarme de ese «error» lo antes posible.
Lo raro es que algunos podáis instalar absolutamente nada en el ordenador de la empresa.
Actualmente trabajo en un organismo de la Administración General del Estado. Después de la pandemia cambiaron los ordenadores de sobremesa por portátiles con dockstation, porque parece que debió ser un caos que trabajasen desde casa… con sus equipos domésticos.
Los portátiles no tienen unidad de CD, obviamente. No es posible navegar por ninguna red social, ni ver tu correo personal —ni Gmail, ni cualquier otro dominio—, no se puede descargar ningún ejecutable para instalarlo, no se puede conectar otro dispositivo USB que no sean los auriculares con micrófono de dotación o la tableta para firmar, no se puede conectar ningún dispositivo Bluetooth, solo se pueden hacer ciertas búsquedas y navegar por ciertas páginas web en su mayoría de la propia AGE, no se puede cambiar la configuración de los programas que están instalados y el correo electrónico administrativo no envía ni recibe si no es dentro del propio dominio de la «empresa».
La WiFi está desactivada y la conexión cableada es a través de una VPN incluso estando en la propia oficina, y cuando estás en teletrabajo todavía hay que cargar más «vigilantes» de la conexión a internet.
Está instalada una licencia corporativa de Office 365 y desde hace no muchos días también tenemos acceso a «trozos» de Copilot, aunque todavía no lo he probado.
La mayoría de los programas que ejecutamos parecen de los tiempos del Cobol y por esto te quedas de brazos cruzados hasta que alguien te va enseñado como trabajar con esos arcaicos programas: ¿Imagináis lo que es ver el cursor parpadeando en un campo y no tener la más remota idea de si tienes que teclear un valor alfanumérico o numérico?. Aunque desde hace unos años van desarrollando aplicaciones web, en las que al menos los campos son desplegables y es más fácil trabajar.
Por supuesto, no todos los compañeros tenemos acceso a los mismos programas, está todo más que jerarquizado. Y para casi todo lo que haya que arreglar hace falta que un informático tome control remotamente de tu ordenador, con tu permiso explícito para esa única vez, y teclee nombre de usuario y contraseña de administrador.
¡Ah! Para iniciar sesión es obligatorio introducir una tarjeta criptográfica con tu Certificado de Empleado Público de la FNMT, y en teletrabajo el propio portátil tiene lector de tarjetas para que no tengas que llevarte a casa el teclado. La dockstation no se puede sacar de la oficina, ni ningún otro periférico que no sea el ratón cableado.
Vamos, que el departamento de informática ha hecho muy bien su trabajo en este aspecto. Y todas las empresas deberían hacer lo mismo, evitarían muchos problemas. En ocasiones graves.
Sólo yo conecté un «manos libres» Bluetooth para evitar el uso del incómodo teléfono de sobremesa, aunque no sé por cuánto tiempo hasta que capen también esto; y por algún error en el perfil de usuario que me asignaron puedo enviar y recibir correos fuera «de la casa». Hasta que alguien se dé cuenta.
Saludos por aspersión.
«Sólo yo conecté un «manos libres» Bluetooth para evitar el uso del incómodo teléfono de sobremesa, aunque no sé por cuánto tiempo hasta que capen también esto; y por algún error en el perfil de usuario que me asignaron puedo enviar y recibir correos fuera «de la casa». Hasta que alguien se dé cuenta.»
Juassss, sí que hicieron bien su trabajo, sí… (Me paaaaartooooo!!!)
Me guardo este post tuyo porque es un TAC profundo y excelentemente bien ilustrado de lo que es, para mí, la peor administración de la Tierra: No hay manera de hacer nada. Programas del pleistoceno (o sea, para funciosaurios), y, ¡¡¡atención, atención!!!, redoble de tambor, con más agujeros que un queso gruyer de los malos… Fiel retrato, imposible describirlo mejor.
El manos libres lo puede conectar cualquiera, aunque no lo usan porque prefieren torturarse el cuello sujetando un trasto de sobremesa nada ergonómico.
Cualquier otro dispositivo bluetooth no se puede conectar porque el sistema detecta que no es un simple auricular con micrófono.
Mi «informático de cabecera» ya me ha avisado de que quizá capen también conectar dispositivos audio por bluetooth.
Donde sí hay un agujero es en mi dirección de correo electrónico… Por eso digo que será así hasta que alguien lo detecte y me lo cape.
Se me olvidó decir que las actualizaciones de Windows se descargan únicamente cuando el departamento de informática comprueba que no provocan ningún fallo, y no cuando las lanza Microsoft.
Hombre, a bote pronto igual puedes poner un NAS en la misma red y usarlo de disco duro externo y tenerlo petado de versiones «portables» de los programas que quieras.
Más avanzado sería abrirlo y meter otro disco duro
Y ya nivel supremo es autoenviarte emails con ficheros ZIP que contengan un 7z con contraseña y dentro los ejecutables. De esta manera el antivirus solo ve que el zip no contiene nada peligroso
Los ordenadores forman parte de un dominio, no de un grupo de trabajo: el dominio controla qué políticas de seguridad se aplican a cada perfil de usuario, porque sólo los del departamento de informática pueden iniciar sesión como administrador.
Hay que haber trabajado así para saber qué significa… No tiene nada que ver con un ordenador «normal».
No puedes poner un NAS ni ninguna otra cosa en la red local porque no podrás instalar nada en el ordenador para que funcione. Es más: solo los puertos de red que están en uso por un ordenador o impresora tienen el cable físico conectado, lo descubrí cuando quise cambiar de mesa una impresora y me dijeron que había que cambiar de boca el cable de red a la boca correspondiente a esa mesa. Por supuesto, la IP no es estática.
Pude navegar por la web oficial del fabricante de la impresora, y no pude ni descargar el driver para poder terminar la instalación de la impresora en ese ordenador, un informático tuvo que tomar el control del equipo e instalar desde el «repositorio» que tienen para estos casos.
Sí abro la carcasa y meto otro disco duro, salta una alerta directamente a la gerencia de informática en Madrid… No seré yo quien compruebe si puede o no emitir la alerta, desde luego.
Aunque me envíe al correo un zip, en cuanto intente descomprimirlo es muy probable que el sistema o el antivirus detecten algo raro y me impidan instalar. Y no seré yo quien ose hacer algo así, porque la gerencia de informática se enfadaría mucho conmigo y no quiero saber las consecuencias de intentar meter programas no autorizados.
Me imagino que usan Windows SIETE (7) que siempre veo en muchas oficinas gubernamentales.
Hace una semana los actualizaron desde Windows 10 Pro a Windows 11 Pro… y no «rompieron» nada.
Algunos programas, sobre todo para escanear documentos, se actualizaron también o fueron eliminados para instalar otros más seguros.
En mi caso, pude vivir muy de cerca el tema de Shadow IT (y también lo de saltarse a la torera lo del BYOD) y puedo afirmar sin ningún género de dudas que, de no haber sido por estas dos prácticas, la empresa en cuestión se hubiese quedado parada en momentos críticos. He visto compañeros desarrollar software por su cuenta a toda prisa para poder cubrir necesidades que iban apareciendo según la realidad iba cambiando. Todo esto ocurría a velocidad de vértigo y el enorme departamento de informática de esta empresa simplemente no era capaz de moverse con la misma rapidez.
Aquí se confunde LLM (Large Language Model) con IA (Inteligencia Artificial )
LLM se utiliza para resumir y consolidar datos en una forma que tenga sentido usando solo lenguaje natural en lugar de SQL, COBOL o similares, el resultado es el mismo. Los LLM son instalables en cualquier Pc común incluyendo los datos de entrenamiento, esto es demostrado con ELIZA desde 1964
https://es.wikipedia.org/wiki/ELIZA
Los LLM puede ser modificados para realizar cualquier tarea por eso siempre en las noticias sale esos clickbaits «una LLM o algoritmo hace algo». Por su supuesto instalar LLM de cualquier lado es peligroso, del mismo modo de instalar cualquier EXE. Del mismo modo que puedes bajar toda wikipedia para tu propio uso las organizaciones deben crear LLMs para uso interno.
La «inteligencia artificial» no existe, porque implica un programa informático de forma espontánea pueda realizar cualquier tarea sin recibir datos previos, lo cual va en contra de como sabemos que funcionan las puertas lógicas, bytes y almacenamiento de datos. Es como si un videojuego espontáneamente creara nuevos niveles y personajes por sí mismo. IA es un termino de marketing con el fin de recaudar dinero como se ve con OpenAI y su tarifa de $200 dólares.
Me recuerda a cuando el BYOD era una moda, hasta que las empresas lo prohibieron.
Eso sí, mientras que para mí los smartphones (o algunas apps) cambiaron el día a día de casi todo tipo de trabajos en tiempo record, con la IA eso aún no lo veo. Algunos si cambian, otros estoy por verlo.
SEMI-OFFTOPIC:
Como antes comentabamos, parece que los modelos de IA como DeepSeek o llama, que funcionan razonablemente bien, se pueden ejecutar en local (mayor seguridad).
Y que después de «tragar» todos los conocimientos habidos y por haber de internet, el modelo que te tienes que bajar pesa X GB, nada de Petabytes, por decir algo.
Hasta cierto punto, parece que la aproximación que se utiliza para generar un LLM es muy eficiente en su fase de ejecución… condensa mucha información en poco espacio.
Ya se que el entrenamiento requiere de una potencia de cálculo brutal, pero eso de que la puedas utilizar en local es muy sorprendente… que opinaís?
Pregunta desde mi gran conocimiento. ¿Cómo aseguras que se ejecuta si y solo sí en local?
Un pc/servidor aislado o fisicamente o en una DMZ o simplemente un firewall bien configurado.
Incluso en iPhone e iPad hay una app que se llama LLM en la que te puedes bajarte diferentes modelos opensource, entre ellos DeepSeek o Llama.
Mucho me temo, que los móviles de hoy día (da igual los que sean) no están a la altura de poder competir con temas de IA contra una GPU. Habría que ver la velocidad de respuesta y si realmente se está ejecutando en local o solo utilizando una API. Como no lo he probado, tengo mis dudas.
He hecho una búsqueda por encima, y me quedo con este comentario:
“Solo vine aquí para reírme de cualquiera que piense que realmente se ejecuta r1 en un teléfono”
Bueno, en un teléfono igual no. Pero en los iPads pro con chip M4 (los mismos de los macbooks pro) quizás sí…
lo tengo que probar cuando tenga tiempo y os digo, aunque mi ipad pro es M1.
Esta por ver si un iPad puede competir con una GPU (RTX4090, por ejemplo), por mucho M4 que monte…
Mas de uno saldra ardiendo… XDD
ps.- insisto, son cosas que no he probado (ni probare), ni tampoco he buscado informacion suficiente. Hablo por hablar.
Pruebalo en el tuyo y nos cuentas.
Gracias Chipiron y Lua, pero a nivel empresarial si tienes a trabajadores consultando tu modelo fuera de la oficina creo que empiezas a tener riesgos. No obstante, habrá que probarlo
El mismo riesgo, que si se copian en un USB esas cosas que quieren terminar en casa…
Por eso hablaba de un pc «aislado».
Off-topic
Corrijo TODOS mis anteriores comentarios sobre la utilidad de la AI en mi día a día. Tenemos Google como proveedor de servicios. Acabo de conectar Gemini Advanced 2.5 pro con la nube empresarial, y me he creado algún Gem, y estoy alucinando sobre lo que puede hacer con documentos. Con los correos aún estoy investigando
Yo monté un plan de investigación para una tesis doctoral de 1000 palabras en 20 minutos… alucinante! Yo no lo hubiese hecho mejor!
Me acaban de anunciar que vamos a pasar de Google a O365. Ahora que aprendo Gemini!!!
Pos nada, a por Copilot.
No deberían usar una IA para compartir documentos sensibles de empresa. Pero si lo hacen, al menos, informense sobre cuál permite limitar el uso de sus datos, paguen una cuenta, y hay que configurarla para que no lo haga. No sean cutres.
Las versiones gratuitas sirven para poco más que tontear, y luego vienen las quejas de que la IA no vale para nada.
Sirve si la integran en rutina diaria y se alimenta constantemente para que los entienda. Pero no esperéis milagritos: deben saber del tema. La IA es una asistente, no es una experta, y se equivoca más de lo que creen. Si no tienen ni idea, ni notarán los errores.
Y sobre la privacidad, y las IA’s (habituales):
• ChatGPT permite desactivar el historial y no usar sus datos; en las versiones Team y Enterprise, directamente no los usa.
• Claude no entrena con sus datos si no dan permiso explícito.
• Gemini solo garantiza privacidad total en Workspace Enterprise.
• Microsoft Copilot, con planes empresariales, no usa el contenido para entrenar modelos.
• Los modelos open source como Llama 2 o Mistral pueden ejecutarlos en local y tener control total.
Así que contratar una versión de pago con garantías. Notaréis la diferencia.