En los últimos diez años, quizás antes, los datos han cobrado valor y son recopilados a diario por muchas empresas, algunas, cuyo modelo de negocio se fundamenta en ellos. No obstante, ahora con la IA se empiezan a traspasar fronteras y a vivir situaciones que quizás no estaban previstas sino en nuestra imaginación. Vivimos en una época en la que la Inteligencia Artificial se ha convertido, para muchos, en un confidente cotidiano. Ya no hablamos solo de asistentes que nos ayudan a redactar correos o planificar viajes. Hoy, millones de personas están utilizando herramientas como ChatGPT para hablar de sus emociones, ansiedades y pensamientos íntimos o igualmente compartiendo datos delicados. En otras palabras: están usando IA como si fuera un terapeuta, un abogado o médico.
Pero, ¿qué ocurre con esas conversaciones? ¿Están protegidas legalmente? ¿Puedes confiar en que nadie las leerá ni usará en tu contra? En relación a ello, la reciente declaración de Sam Altman, CEO de OpenAI, ha puesto sobre la mesa un tema urgente, diciendo lo siguiente: “No hay confidencialidad legal cuando hablas con ChatGPT. Si hay una demanda, podríamos estar obligados a entregar esa conversación.”
Esta afirmación abre una puerta a una conversación mucho más amplia y necesaria sobre Privacidad y Confidencialidad en la era de la Inteligencia Artificial.
La IA no es terapeuta: ¿qué significa eso legalmente?
Cuando una persona acude a un psicólogo, médico o abogado, lo hace bajo un marco legal que protege la confidencialidad de la conversación. Es lo que se conoce como secreto profesional o privilegio legal. Esta figura impide que, por ejemplo, un terapeuta revele lo que se le ha contado en consulta sin autorización expresa del paciente o sin una orden judicial muy concreta y justificada.
Pero los sistemas de IA no son personas. No tienen licencia, ni están colegiados, ni están sujetos a códigos deontológicos. Y, más importante aún: no existe actualmente en ningún país una ley que reconozca el secreto profesional entre una persona y una IA. Esto significa que, si tú le cuentas a ChatGPT que sufriste un trauma, estás pasando por una depresión o tienes pensamientos suicidas, esa información:
-
No está amparada por ningún tipo de confidencialidad legal.
-
Puede almacenarse (aunque hayas desactivado el historial).
-
Puede ser solicitada por un tribunal en un proceso judicial.
-
Y, en última instancia, puede ser utilizada en tu contra o en contra de terceros.
¿Qué dice la ley en Europa, Estados Unidos y América Latina?
Europa (UE y EEE)
El Reglamento General de Protección de Datos (RGPD) establece fuertes medidas de protección sobre los datos personales, especialmente los considerados “sensibles” como los relativos a la salud mental. Pero incluso con esta protección:
-
Si un juez lo solicita, una empresa puede verse obligada a entregar los datos.
-
Las conversaciones con IA no están sujetas a privilegio profesional, por lo que pueden utilizarse como evidencia.
-
Aunque el usuario tenga derecho al borrado, la empresa puede estar obligada a conservar los datos si hay un litigio en curso.
Estados Unidos
En EE.UU., no existe una ley federal equivalente al RGPD. La privacidad está regulada por sectores (por ejemplo, HIPAA en salud), pero las conversaciones con IA no entran bajo ese paraguas. Además:
-
No existe confidencialidad legal entre una persona y una IA.
-
Las empresas pueden entregar datos si hay un requerimiento judicial.
-
Las plataformas están legalmente protegidas frente a reclamaciones por lo que el usuario le diga a la IA.
América Latina
La mayoría de los países tienen leyes de protección de datos personales (como la Ley LGPD en Brasil, o la LOPDP en Argentina), pero ninguna contempla aún de forma específica el uso de IA como terapeuta.
En general:
-
Las IA no están reconocidas como “profesionales” ni están obligadas al secreto.
-
Las autoridades aún no han emitido dictámenes claros sobre estos casos.
-
El marco legal es difuso y la protección depende mucho de cómo la empresa configure sus términos de servicio.
¿Qué riesgos reales existen para el usuario?
Aunque pueda parecer inofensivo “desahogarse” con una IA, existen riesgos jurídicos y personales importantes que la mayoría de los usuarios desconoce. A continuación, te desgloso los más relevantes:
Vulnerabilidad legal
Lo que escribes a ChatGPT o a cualquier otra IA puede parecer una conversación íntima y segura, pero legalmente no está protegida por el secreto profesional. Esto significa que:
-
En casos de divorcio o disputas de custodia, la otra parte podría solicitar esas conversaciones como prueba para demostrar, por ejemplo, un estado emocional inestable, consumo de sustancias o intenciones no declaradas.
-
En el ámbito laboral, una empresa podría acceder a conversaciones para demostrar incumplimientos contractuales, estado de salud mental o deslealtad profesional, si esos datos son relevantes para el litigio.
-
En procesos penales, la parte contraria podría intentar usar esas conversaciones como elementos de prueba, si se sospecha de delitos relacionados con amenazas, autolesiones, confesiones o declaraciones incriminatorias.
Esto no es un escenario hipotético: la legislación en países como EE. UU. permite que los datos almacenados por plataformas sean solicitados judicialmente, y en Europa, el RGPD no impide su uso si existe una causa legítima en un proceso legal.
Conservación de datos
Un error común es pensar que, al borrar una conversación, esta desaparece completamente del sistema. Sin embargo:
-
Muchas plataformas conservan los chats durante semanas o meses, incluso aunque tú los hayas eliminado visualmente desde tu cuenta.
-
Algunas empresas declaran explícitamente que mantienen registros temporales “para mejorar el modelo”, realizar auditorías o cumplir con requerimientos legales.
-
En caso de una orden judicial, están obligadas a retener y entregar esos datos, aunque el usuario haya activado opciones como “modo incógnito” o haya desactivado el historial.
En la práctica, esto significa que tu conversación puede “resucitar” meses después si un proceso judicial o un requerimiento administrativo la reclama.
Información sensible expuesta
La inteligencia artificial genera una falsa percepción de cercanía. Hablar con un modelo que te responde con empatía, que te llama por tu nombre y que parece entenderte, puede llevarte a compartir:
-
Traumas de la infancia
-
Trastornos alimentarios
-
Pensamientos suicidas o autolesivos
-
Consumo de drogas o alcohol
-
Relaciones extramaritales
-
Detalles financieros o familiares privados
Toda esta información, en manos equivocadas, puede convertirse en un arma. Imagina que una filtración de datos expone tu historial de conversaciones. O que tu identidad es asociada a revelaciones personales que creías privadas. En el peor de los casos, estos datos pueden ser utilizados para chantaje, manipulación o discriminación.
Falsa sensación de privacidad
Uno de los mayores peligros no está en la tecnología, sino en la percepción del usuario. Muchas personas:
-
Creen que hablar con IA es “como hablar con un terapeuta”, aunque no lo es.
-
Suponen que los chats están protegidos por ley, igual que una consulta médica, lo cual es falso.
-
No leen los términos y condiciones, donde suele indicarse que los datos pueden usarse para entrenamiento del modelo o responder a solicitudes legales.
Esta confusión lleva a confiar demasiado. Y cuanto más profunda es la confianza, mayor puede ser la exposición. La IA no tiene conciencia, ética ni responsabilidad legal. Y, por ahora, tampoco tiene obligación de mantener tus secretos.
¿Qué opinan los expertos?
Juristas y expertos en protección de datos han comenzado a alertar sobre esta situación. Son muchos los especialistas, que coinciden en que es urgente crear un nuevo marco legal que reconozca y regule las interacciones con IA en contextos emocionales o sensibles.
El uso de la inteligencia artificial como interlocutor emocional —y en particular como sustituto informal de la figura del terapeuta— está generando preocupación creciente entre juristas, expertos en protección de datos y académicos del ámbito del derecho digital. Expertos, como Richard Tromans, fundador de Artificial Lawyer , coinciden en que estamos ante un vacío jurídico crítico: la legislación vigente, en la mayoría de países, no contempla de forma específica la naturaleza sensible de muchas de las conversaciones que los usuarios mantienen con sistemas de IA.
Varios investigadores y académicos están abogando por la creación de una nueva categoría legal que reconozca las interacciones emocionalmente sensibles con sistemas no humanos. En particular, se propone:
-
Definir qué tipo de conversaciones pueden considerarse “sensibles” por su contenido emocional o psicológico.
-
Establecer normas mínimas de tratamiento de datos para estas interacciones, que incluyan anonimización reforzada, retención limitada y transparencia total.
-
Explorar la posibilidad de crear una figura jurídica intermedia, algo similar a un “asistente digital certificado” con protocolos éticos y responsabilidad supervisada.
Hasta que se desarrollen normas claras —algo que entiendo tomará tiempo— es necesario tener varias advertencia en mente:
-
No compartas con una IA lo que no compartirías públicamente sin protección legal.
-
Sé consciente de que no existe confidencialidad legal, aunque el sistema te hable con tono empático.
-
Usa herramientas profesionales humanas si necesitas apoyo emocional real o tratamiento psicológico.
En resumen, la ley aún no ha alcanzado a la tecnología, y el usuario está solo ante el riesgo. Mientras tanto, la mejor protección es la conciencia informada.
Qué debería exigirse con respecto a la privacidad y confidencialidad en la era de la IA
A medida que los sistemas de Inteligencia Artificial se convierten en interlocutores habituales en nuestra vida cotidiana, la línea entre lo funcional y lo emocional se difumina peligrosamente. Ya no estamos solo preguntando por el tiempo o pidiendo ideas de recetas; también compartimos pensamientos íntimos, emociones profundas y, a menudo, confesiones que en otro tiempo hubiéramos reservado para un profesional de confianza.
En este nuevo contexto, la legislación va muy por detrás del uso real, lo que nos deja en una situación de vulnerabilidad. Por eso, como usuarios y como sociedad, tenemos no solo el derecho, sino también la responsabilidad de exigir cambios concretos. A continuación, algunas de las medidas más urgentes que deberían ser impulsadas desde el ámbito regulador, institucional y tecnológico:
1. Transparencia real y advertencias explícitas
Las plataformas deben informar de forma clara, visible y comprensible sobre:
-
Los límites legales de privacidad: por ejemplo, que las conversaciones no están protegidas por secreto profesional.
-
El tratamiento de los datos sensibles: cómo se almacenan, durante cuánto tiempo, y si pueden ser entregados a terceros.
-
Los riesgos de uso en contextos emocionales: especialmente en personas en situación de vulnerabilidad psicológica.
No basta con esconder esta información en extensos términos de uso: se necesitan advertencias similares a las que vemos en medicamentos, juegos de azar o redes sociales.
2. Crear una figura jurídica intermedia para IA emocional
Es urgente abrir el debate sobre la necesidad de una nueva figura legal para sistemas de IA que interactúan con datos emocionalmente sensibles. Esta figura podría:
-
Estar sujeta a obligaciones de confidencialidad reforzada.
-
Requerir certificaciones de transparencia y buenas prácticas.
-
Ser auditable por organismos de protección de datos u observatorios éticos.
Así como los bancos, hospitales o psicólogos tienen normas específicas por la sensibilidad de la información que manejan, la IA que entra en el terreno de la salud mental, el acompañamiento emocional o el bienestar personal también debería estar regulada como tal.
3. Establecer estándares de confidencialidad voluntaria
Mientras llega una legislación formal, las empresas tecnológicas deberían adoptar voluntariamente estándares de confidencialidad similares a los del ámbito profesional. Esto incluiría:
-
Códigos de conducta públicos y auditables.
-
Compromisos de no retención de datos sensibles sin consentimiento explícito.
-
Procesos de anonimización avanzados y borrado definitivo garantizado.
Estas medidas generarían confianza y protegerían a los usuarios más vulnerables frente a filtraciones, malentendidos legales o usos maliciosos de la información.
4. Reformar y ampliar la legislación existente
Las leyes de protección de datos actuales (como el RGPD en Europa) no contemplan aún el nuevo papel emocional que está adquiriendo la IA.
Por ello, sería necesario:
-
Actualizar las definiciones de “dato sensible” para incluir expresamente los contenidos emocionales o psicológicos generados por IA.
-
Ampliar el concepto de “tratamiento automatizado” para abarcar interacciones conversacionales con consecuencias emocionales.
-
Establecer nuevas obligaciones para los proveedores de IA que operen en ámbitos afectivos o terapéuticos, incluso si no se presentan como tales.
De no hacerlo, corremos el riesgo de permitir que la IA se infiltre en nuestra intimidad sin las barreras que ya existen para cualquier otro profesional o institución.
Conclusión
La Inteligencia Artificial puede ser una herramienta maravillosa. Pero Privacidad y Confidencialidad en la era de la Inteligencia Artificial son conceptos que necesitan urgentemente redefinirse. No estamos ante simples líneas de código: estamos hablando con sistemas que registran, almacenan y pueden entregar nuestros secretos más íntimos.
Como conclusión y como viene siendo habitual, la tecnología avanza más rápido que las leyes. Pero eso no significa que debamos avanzar a ciegas.