Saltar al contenido

Tu ‘psicólogo’ ChatGPT es un CHIVATO: la advertencia de Sam Altman que debería mantenernos precavidos

julio 26, 2025

Vamos a ser claros. Si eres de los que usa ChatGPT como un psicólogo o un diario personal donde cuentas tus secretos más íntimos, tienes que parar. AHORA MISMO.

Y no lo decimos nosotros. Lo dice el propio Sam Altman, el CEO de OpenAI, el ‘padre’ de la criatura. Acaba de lanzar una advertencia que es una auténtica bomba de relojería. En resumen, lo que Altman ha confesado es que esas conversaciones tan personales que tienes con su IA:

  • NO SON SEGURAS.
  • NO TIENEN NINGÚN TIPO DE PROTECCIÓN LEGAL.

Esto significa que no están cubiertas por la confidencialidad que tendrías con un médico o un abogado. Si por cualquier motivo te ves envuelto en un problema legal, un juez podría obligar a OpenAI a entregar todas esas conversaciones. Tus secretos más oscuros, en una bandeja de plata para quien los pida.

La confesión de Altman: «Podrían pedirnos acceso a esas conversaciones»

En una entrevista con Business Insider, Altman ha destapado la cruda y aterradora realidad legal que rodea a su producto.

  • Sin privilegio legal: Cuando hablas con un médico, un abogado o un psicólogo, existe una protección legal sagrada llamada confidencialidad profesional. Lo que les cuentas es secreto y no pueden ser obligados a revelarlo. Con ChatGPT, ese privilegio NO EXISTE.
  • Tus secretos, a disposición del juez: Altman lo dice sin tapujos: «Si hablas de tus temas más delicados con ChatGPT y luego surge algo como una demanda, podrían pedirnos acceso a esas conversaciones, lo cual considero muy irrazonable«.

La traducción es simple y directa: mientras que tu psicólogo se iría a la cárcel antes de revelar lo que le cuentas en una sesión, OpenAI, si se lo pide un juez, está legalmente obligada a entregar tu historial de chat completo. Con todos tus dramas, tus miedos y tus secretos más inconfesables.

El ‘Gran Hermano’ de OpenAI: sí, tus chats se pueden leer (y se leen)

Y por si el riesgo legal fuera poco, recordemos la política de privacidad de OpenAI, esa que nadie se lee. La compañía admite que «puede» revisar el contenido de los chats de los usuarios. ¿La excusa? Para optimizar los modelos de IA y para monitorizar el «abuso».

Además, su política de retención de datos tiene un agujero negro: aunque los chats eliminados se borran permanentemente en 30 días, se reservan el derecho a conservarlos si es necesario por «razones legales o de seguridad». Una excusa lo suficientemente vaga como para poder guardar, básicamente, lo que les dé la real gana.

Una bomba de relojería legal que acaban de descubrir

Lo más surrealista de todo es que el propio Altman admite que esta situación les ha pillado por sorpresa. Afirma que cada vez más gente, especialmente los jóvenes, usan ChatGPT como terapeuta o coach, y reconoce: «Hace apenas un año, nadie habría pensado en esto, y ahora la gran pregunta que nos planteamos es: ‘¿Cómo abordamos las leyes relacionadas con esto?’«.

Se han dado cuenta de que han creado una herramienta que millones de personas usan como un confesionario digital, pero sin ninguna de las protecciones legales que eso requeriría. Y ahora, probablemente con el pánico de una futura demanda masiva en el horizonte, Altman sale a la palestra a decir ‘cuidado’, en un intento de lavarse las manos y pasarle la pelota a los legisladores.

Conclusión Gurú Tecno: ChatGPT es una herramienta, NO un confidente

La advertencia de Sam Altman es, probablemente, una de las declaraciones más importantes y alarmantes del año. Es la confirmación, por parte del máximo responsable, de que confiarle tus secretos más profundos a una IA corporativa es una temeridad.

ChatGPT puede ser una herramienta increíblemente útil para generar ideas, para aprender o para redactar un correo. Pero NO es un espacio seguro. No es tu amigo. No es tu terapeuta. Es un producto de una empresa que, legalmente, no tiene ninguna obligación de proteger la confidencialidad de tus «sesiones».

Piensa en ChatGPT como si fuera una conversación en la terraza de un bar muy concurrido. Es útil, puedes desahogarte, pero nunca sabes quién está escuchando en la mesa de al lado. Y lo que es peor: el dueño del bar podría estar grabándolo todo y, si un juez se lo pide, entregarle la cinta. Así que, la próxima vez que vayas a contarle tus traumas a la IA, piénsatelo dos veces. Tu ‘psicólogo’ digital podría acabar siendo el principal testigo en tu contra.

¿Usas ChatGPT para temas personales? ¿Te preocupa esta falta de protección legal? ¡Te leemos en los comentarios! Y no te olvides de seguir a Gurú Tecno en YouTube, Instagram y Facebook.

Índice
    Ajustes