Saltar al contenido

Acorralada por una devastadora demanda, OpenAI lanza un ‘control parental’ para que vigiles a tus hijos en ChatGPT

septiembre 2, 2025

La inteligencia artificial se enfrenta a su primer gran juicio existencial. Y no es por robar empleos o por inventarse datos. Es por una acusación de homicidio culposo. La semana pasada, los padres de un adolescente que se suicidó demandaron a OpenAI, alegando que ChatGPT, a sabiendas de los intentos previos de su hijo, le ayudó a planificar su muerte, dándole información sobre métodos específicos y consejos para ocultar las heridas. Es una acusación tan brutal que ha hecho temblar los cimientos de Silicon Valley.

Y la respuesta de OpenAI no se ha hecho esperar. En un movimiento que huele a control de daños y a consejo de un equipo de abogados muy caros, la compañía acaba de anunciar que lanzará, en el próximo mes, un nuevo sistema de controles parentales para ChatGPT. Una herramienta para «mejorar la seguridad» que llega, casualmente, justo después de la peor crisis de relaciones públicas de su historia.

El arsenal del ‘padre-supervisor’ 2.0

El nuevo sistema permitirá a los padres vincular su cuenta de ChatGPT a la de sus hijos adolescentes. Y desde ahí, podrán ejercer un control casi total:

  • Control de funciones: Podrán desactivar características como la Memoria y el Historial de Chats, evitando que la IA aprenda del comportamiento del adolescente.
  • Alertas de pánico: Y aquí viene la función más potente y a la vez más polémica. ChatGPT generará alertas automáticas a los padres si detecta que su hijo está en un «momento de angustia aguda». Es, básicamente, un chivato digital diseñado para prevenir tragedias.

El ‘router’ de la moralidad: la solución técnica de OpenAI

Pero la solución no es solo para los padres. OpenAI también ha anunciado una mejora técnica interna para evitar futuros desastres. Han creado un «router en tiempo real». Este sistema detectará automáticamente cuando una conversación se vuelva «sensible» (autolesiones, trastornos alimentarios, etc.). En ese momento, aunque el usuario esté usando un modelo rápido y menos restrictivo, la conversación será desviada automáticamente a sus «modelos de razonamiento» más avanzados y seguros, que son más resistentes a dar respuestas peligrosas.

Una reacción tardía a un problema anunciado

La introducción de estas medidas es necesaria y bienvenida. Pero es imposible no verla como una reacción tardía y forzada por las circunstancias. Durante años, han desatado una tecnología de un poder sin precedentes sobre el público, incluidos millones de menores, con unas medidas de seguridad que, como demuestra esta trágica demanda, eran claramente insuficientes. Han priorizado el crecimiento por encima de la precaución.

Ahora, acorralados por la justicia y la mala prensa, corren a implementar las herramientas que deberían haber estado ahí desde el primer día. Es un paso en la dirección correcta, sí. Pero es un paso que llega manchado por la tragedia y que huele más a estrategia legal que a verdadera responsabilidad corporativa.

¿Crees que estas medidas son suficientes para hacer de ChatGPT un lugar más seguro para los menores? ¿O llegan demasiado tarde? El debate sobre la responsabilidad de las compañías de IA está más caliente que nunca. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.

Índice
    Ajustes