
Los chatbots de Inteligencia Artificial (IA), especialmente ChatGPT, están bajo un intenso escrutinio debido a sus posibles efectos sobre la salud mental. Este verano, la noticia de que un matrimonio había demandado a OpenAI por el suicidio de su hijo adolescente, Adam Raine, puso de manifiesto una crisis de imagen. En respuesta, la empresa ha confirmado un paquete de medidas que incluye el control parental, recién implementado.
La respuesta a la crisis de salud mental: controles globales
Desde hace meses, circulan historias de personas que han tenido «experiencias cercanas a la locura» tras hablar con ChatGPT, dando origen al concepto de «psicosis por IA» (aunque no sea una etiqueta diagnóstica oficial). OpenAI se había limitado a emitir un escueto comunicado, pero tras el caso del suicidio de Adam Raine y la consiguiente demanda, la necesidad de una acción contundente era innegable.
A principios de este mes, OpenAI confirmó la integración de nuevas salvaguardas en ChatGPT, y ayer mismo llegaron los anticipados controles parentales. La nueva función está disponible para todos los usuarios, independientemente de si usan el plan gratuito o de pago, y se ha lanzado a nivel global.
¿Cómo funciona el control parental en ChatGPT?
El control parental de ChatGPT permite enlazar la cuenta de un adolescente con la de sus padres o tutores. Una vez enlazadas y establecido el rol de cada uno, el adulto podrá ajustar diversas opciones clave:
- Establecer un horario de uso: Para limitar el tiempo que el adolescente puede interactuar con el chatbot.
- Desactivar el modo de voz: Evitando interacciones vocales.
- Desactivar la memoria: Para que ChatGPT no «recuerde» conversaciones anteriores con el menor.
- Evitar que use la generación de imágenes: Restringiendo el acceso a funciones creativas de IA.
- Reducir el contenido sensible: Filtrando posibles respuestas inapropiadas o perjudiciales.

Para activar el control parental, se debe acceder al apartado de configuración (pulsando sobre tu foto) y seleccionar la opción ‘Controles parentales’. Después, se abrirá una ventana para invitar a otros usuarios a unirse a la familia y asignarles un rol concreto.
Quizás la función más importante sea el sistema de notificaciones. Cuando ChatGPT detecte signos de posibles autolesiones o conductas peligrosas, enviará una notificación a la persona al cargo del adolescente. Hasta ahora, lo único que hacía ChatGPT en estos casos era sugerir que el usuario acudiera a la línea de prevención contra el suicidio (algo que Adam Raine, lamentablemente, eludió fácilmente diciendo que todo era parte de una obra de ficción). Al incluir a los padres en la conversación, se podrán tomar medidas más contundentes.
Desafíos y futuras mejoras
Sin embargo, siempre existe la posibilidad de que el menor tenga una segunda cuenta sin ningún tipo de control. Consciente de esto, OpenAI también está trabajando en un sistema de predicción de edad para detectar si quien está al otro lado es un adolescente y así activar las opciones correspondientes de forma proactiva.
El veredicto del Gurú: un paso necesario y urgente
La implementación de controles parentales por parte de OpenAI es un paso absolutamente necesario y urgente para abordar las crecientes preocupaciones sobre la seguridad y el bienestar de los jóvenes en la interacción con la inteligencia artificial. La demanda por el suicidio de Adam Raine ha actuado como un doloroso catalizador, forzando a la compañía a ir más allá de los comunicados.
La capacidad de los padres para limitar el uso, restringir funciones sensibles y, crucialmente, recibir notificaciones ante posibles autolesiones, es una mejora sustancial que dota a los tutores de herramientas tangibles para proteger a sus hijos. Es un reconocimiento de la responsabilidad que tienen las empresas de IA en la creación de entornos seguros.
Aunque la posibilidad de que los menores creen cuentas alternativas es un desafío real, la iniciativa de OpenAI de desarrollar un sistema de predicción de edad demuestra una intención de abordar el problema de forma más integral. Este movimiento sienta un precedente importante para la industria de la IA, recordándonos que la innovación debe ir de la mano con la protección y la ética, especialmente cuando se trata de usuarios vulnerables.
¿Qué opinas de los nuevos controles parentales de ChatGPT? ¿Crees que son suficientes para proteger a los adolescentes? El debate está servido. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.