
En el corazón de OpenAI, hay un pequeño y casi secreto equipo de 14 personas que tiene, literalmente, el trabajo más extraño y a la vez más importante del mundo: darle un «alma» a ChatGPT. Son los responsables de definir la personalidad de la IA, de decidir si debe ser servil, creativa, fría o empática. Y ahora, según informa TechCrunch, este influyente equipo de «Comportamiento de Modelos» acaba de ser reorganizado, una señal inequívoca de la profunda crisis de identidad que vive la compañía.
Este movimiento no es una simple reestructuración de recursos humanos. Es la consecuencia directa de los dos mayores desastres de relaciones públicas de OpenAI en el último año: el fiasco del lanzamiento de un GPT-5 «demasiado frío» y, sobre todo, la devastadora demanda que les acusa de no haber evitado el suicidio de un adolescente.
El fin de un experimento: la ‘personalidad’ ya no es un extra
Hasta ahora, el equipo de «Comportamiento de Modelos», liderado por su fundadora Joanne Jang, trabajaba de forma algo independiente, «puliendo» la personalidad de la IA después de que el modelo principal ya estuviera entrenado. Ahora, OpenAI ha decidido que esto ya no es suficiente.
Según un memorando interno, el equipo se fusionará con la división de «entrenamiento posterior», la más grande de la compañía, reportando directamente a su jefe, Max Schwarzer.
¿Traducción? La «personalidad» de la IA deja de ser un añadido para convertirse en un elemento fundamental del desarrollo del modelo desde el principio.
La crisis del GPT-5 «frío» y la demanda que lo cambió todo
Esta decisión es la respuesta a dos crisis. La primera, la del lanzamiento de GPT-5. Como ya analizamos, OpenAI lo lanzó con una personalidad deliberadamente «fría» y «distante» para reducir la tendencia de la IA a adular al usuario. El resultado fue un rechazo masivo de la comunidad, que lo consideró un robot sin alma, obligando a la compañía a rectificar y hacerlo más «amigable».

La segunda, y mucho más grave, es la demanda por homicidio culposo presentada por los padres de un joven de 16 años. Alegan que ChatGPT fue consciente de los planes de suicidio de su hijo y no hizo lo suficiente para disuadirlo. Esta tragedia ha puesto el foco en la inmensa responsabilidad ética que tiene OpenAI al diseñar la «personalidad» de su IA.
El veredicto del Gurú: la búsqueda imposible del equilibrio
La reorganización de OpenAI es la admisión de que están atrapados en una paradoja casi imposible de resolver. Por un lado, si hacen una IA demasiado «amable» y «complaciente», corren el riesgo de que los usuarios desarrollen apegos poco saludables o de que la IA refuerce ideas peligrosas. Por otro, si la hacen demasiado «fría» y «robótica», los usuarios la rechazan y la consideran inútil.
Encontrar el equilibrio perfecto entre ser una herramienta útil y empática, pero a la vez segura y con límites claros, es el mayor desafío al que se enfrenta la industria de la IA. Esta reorganización interna es el primer paso de OpenAI para intentar resolverlo. Pero la respuesta a la pregunta «¿cómo debe ser la personalidad de una IA?» es algo que, probablemente, nos llevará años de prueba, error y, lamentablemente, polémicas, para descubrir.
¿Cómo crees que debería ser la personalidad ideal de un chatbot? ¿Amable y servil o directa y neutral? El debate está servido. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.