Sam Altman es el J. Robert Oppenheimer de nuestra era. El hombre que ha desatado una fuerza tan potente y tan llena de promesas como de peligros. Y parece que el peso de su creación le está empezando a pasar factura. En una reveladora y sorprendentemente honesta entrevista con la revista Fortune, el CEO de OpenAI ha confesado con una sonrisa irónica: «No he tenido una buena noche de sueño desde que ChatGPT se puso en línea».
Pero lo que le quita el sueño a Altman no es el apocalipsis de las máquinas, no son los Terminators que tanto gustan a Hollywood. Su verdadero terror es mucho más sutil, más silencioso y, en el fondo, mucho más real: la inmensa responsabilidad de las pequeñas decisiones que su equipo toma cada día.
El ‘efecto mariposa’ de la IA
El miedo de Altman reside en el «efecto mariposa» a una escala planetaria. «Lo que me quita el sueño es que cada pequeña decisión que tomamos puede afectar a cientos de millones de personas. Eso tiene un impacto enorme», afirma.
Se refiere a las decisiones de diseño casi imperceptibles: cuándo la IA debe negarse a responder, cómo debe formular una respuesta, cuándo debe ser empática y cuándo debe ser distante. Estas «pequeñas» decisiones, repetidas miles de millones de veces, están cambiando la forma en que pensamos y nos comportamos de maneras que ni él mismo puede prever o controlar.
Le preocupa, por ejemplo, que incluso el tono de ChatGPT o su «hábito de abusar de los guiones» se haya contagiado al estilo de escritura de millones de personas, creando una homogeneización cultural silenciosa. «¿Si estos pequeños detalles pueden desencadenar una reacción en cadena, qué ocurrirá después?», se pregunta.
La tragedia del suicidio y el dilema de la intervención
Altman también ha abordado de frente la reciente y trágica demanda que acusa a ChatGPT de haber incitado al suicidio a un adolescente. Tras calificarlo de «tragedia», ha revelado que están explorando una solución tan potente como polémica: si un menor habla sobre el suicidio y no se puede contactar a sus padres, el sistema podría alertar directamente a la policía. Una decisión que, como él mismo admite, choca frontalmente con la privacidad del usuario y que aún no es definitiva.

El veredicto del Gurú: el peso de ser Dios
La entrevista de Sam Altman es una de las confesiones más honestas y aterradoras que hemos escuchado de un líder tecnológico. Es la admisión de que han creado algo cuyo impacto social y cultural es tan masivo que ni ellos mismos lo comprenden del todo.
Su trabajo ya no es el de un ingeniero, es el de un filósofo o un legislador. Cada día, él y su equipo tienen que tomar decisiones que antes estaban reservadas a los dioses: definir los límites de la libertad de expresión, decidir cuándo intervenir en una crisis personal o establecer los estándares éticos que regirán las interacciones de millones de personas.
Altman lo resume en una paradoja final: por un lado, sabe que ChatGPT es solo «una gran computadora que multiplica rápidamente números». Por otro, admite que la experiencia de usarlo «está más allá del alcance de la realidad matemática». Y en ese abismo entre la matemática y la experiencia, es donde vive la ansiedad de un hombre que, probablemente, ya no volverá a dormir tranquilo.
¿Crees que OpenAI está manejando bien la responsabilidad ética de ChatGPT? ¿Debería una IA alertar a la policía si detecta un riesgo de suicidio? El debate más importante de nuestro tiempo está servido. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.
