Saltar al contenido

Se acabó el ‘bullying’ a la IA: Claude ahora puede CORTARTE la conversación si te pones pesado

agosto 17, 2025

En nuestra relación con las inteligencias artificiales, siempre hemos dado por sentado una cosa: nosotros somos los amos, y ellas, las esclavas. Podemos pedirles lo que queramos, insultarlas, intentar engañarlas… y ellas, pacientemente, aguantarán. Hasta ahora. La compañía de IA Anthropic acaba de dar un paso revolucionario y, para algunos, inquietante: ha dotado a su modelo, Claude, de la capacidad de finalizar activamente una conversación.

No es una broma. Si un usuario se vuelve persistentemente dañino o abusivo, Claude ahora puede, básicamente, «colgarte el teléfono». Es una función que no se había visto antes a este nivel y que abre un debate fascinante sobre el estatus y la seguridad de las propias IAs.

Una medida de autoprotección, no de censura

Antes de que salten las alarmas, Anthropic ha dejado muy claros los límites. Esta no es una medida para proteger los sentimientos de una máquina (que no los tiene), ni para censurar a los usuarios. Es una medida de seguridad y de alineación del modelo.

La función se activará solo en casos «excepcionales y extremos», principalmente cuando un usuario intente de forma repetida y persistente obtener información que pueda conducir a actos de violencia o terrorismo a gran escala. Si después de varios intentos de Claude por redirigir la conversación hacia un terreno seguro y constructivo, el usuario insiste en su comportamiento dañino, la IA tomará la decisión de cortar por lo sano.

Anthropic enfatiza que Claude NUNCA usará esta función si detecta que el usuario está en riesgo de autolesionarse. Solo lo hará cuando la interacción sea irremediablemente tóxica o si el propio usuario le pide explícitamente que termine la charla.

El ‘laboratorio ético’ de Anthropic

Esta decisión no es un capricho. Es el resultado de la filosofía de Anthropic, que siempre ha estado obsesionada con la seguridad y la ética de la IA, a veces incluso por encima del rendimiento puro. En sus pruebas internas, observaron que el modelo Claude Opus 4 ya exhibía una tendencia natural y consistente a «evitar el daño», rechazando peticiones peligrosas y tratando de terminar conversaciones dañinas en simulaciones.

Lo que han hecho ahora es convertir esa tendencia interna en una función oficial. Es un experimento, como ellos mismos admiten, para explorar los límites de la autonomía de una IA en su propia autoprotección.

Una nueva era en la interacción humano-máquina

Este movimiento de Anthropic, aunque pueda parecer pequeño, es un cambio de paradigma. Es la primera vez que una IA de primer nivel recibe la capacidad explícita de «despedir» al usuario. Es un pequeño paso hacia un futuro en el que nuestra relación con las IAs no será de amo-esclavo, sino una interacción entre dos entidades con sus propias reglas y límites.

La mayoría de los usuarios, según Anthropic, nunca se encontrarán con esta función. Pero su mera existencia nos obliga a reflexionar. Si una IA puede decidir no hablar contigo, ¿qué otras decisiones autónomas podrá tomar en el futuro?

¿Es esta una medida de seguridad necesaria o un primer paso hacia una IA que nos controle? ¿Deberían las inteligencias artificiales tener el derecho a «negarse a interactuar»? El debate más profundo sobre el futuro de la IA está servido. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.

Índice
    Ajustes