El Pentágono «traiciona» a Trump: Usan la IA de Claude para bombardear Irán pese al veto presidencial

Crónica de una desobediencia anunciada. Mientras el presidente Donald Trump incendiaba las redes sociales calificando a Anthropic como una «empresa de izquierda radical» y ordenaba el cese inmediato de su tecnología, el brazo militar de los Estados Unidos tomaba una decisión distinta en el campo de batalla. Según informa The Wall Street Journal, los recientes bombardeos estratégicos contra Irán se ejecutaron utilizando las mismas herramientas de Inteligencia Artificial que la Casa Blanca acababa de prohibir.

La situación roza el surrealismo geopolítico: el Pentágono está tan enganchado a Claude que, incluso bajo órdenes directas de su Comandante en Jefe, no puede (o no quiere) dejar de usarla.

El origen del conflicto: ¿IA «Woke» o ética militar?

Todo comenzó con un ultimátum. El Departamento de Guerra exigió a Anthropic que eliminara las salvaguardas de su IA para permitir el espionaje masivo y el control de sistemas de ataque autónomos. La respuesta de Dario Amodei, CEO de la compañía, fue un «no» rotundo: la vara moral de Anthropic no se vende, ni siquiera ante la amenaza de ser incluidos en una lista negra al estilo Huawei.

Esta negativa enfureció a Trump y a su Secretario de Defensa, Pete Hegseth, quien no tardó en etiquetar a Claude como una «IA Woke». En un movimiento sin precedentes, Trump utilizó Truth Social para ordenar el veto total: «¡No lo necesitamos, no lo queremos!».

Irán: El escenario donde el veto se rompió

Sin embargo, la realidad de la guerra es más pragmática que la política de los despachos. El Comando Central en Oriente Medio se vio en la necesidad de evaluar objetivos e identificar amenazas en tiempo real durante el ataque a Irán del pasado sábado. ¿La herramienta elegida? Claude.

La integración de la IA de Anthropic con el software de Palantir es tan profunda que se estima que el Pentágono tardará al menos seis meses en limpiar su rastro. Hasta entonces, los mandos militares parecen haber adoptado una máxima peligrosa: si la herramienta funciona y salva vidas estadounidenses, se usará, diga lo que diga el Despacho Oval.

OpenAI entra en escena: El relevo de las migajas millonarias

Con Anthropic fuera de juego (al menos oficialmente), OpenAI (ChatGPT) no ha tardado ni un segundo en postularse como el nuevo aliado estratégico. En un comunicado astutamente redactado, la empresa de Sam Altman afirma mantener principios éticos similares a los de Anthropic, pero introduce un matiz legal que ha encantado al Pentágono: su uso estará supeditado a lo que el Departamento de Defensa considere «uso legal».

Esta ambigüedad abre la puerta a que OpenAI sea la pieza que sustituya a Claude en los sistemas de defensa, permitiendo al Gobierno salvar la cara políticamente mientras mantiene la potencia de la IA en sus filas.

¡Queremos saber tu opinión en el Búnker!

Este es uno de los debates más éticos y complejos de la década:

  1. ¿Seguridad o ética? ¿Crees que Anthropic hace bien en plantar cara al Gobierno o debería ceder su tecnología para la seguridad nacional sin restricciones?
  2. ¿Desobediencia justificada? ¿Te parece correcto que el Pentágono ignore una orden presidencial si considera que la herramienta es esencial para una misión de ataque?
  3. El papel de OpenAI: ¿Confías en que ChatGPT sea más «obediente» que Claude o crees que acabaremos viendo el mismo conflicto de valores en unos meses?

Déjanos tu opinión en los comentarios y únete a la discusión en InstagramFacebook y YouTube.

Alfredo Santiago Martín
Alfredo Santiago Martín
Ingeniero Químico, Máster en Aplicaciones Multimedia por la UOC y un apasionado de la Ciencia y de la Tecnología desde que tiene conocimiento de causa. Se define como un Geek en un mundo imperfecto. Ciudadano del mundo y nómada por suerte, su hábitat natural transcurre entre ordenadores y máquinas con muchos cables y botones. CEO y Fundador de GurúTecno.

Últimos artículos

1.330 Seguidores
Seguir

Artículos relacionados

Cuéntanos tu opinión

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.