Exmandos militares y gigantes tecnológicos defienden a Anthropic ante el veto del Pentágono

Microsoft, veteranos militares y expertos en IA respaldan a Anthropic en su disputa legal con el Departamento de Defensa de EE.UU. por una polémica clasificación de riesgo.

Anthropic, empresa líder en inteligencia artificial (IA), enfrenta un polémico veto del Departamento de Defensa de Estados Unidos (DOD) tras ser catalogada como un «riesgo para la cadena de suministro» por la Administración Trump. Esta decisión le impide optar a contratos gubernamentales militares y ha motivado una demanda judicial que ya cuenta con el respaldo de grandes tecnológicas y exmandos militares.

Microsoft, pilares de la industria tecnológica y un grupo de exfuncionarios del Ejército estadounidense han presentado escritos legales en defensa de Anthropic, asegurando que la calificación asignada al laboratorio de IA carece de fundamentos claros y supone un precedente peligroso. Según estos documentos, las acciones del DOD no solo provocan consecuencias económicas desfavorables, sino que también generan una incertidumbre perjudicial para la seguridad nacional, especialmente en momentos de tensiones internacionales como la guerra en Irán.

Entre los firmantes que apoyan a Anthropic destaca Michael Hayden, exdirector de la CIA, quien advierte que la medida «amenaza los principios de Estado de derecho que han sostenido durante mucho tiempo a las Fuerzas Armadas». Además, ingenieros expertos que trabajaron en OpenAI y DeepMind califican la actuación militar como un uso arbitrario del poder, que podría afectar la competitividad y la innovación en el sector tecnológico de EE.UU.

Anthropic se ha posicionado firmemente en defensa de límites éticos en el uso de su tecnología. Su CEO, Dario Amodei, recalcó la negativa de la empresa a facilitar acceso irrestricto de su chatbot Claude al Ejército para evitar su uso en vigilancia masiva y armas autónomas, líneas rojas que han contado con el aval de Microsoft en su respuesta legal. Esta postura pone en relieve un debate crucial sobre el equilibrio entre seguridad y derechos democráticos en el desarrollo de IA.

Asimismo, organizaciones civiles como la Electronic Frontier Foundation y el Cato Institute sostienen que las decisiones del Pentágono podrían vulnerar la Primera Enmienda de la Constitución estadounidense, poniendo en riesgo la libertad de expresión y la independencia de la democracia.

Ante esta situación, el Departamento de Defensa ha anunciado una retirada progresiva de Claude de sus operaciones en un plazo de seis meses, mientras desde Anthropic insisten en que el Gobierno tiene el derecho de elegir proveedores, pero también en la importancia estratégica que su tecnología representa para la seguridad nacional.

Este enfrentamiento destaca la complejidad de integrar la inteligencia artificial en sistemas militares respetando los principios éticos y legales, y subraya la presión que enfrentan las empresas tecnológicas al navegar entre la innovación y las exigencias gubernamentales.

Añadir un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *