En un contexto de creciente preocupación por los riesgos que puede acarrear la inteligencia artificial (IA) avanzada, las compañías Anthropic y OpenAI están reforzando sus equipos con especialistas en armamento y explosivos. Ambas empresas han publicado ofertas de empleo que buscan expertos capaces de mitigar el potencial uso indebido de sus tecnologías.
Protección ante riesgos con armas químicas y explosivos
Anthropic, en una publicación en LinkedIn, ha expresado la necesidad de incorporar a un profesional con experiencia en políticas sobre armas químicas y explosiones. El objetivo principal es diseñar y supervisar los límites de seguridad en sus sistemas de IA, asegurando un manejo responsable de la información sensible y estableciendo controles para evitar respuestas inapropiadas relacionadas con ese tipo de armamento.
El rol también contempla una función de vigilancia activa mediante «respuestas rápidas» ante cualquier indicio de uso malicioso detectado en las consultas de los usuarios. Para optar a este puesto, los candidatos deben acreditar al menos cinco años de experiencia específica en defensa contra armas químicas, explosivos y dispositivos de dispersión radiológica, conocidos como bombas sucias.
Además, la persona seleccionada tendrá la responsabilidad de crear nuevas evaluaciones de riesgo que sirvan para autorizar con confianza las actualizaciones y lanzamientos de la compañía en materias particularmente delicadas.
Vigilancia integral frente a riesgos catastróficos
OpenAI, por su parte, está expandiendo su equipo de Preparedness, grupo enfocado en vigilar y anticipar riesgos catastróficos asociados a sus modelos de IA más avanzados. Busca también un Threat Modeler encargado de identificar, modelar y prever amenazas relacionadas con tecnologías de frontera.
Este nuevo perfil será el punto central de coordinación entre áreas técnicas, de gobernanza y políticas para elaborar estrategias que prioricen y mitiguen riesgos potenciales. De esta forma, OpenAI busca equilibrar el desarrollo tecnológico con la responsabilidad ética y social frente a los peligros emergentes.
Un contexto de tensiones y límites explícitos
Estas contrataciones se producen tras un periodo de tensiones entre Anthropic y el Departamento de Guerra de Estados Unidos (DOW), que en febrero solicitó acceso sin restricciones al chatbot Claude, propiedad de Anthropic. La empresa presentó un recurso legal argumentando que no quiere que su IA sea utilizada para vigilancia masiva ni integrada en armas autónomas.
Por su parte, OpenAI cerró un acuerdo con el DOW para implementar su IA en ambientes clasificados, estableciendo límites estrictos contra usos como vigilancia masiva y armamento autónomo.
Esta dinámica refleja el desafío que enfrentan las compañías de IA para acompañar el rápido avance tecnológico con mecanismos sólidos que eviten consecuencias catastróficas, y cómo el sector se prepara para responder con especialistas en áreas históricamente alejadas de la informática, como la defensa y el control de armas.
Imagen destacada: Foto de Tima Miroshnichenko en Pexels.