La empresa de inteligencia artificial Anthropic confirmó la creación de un modelo experimental, Claude Mythos, que demostró habilidades excepcionales para identificar vulnerabilidades críticas. Debido a los riesgos potenciales, la compañía optó por restringir su uso a un entorno controlado.
La compañía de inteligencia artificial Anthropic informó sobre el desarrollo de un nuevo modelo experimental, denominado Claude Mythos, cuyas capacidades en el ámbito de la ciberseguridad han generado un amplio debate dentro de la industria tecnológica. Según la empresa, durante pruebas internas, el sistema demostró una habilidad excepcional para detectar, explotar y encadenar vulnerabilidades informáticas de alta gravedad, incluso en sistemas ampliamente auditados.
Anthropic señaló que, en las evaluaciones, Claude Mythos logró identificar fallas críticas que habían pasado inadvertidas durante décadas, a pesar de haber sido analizadas por expertos y herramientas automatizadas. Entre los hallazgos, se incluyen vulnerabilidades en todos los principales sistemas operativos y navegadores web, algunas de las cuales habían sobrevivido a millones de revisiones automatizadas sin ser detectadas.
Frente a este escenario, la empresa reconoció que, en manos equivocadas, el sistema podría facilitar ciberataques contra infraestructuras críticas, como hospitales, redes eléctricas o centrales energéticas, con consecuencias potencialmente graves. Por este motivo, Anthropic decidió no liberar el modelo al público general y limitar su uso a un entorno altamente controlado.
En su lugar, Claude Mythos será utilizado de manera restringida por más de 40 empresas en el marco del Proyecto Glasswing, una iniciativa orientada a reforzar defensas. Entre las compañías seleccionadas figuran Amazon, Google, Apple, Nvidia, CrowdStrike y JPMorgan Chase. El objetivo es que estas organizaciones utilicen el modelo para detectar fallos en sus propios sistemas antes de que herramientas de capacidades similares estén disponibles de forma abierta.
Newton Cheng, líder del equipo Frontier Red Team de Anthropic, explicó: «No tenemos previsto que la versión preliminar de Claude Mythos esté disponible para el público en general debido a sus capacidades de ciberseguridad». La empresa aclaró que busca aprender cómo podría implementar modelos de esta clase a gran escala una vez que existan marcos de seguridad adecuados.
La decisión se da en medio de una creciente preocupación global por el avance acelerado de la inteligencia artificial y su impacto en la seguridad económica, social y nacional. Anthropic describió a Mythos como un cambio radical en capacidades respecto de versiones anteriores y admitió que liberarlo sin salvaguardas implicaría un riesgo inaceptable.
