El lanzamiento del modelo Claude Mythos por parte de Anthropic marca un punto de inflexión en la regulación de la inteligencia artificial en Estados Unidos, donde la administración Trump comienza a intervenir ante los riesgos para la seguridad nacional.
El vertiginoso progreso de la inteligencia artificial (IA) está llevando a un cambio de postura en Estados Unidos. Figuras clave como Dario Amodei, Demis Hassabis, Elon Musk, Mark Zuckerberg y Sam Altman han liderado el desarrollo de estos modelos, pero la administración Trump, que antes apostaba por un enfoque de no intervención, ahora comienza a tomar medidas.
El punto de inflexión fue el anuncio del modelo Claude Mythos por parte de Anthropic el 7 de abril. Esta herramienta es tan eficaz para encontrar vulnerabilidades de software que, en manos equivocadas, podría amenazar infraestructuras críticas como bancos y hospitales. Ante esto, el director ejecutivo de Anthropic, Dario Amodei, decidió restringir su uso a unas 50 grandes empresas de los sectores informático, de software y financiero, para reforzar sus defensas.
El secretario del Tesoro, Scott Bessent, convocó a los principales bancos a conversaciones urgentes. Semanas antes, el Pentágono ya había intervenido después de que Amodei se negara a permitir el uso del modelo en armas autónomas o vigilancia masiva. La creciente preocupación entre los votantes también influye: siete de cada diez estadounidenses creen que la IA perjudicará las oportunidades laborales, según encuestas recientes.
La oposición a los centros de datos aumenta, y la casa de Sam Altman, director de OpenAI, fue atacada dos veces en los últimos días. El desafío para el gobierno es equilibrar la regulación sin frenar la innovación ni perder la carrera frente a China. La historia muestra que, como ocurrió con Standard Oil o AT&T, el control de tecnologías transformadoras suele requerir intervención estatal, pero la velocidad de la IA hace que el momento actual sea especialmente delicado.
