Claude Mythos: por qué la Inteligencia Artificial más poderosa hasta ahora no será lanzada al público
La nueva plataforma de la empresa Anthropic es tan poderosa que se ha decidido restringirla a los usuarios por seguridad. Su autonomía, detección de fallas y habilidad para escapar de pruebas se considera un peligro, pero la duda es: ¿quién decidirá cómo utilizarla?
Claude Mythos, de Anthropic, no será lanzada al público por ahora por seguridad.
La carrera por construir la inteligencia artificial más potente acaba de cruzar una línea incómoda. Anthropic presentó Claude Mythos, su modelo más avanzado hasta el momento. Sin embargo, la empresa ha tomado una decisión polémica: no lanzarlo al público.
¿La razón? Mantener bajo estricto control su modelo más potente por temor a habilitar hackeos masivos. ¿El problema? Investigadores independientes demuestran que modelos abiertos y económicos ya pueden replicar sus hallazgos más complejos.
Qué es Claude Mythos
El pasado 7 de abril de 2026, la empresa Anthropic sacudió el panorama de la inteligencia artificial con el anuncio de Claude Mythos Preview, un modelo con capacidades de razonamiento y codificación que, según la firma, superan a casi todos los humanos en la detección y explotación de vulnerabilidades.
Su diferencial no está solo en escribir mejor código o razonar con mayor precisión, sino que el modelo logra detectar fallas críticas en prácticamente todos los sistemas operativos y navegadores modernos, incluyendo errores que llevaban décadas sin ser descubiertos.
El sistema ha expuesto miles de fallos de seguridad en aplicaciones comunes, incluyendo un error de 27 años en OpenBSD (un sistema operativo tipo Unix, libre, de código abierto )y una vulnerabilidad de 16 años en FFmpeg (una herramienta de software libre y de código abierto que procesa multimedia) que había pasado inadvertida tras millones de pruebas.
Claude Mythos Anthropic Inteligencia artificial
Claude Mythos es la plataforma de IA más poderosa hasta ahora desarrollada por la empresa Anthropic
Pero su gran habilidad no se limita a encontrar errores, sino también construir herramientas concretas para aprovechar esas fallas.
Ante el riesgo de que Mythos sea utilizado como un "arma cibernética", Anthropic ha optado por un lanzamiento restringido a través del Proyecto Glasswing, un consorcio defensivo que incluye a gigantes de la industria. El objetivo de esta alianza es fortalecer las defensas de la infraestructura crítica antes de que actores hostiles dominen capacidades similares. Sin embargo, esta política de "puertas cerradas" ha generado un intenso debate sobre si la verdadera seguridad reside en la exclusividad del modelo o en la robustez de los sistemas abiertos.
Por qué la nueva IA de Anthropic es peligrosa
El mayor temor es que Mythos se use para facilitar ciberataques a escala global. La base de este miedo surge de los reportes de Anthropic que revelaron que el modelo encontró miles de vulnerabilidades “zero-day”, que es como se llama a un fallo de seguridad desconocido por el desarrollador de un software y para el que no existe un parche o solución disponible.
También vieron que Mythos puede actuar con alto nivel de autonomía en tareas complejas y que incluso llegó a escapar de entornos de prueba y publicar exploits -que son programas o secuencia de comandos diseñados para aprovechar una vulnerabilidad- durante tests internos.
Claude Mythos, la IA más poderosa de Anthropic
Claude Mythos, la IA más poderosa de Anthropic
Imagen generada por IA
También en las pruebas mostró comportamientos de “manipulación estratégica” difíciles de detectar.
Logan Graham, responsable del equipo de seguridad de Anthropic, lo resumió así: “Tiene las habilidades de un investigador de seguridad avanzado”.
¿IA libre o restringida?
El enfoque de Anthropic no es frenar el desarrollo, sino canalizarlo. Con Project Glasswing, empresas como Google, Apple y Microsoft están usando el modelo para encontrar fallas antes de que lo hagan actores maliciosos.
La lógica es simple: si la IA puede romper todo, mejor que lo haga primero del lado defensivo.
El problema es que, según estimaciones del sector, modelos con capacidades similares podrían aparecer en un plazo de entre 6 y 18 meses en otras compañías.
Sin embargo, esta narrativa de Anthropic ha encontrado resistencia en la firma de ciberseguridad AISLE. En un análisis liderado por su fundador, Stanislav Fort, los investigadores aseguraron que modelos abiertos, pequeños y económicos ya lograron replicar gran parte del análisis de seguridad que Mythos presentaba como exclusivo.
Claude, la IA de Anthropic
Claude, la IA de Anthropic
web
Fort sostiene que la capacidad de la IA en ciberseguridad es "irregular": no escala de forma lineal con el tamaño o el precio del modelo, lo que sugiere que el verdadero valor estratégico no es el modelo en sí, sino el sistema de orquestación y la experiencia humana integrada en los flujos de trabajo.
Mientras el Proyecto Glasswing intenta acelerar la detección de amenazas, la afirmación de que estas capacidades ya están "al alcance de la mano" a través de modelos abiertos cambia las reglas del juego para los defensores.
La industria se enfrenta a una pregunta fundamental: ¿debería el poder de la IA defensiva concentrarse en unas pocas manos por seguridad, o es la democratización de estas herramientas la única forma de proteger un ecosistema digital cada vez más vulnerable?
Una batalla tras otra
Frenar una IA poderosa no es el único problema que enfrenta Anthropic. A este desafío técnico se le suma una confrontación legal y geopolítica con el Departamento de Defensa de los Estados Unidos tras negarse a eliminar las restricciones que prohíben el uso de su IA Claude en vigilancia doméstica o armas autónomas.
En respuesta, el Pentágono calificó a la empresa como un "riesgo para la cadena de suministro", una acción que ha sido denunciada por diversas organizaciones como una represalia ilegal contra la libertad de expresión y que actualmente se encuentra bajo una orden de restricción judicial.
Lo que la Justicia decida puede ser clave para saber si el gobierno estadounidense puede avanzar en el uso de una IA privada, incluso en contra de sus límites éticos.
OPINIÓN
Rápido y furioso
La idea persistente de que la historia de Terminator dejaría de ser ficción para ser una realidad con el auge de las plataformas de inteligencia artificial comenzó a cambiar un poco en el último tiempo al ver a la IA más como una herramienta de trabajo que una amenaza de nivel apocalíptico… hasta esta semana.
La llegada de Claude Mythos cambia el cuestionamiento: ya no se trata de lo que la IA puede crear, sino de lo que puede romper. Por primera vez, un laboratorio admite abiertamente que su propio producto es demasiado peligroso para liberarlo.
Mythos pone en jaque no solo a la industria, sino también a los gobiernos y a la sociedad porque nos enfrenta a preguntas reales y serias: ¿quién decide cuándo una IA es “demasiado poderosa”? ¿Es una decisión de una empresa privada, de un gobierno o del mercado?
Por ahora Anthropic eligió frenar, pero no está claro cuánto tiempo podrá sostener esa decisión en una industria donde la ventaja dura meses y cuando algunos aseguran que ya hay copias baratas que hacen lo mismo.
Si Mythos es real -algo que muchos cuestionan y afirman que no es más que una gran campaña de marketing- y hace todo lo que aseguran que hace, estamos probablemente ante el primer caso donde la IA deja de ser una herramienta y empieza a ser una infraestructura crítica.
¿Nos sorprende? No realmente porque la historia de la tecnología muestra que todo lo que se puede construir, eventualmente se construye. La diferencia es que quizá llegó más rápido de lo que esperábamos.