Afficher le sommaire Masquer le sommaire
Anthropic a développé un modèle d’intelligence artificielle qu’elle a délibérément choisi de ne pas commercialiser. En cause : des capacités en cybersécurité jugées trop redoutables. Le Claude Mythos Preview a identifié des milliers de failles logicielles, dont certaines dormaient depuis des décennies dans des systèmes parmi les plus utilisés au monde.
Pour contenir les risques que représente un tel outil entre de mauvaises mains, Anthropic a mis sur pied le projet Glasswing. Le principe : accorder l’accès à Mythos Preview à un nombre restreint d’entreprises sélectionnées afin qu’elles corrigent leurs propres vulnérabilités avant que ce modèle, ou un équivalent, ne les exploite à des fins malveillantes. Ce dispositif associe actuellement 12 entreprises partenaires à l’origine du projet, auxquelles s’ajoutent 40 organisations gérant des infrastructures critiques. Le gouvernement américain a également été associé aux discussions.
Des failles vieilles de plusieurs décennies, localisées en quelques semaines
Les résultats obtenus par Mythos sont saisissants. « Il a trouvé plus de vulnérabilités en deux semaines que moi en toute ma vie », déclare Nicholas Carlini, chercheur chez Anthropic. Parmi les découvertes déjà rendues publiques et corrigées figurent une vulnérabilité de 27 ans dans OpenBSD, système d’exploitation réputé pour sa robustesse, une faille présente depuis 16 ans dans FFmpeg, bibliothèque au coeur de nombreuses applications vidéo, et plusieurs brèches dans le noyau Linux permettant à un utilisateur ordinaire de prendre le contrôle total d’une machine. Le modèle ne se contente pas de repérer ces failles : il est également capable de programmer l’exploit, c’est-à-dire le code permettant de les utiliser à des fins offensives.
Les entreprises réunies sous l’égide de Glasswing comptent parmi les plus importantes de l’industrie technologique mondiale : Apple, Amazon Web Services, Google, Microsoft, Nvidia et Crowdstrike. Leur point commun est de gérer des infrastructures dont la compromission aurait des conséquences à grande échelle.
À l’origine, Mythos Preview devait être un modèle spécialisé dans la génération de code, dans la continuité de Claude Sonnet 4.5 qui avait marqué une étape en septembre dernier. « Mais nous avons constaté qu’il était particulièrement performant en cybersécurité », a expliqué le PDG d’Anthropic, Dario Amodei. C’est cette performance inattendue qui a conduit la compagnie à revoir sa stratégie de déploiement.
Marketing ou risque réel ?
Le nom Mythos, emprunté au grec ancien et défini par Anthropic comme « le système de récits à travers lequel les civilisations donnaient sens au monde », donne une mesure de l’ambition rhétorique de la compagnie. La mise en scène du danger alimente les soupçons d’une opération de communication soigneusement orchestrée. Ce type de scénario a déjà eu lieu : en 2019, OpenAI avait retardé la publication de GPT-2 en invoquant les mêmes risques de mésusage. Dario Amodei était alors responsable de la recherche au sein d’OpenAI.
La différence est pourtant structurelle. En 2019, le danger était diffus : spam, désinformation, manipulation à grande échelle. En 2026, il est binaire et vérifiable. Une vulnérabilité logicielle existe ou n’existe pas. Des professionnels indépendants d’Anthropic ont testé Mythos et confirmé ses résultats. Le risque n’est pas hypothétique.
Au-delà de ses capacités en cybersécurité, Mythos reste un modèle généraliste capable d’accomplir l’ensemble des tâches couvertes par ses prédécesseurs Sonnet et Opus. Anthropic a publié un manuel technique de 244 pages décrivant en détail ses performances et ses spécificités. La retenue dans le déploiement ne s’accompagne donc pas d’un silence sur les capacités du modèle.
Bras de fer avec Washington
Ce lancement intervient dans un contexte de relations tendues entre Anthropic et l’administration américaine. Il y a quelques semaines, le gouvernement américain avait classifié la compagnie comme un « risque pour la chaîne d’approvisionnement », lui interdisant de facto de contractualiser avec des entités fédérales ou des sous-traitants du Pentagone. Dario Amodei a contesté cette décision en justice et obtenu gain de cause. Dans ses accords avec le département de la Défense, Anthropic avait imposé deux conditions non négociables : le modèle ne peut être utilisé ni pour la surveillance de masse des citoyens, ni pour la gestion d’armes autonomes sans supervision humaine.


