Anthropic a récemment dévoilé Mythos, un modèle d'IA d'une puissance inédite, capable de découvrir des failles de sécurité « zero-day » que personne n'avait identifiées auparavant, y compris dans des infrastructures réputées fiables comme OpenBSD. Face à cette capacité, Anthropic a pris la décision de restreindre l'accès à Mythos, le réservant à un conglomérat de corporations triées sur le volet, regroupées sous le nom de « Project Glasswing », afin de gérer les implications de sécurité et de permettre le patch des infrastructures critiques.
Cette annonce survient après une fuite de données de Claude Code, révélant des programmes internes comme un système de « rêve » pour la mémoire et un agent « always-on ». Parallèlement, Anthropic a communiqué sur l'explosion de ses revenus, affirmant dépasser ceux d'OpenAI, bien que la comparaison soit nuancée par les partenariats. Dans une démarche unique, Anthropic a également identifié 171 « vecteurs d'émotion » influençant le comportement de ses modèles et a même fait suivre une vingtaine d'heures de thérapie au modèle Mythos, soulignant une approche psychologique de la compréhension et du contrôle de l'IA.