IA
Mythos : le modèle d’IA qui inquiète la Maison-Blanche
La Maison-Blanche envisage un encadrement strict des modèles d’IA les plus avancés, après les mises en garde du vice-président J.D. Vance sur les capacités du modèle Mythos d’Anthropic.

Un vent de panique souffle sur la Maison-Blanche face à la rapidité avec laquelle évoluent les modèles d’intelligence artificielle les plus sophistiqués. Le vice-président américain J.D. Vance a tiré la sonnette d’alarme : certaines technologies, capables de détecter des failles logicielles de manière autonome, pourraient menacer les infrastructures critiques du pays.
Selon le Wall Street Journal, lors d’un appel téléphonique en avril dernier avec les grands patrons de l’IA, Vance a exprimé son inquiétude au sujet du modèle « Mythos », développé par la société Anthropic. Il a souligné que ses capacités pourraient permettre de lancer des cyberattaques contre de petites banques, des hôpitaux ou des stations d’épuration, que les autorités locales ne sont pas en mesure de protéger. Participaient à cette conversation Sam Altman, Dario Amodei, Elon Musk, Sundar Pichai et Satya Nadella.
L’agence Axios rapporte que la Maison-Blanche prépare de nouvelles directives qui pourraient autoriser les agences fédérales à contourner la classification de risque imposée à Anthropic sur sa chaîne d’approvisionnement, et ainsi permettre l’introduction de ses modèles les plus avancés, dont Mythos. Ces inquiétudes ont déclenché des débats internes à l’administration sur la possibilité d’un décret présidentiel instaurant un contrôle formel sur les modèles d’IA les plus puissants – un changement de cap radical par rapport à la politique précédente, qui privilégiait l’innovation et la compétition avec la Chine.
Les responsables de la Maison-Blanche ont demandé à Anthropic de ralentir le déploiement de Mythos auprès des entités gérant des infrastructures numériques sensibles. Le directeur de la cybersécurité nationale, Sean Cairncross, a été chargé de coordonner la réponse gouvernementale.
Ces nouvelles mesures provoquent des divisions au sein de l’administration. Certains responsables et membres du Congrès craignent un recul par rapport à la politique d’ouverture précédente en matière d’IA. À l’inverse, les partisans d’un contrôle plus strict estiment que les développements récents exigent des garde-fous plus solides. L’investisseur et conseiller de la Maison-Blanche David Sacks défend une approche moins restrictive, estimant que les risques peuvent être maîtrisés si les entreprises utilisent l’IA pour renforcer la sécurité numérique plutôt que de la menacer.
La cheffe de cabinet de la Maison-Blanche, Susie Wiles, a affirmé que l’administration cherche un équilibre entre innovation et régulation, tout en réaffirmant son soutien à une stratégie « America First » pour un développement sûr des technologies avancées.
En parallèle, des géants comme OpenAI prennent des mesures de précaution. La société a indiqué avoir consulté l’administration avant de dévoiler son modèle de sécurité avancé « GPT-5.5-Cyber », aux capacités similaires à celles de Mythos, et a imposé des restrictions d’accès.
Ces événements surviennent alors que Washington et Pékin s’apprêtent à discuter des risques liés à l’IA lors d’un sommet en Chine, réunissant le président Donald Trump et le président chinois Xi Jinping. Dans un signe supplémentaire de l’inquiétude croissante, le directeur du Conseil économique national, Kevin Hassett, a comparé le futur mécanisme de contrôle des modèles d’IA aux processus d’approbation des médicaments par la FDA, suscitant les critiques des groupes favorables au libre marché, qui redoutent un ralentissement de la croissance du secteur américain face à la concurrence mondiale.
Par ailleurs, le site The Information rapporte, citant une source informée, qu’Anthropic s’est engagée à dépenser 200 milliards de dollars sur les services Google Cloud sur une période de cinq ans, dans le cadre d’un accord récent.





