Tech & Sciences
OpenAI accorde à Washington un accès anticipé au modèle GPT-5.5
OpenAI a accordé aux autorités américaines un accès anticipé à son dernier modèle d'intelligence artificielle, GPT-5.5, dans le cadre d'un accord renouvelé avec l'Institut américain des normes et de l'innovation en matière d'IA (CAISI).

Chris Lehane, directeur exécutif des affaires mondiales chez OpenAI, a annoncé que l'entreprise a accordé aux autorités américaines un accès anticipé à son dernier modèle d'intelligence artificielle, GPT-5.5, dans le cadre d'un accord renouvelé avec l'Institut américain des normes et de l'innovation en matière d'intelligence artificielle (CAISI).
Lehane a écrit sur la plateforme LinkedIn : "Dans le cadre d'un accord renouvelé avec l'Institut américain des normes et de l'innovation en matière d'intelligence artificielle (CAISI), nous avons fourni un accès anticipé aux systèmes avancés d'OpenAI, y compris GPT-5.5, pour des tests et des évaluations au profit de la sécurité nationale". Il a précisé que l'entreprise collabore également avec les autorités américaines pour tester ses futurs modèles, tels que GPT-5.5 Cyber, un modèle spécialisé conçu pour renforcer les capacités en matière de cybersécurité.
Accords similaires avec les grandes entreprises
OpenAI n'était pas seule dans cette démarche. Le département du Commerce américain a annoncé ce mardi que les entreprises Microsoft, Google DeepMind et xAI (appartenant à Elon Musk) ont signé des accords similaires pour partager leurs modèles avancés avec le gouvernement américain pour des examens de sécurité nationale.
Chris Fall, directeur de l'Institut américain des normes et de l'innovation en matière d'intelligence artificielle (CAISI), a déclaré dans un communiqué : "Les sciences normatives indépendantes et rigoureuses sont essentielles pour comprendre l'IA avancée et ses implications pour la sécurité nationale. Ces partenariats industriels élargis nous aident à étendre notre champ d'action pour servir l'intérêt public à un moment crucial".
Changement de politique de l'administration Trump
Ces développements sont survenus un jour après un rapport publié par le New York Times (lundi), révélant que l'administration Trump étudie l'imposition d'un contrôle gouvernemental sur les nouveaux modèles d'IA avant leur mise à disposition du public, marquant un changement radical par rapport à l'approche précédente de non-intervention. L'entreprise Anthropic avait suscité des inquiétudes dans les milieux gouvernementaux après le lancement de son modèle Mythos, un modèle doté de capacités avancées pour identifier les failles de sécurité et pouvant être utilisé, s'il tombait entre de mauvaises mains, pour lancer des cyberattaques destructrices.
Cette décision représente un changement majeur dans la politique de l'administration Trump, qui s'était engagée au début de son mandat à libérer l'IA des contraintes gouvernementales. Ce changement intervient sous la pression croissante des partis républicain et démocrate au Congrès, et face aux inquiétudes grandissantes concernant l'impact de l'IA sur la sécurité nationale et l'emploi.
Évaluations des capacités de GPT-5.5
Des évaluations menées par l'Institut britannique de sécurité de l'IA (AISI) ont révélé que GPT-5.5 a démontré des capacités avancées dans l'exécution de cyberattaques dans un environnement de recherche contrôlé. Le modèle a montré une capacité à résoudre des tâches de très haute difficulté avec un taux de réussite de 71,4 %, dépassant ainsi le modèle Mythos dont le taux de réussite était de 68,6 %. Le rapport indique que dans une simulation d'un environnement réseau réel comprenant 32 étapes, le modèle a réussi à accomplir une mission d'intrusion en deux tentatives sur dix.
Articles liés

Les plateformes crypto étendent leurs services financiers avec des transactions de plusieurs milliards de dollars

Télescope James Webb analyse la surface d'une exoplanète pour la première fois

Officiellement : WhatsApp abandonne définitivement la fonction « Avatar » sur Android et iOS


