Tecnología y ciencia
OpenAI ha concedido a las autoridades estadounidenses acceso temprano a su último modelo de inteligencia artificial, GPT-5.5, en el marco de un acuerdo actualizado con el Instituto Estadounidense de Estándares e Innovación en IA (CAISI).

Anunció Chris Lehane, director ejecutivo de Asuntos Globales de la empresa "OpenAI", que la compañía ha otorgado a las autoridades estadounidenses la posibilidad de acceso temprano a su modelo más reciente de inteligencia artificial, GPT-5.5, en el marco de un acuerdo actualizado con el Instituto Estadounidense de Estándares e Innovación en el ámbito de la Inteligencia Artificial (CAISI).
Escribió Lehane en la plataforma "LinkedIn": "En el marco de un acuerdo actualizado con el Instituto Estadounidense de Estándares e Innovación en el ámbito de la Inteligencia Artificial (CAISI), proporcionamos acceso temprano a los sistemas avanzados de OpenAI, incluido GPT-5.5, para pruebas y evaluación en beneficio de la seguridad nacional". Y explicó que la empresa también colabora con las autoridades estadounidenses en la prueba de sus modelos futuros, como GPT-5.5 Cyber, un modelo especializado diseñado para potenciar las capacidades en el ámbito de la ciberseguridad.
No estuvo "OpenAI" sola en este enfoque. Pues anunció el Departamento de Comercio de Estados Unidos, hoy martes, que las empresas "Microsoft", "Google DeepMind" y "xAI" (filial de Elon Musk) firmaron acuerdos similares para compartir sus modelos avanzados con el gobierno estadounidense para revisiones de seguridad nacional.
Y dijo Chris Fall, director del Instituto Estadounidense de Estándares e Innovación en el ámbito de la Inteligencia Artificial (CAISI), en un comunicado: "La ciencia de estándares independiente y rigurosa es esencial para comprender la inteligencia artificial avanzada y sus implicaciones para la seguridad nacional. Estas asociaciones industriales ampliadas nos ayudan a expandir el alcance de nuestro trabajo para servir al interés público en un momento crítico".
Llegaron estos acontecimientos un día después de un informe publicado por el periódico "The New York Times" (el lunes), en el que se reveló que la administración Trump está estudiando imponer un control gubernamental sobre los modelos de inteligencia artificial nuevos antes de ponerlos a disposición del público, en un giro brusco respecto al enfoque anterior basado en la no intervención. La empresa "Anthropic" había suscitado un estado de preocupación en los círculos gubernamentales tras el lanzamiento de su modelo "Mythos", un modelo que posee capacidades avanzadas para identificar brechas de seguridad y que podría ser utilizado, si cae en las manos equivocadas, para lanzar ciberataques devastadores.
Representa este movimiento un cambio significativo en la política de la administración Trump, quien había prometido al inicio de su mandato liberar la inteligencia artificial de las restricciones gubernamentales. Y llega este cambio en medio de presiones crecientes de los partidos Republicano y Demócrata en el Congreso, y las crecientes preocupaciones por el impacto de la inteligencia artificial en la seguridad nacional y el empleo.
Revelaron evaluaciones realizadas por el Instituto Británico de Seguridad de la Inteligencia Artificial (AISI) que GPT-5.5 mostró capacidades avanzadas en la ejecución de ciberataques en un entorno de investigación controlado. Y mostró el modelo capacidad para resolver tareas de alta dificultad con una tasa de éxito del 71.4%, superando así al modelo "Mythos" cuya tasa de éxito fue del 68.6%. Y se indicó en el informe que, en una simulación de un entorno de red real que comprende 32 etapas, el modelo logró completar una tarea de intrusión con éxito en dos intentos de cada 10.



