fbpx
سبتمبر 7, 2024 5:54 م
Search
Close this search box.

OpenAI تتعاون مع معهد سلامة الذكاء الاصطناعي الأمريكي لاختبار ChatGPT-5

أعلنت OpenAI عن شراكة جديدة مع معهد سلامة الذكاء الاصطناعي الأمريكي، حيث ستوفر الشركة للمعهد إمكانية الوصول المبكر إلى نموذجها القادم، ChatGPT-5. تهدف هذه الشراكة إلى ضمان أن تكون نماذج الذكاء الاصطناعي المقبلة آمنة وموثوقة قبل إطلاقها للجمهور.

في منشور على منصة X، قال الرئيس التنفيذي لـ OpenAI، سام ألتمان: “نحن نعمل مع معهد سلامة الذكاء الاصطناعي الأمريكي على اتفاقية تتيح لنا تقديم وصول مبكر إلى نموذجنا الجديد، وذلك للعمل معًا على تعزيز تقييمات الذكاء الاصطناعي”.

يأتي هذا التعاون في إطار الجهود الرامية إلى تطوير معايير وإرشادات لقياس سياسات الذكاء الاصطناعي، ويهدف إلى ضمان فعالية بروتوكولات السلامة وتجريبها بشكل شامل.

الشراكة بين OpenAI والمعهد تأتي في وقت تشهد فيه الشركة تحولًا كبيرًا. ففي مايو من هذا العام، قامت OpenAI بحل فريق Superalignment، الذي كان مخصصًا لضمان توافق نماذج الذكاء الاصطناعي مع الأهداف الإنسانية. بعد تفكيك الفريق، ترك عدد من الأعضاء البارزين الشركة، بما في ذلك جان لايكي وإيليا سوتسكيفر، الذي أسس لاحقًا شركة ناشئة جديدة في مجال السلامة الذكاء الاصطناعي.

وفي رد على المخاوف المتعلقة بالموارد المخصصة لجهود السلامة، أكد ألتمان أن OpenAI تلتزم بتخصيص ما لا يقل عن 20% من مواردها الحاسوبية لمبادرات السلامة. كما أعلن ألتمان عن إزالة بنود عدم الاستخفاف من عقود الموظفين لتعزيز بيئة عمل شفافة وآمنة.

الجدير بالذكر أن هذه ليست المرة الأولى التي تتعاون فيها OpenAI مع هيئات حكومية بشأن سلامة الذكاء الاصطناعي. في العام الماضي، تعاونت مع DeepMind لمشاركة نماذج الذكاء الاصطناعي الخاصة بهما مع حكومة المملكة المتحدة، مما يعكس تزايد التعاون بين مطوري الذكاء الاصطناعي والهيئات التنظيمية.

كما أعلنت OpenAI عن تعيين الجنرال المتقاعد بول إم ناكاسوني في مجلس إدارتها لتعزيز التركيز على الأمن والحوكمة، مما يدل على الالتزام المتزايد بالأمن السيبراني في ظل تطور تكنولوجيا الذكاء الاصطناعي.

اقرأ أيضا