الذكاء الإصطناعي
حققت وزارة الدفاع الأمريكية (البنتاغون) تقدمًا كبيرًا في مبادراتها المتعلقة بالذكاء الاصطناعي من خلال تأمين اتفاقيات جديدة مع شركات التكنولوجيا الرائدة لنشر أدوات ذكاء اصطناعي متطورة على شبكاتها الأكثر أمانًا وسرية. تؤكد هذه الخطوة الاستراتيجية التزام البنتاغون بتحديث العمليات العسكرية وتعزيز نظام بيئي متنوع للموردين.

حققت وزارة الدفاع الأمريكية (البنتاغون) تقدمًا كبيرًا في مبادراتها المتعلقة بالذكاء الاصطناعي من خلال تأمين اتفاقيات جديدة مع شركات التكنولوجيا الرائدة لنشر أدوات ذكاء اصطناعي متطورة على شبكاتها الأكثر أمانًا وسرية. تؤكد هذه الخطوة الاستراتيجية التزام البنتاغون بتحديث العمليات العسكرية وتعزيز نظام بيئي متنوع للموردين.
تشمل الاتفاقيات الأخيرة عمالقة التكنولوجيا إنفيديا (Nvidia)، مايكروسوفت (Microsoft)، خدمات أمازون ويب (AWS)، وريفليكشن إيه آي (Reflection AI). تبني هذه الشراكات على تعاونات سابقة مع جوجل (Google)، سبيس إكس (SpaceX)، أوبن إيه آي (OpenAI)، وأوراكل (Oracle)، مما يشير إلى دفعة واسعة للاستفادة من الذكاء الاصطناعي المتطور عبر مختلف المجالات العسكرية.
يخطط البنتاغون لنشر نماذج الذكاء الاصطناعي المتقدمة هذه والأجهزة المرتبطة بها ضمن بيئاته عالية الأمان من مستوى التأثير 6 (IL6) ومستوى التأثير 7 (IL7). تم تصميم هذه الأنظمة خصيصًا للتعامل مع بيانات الأمن القومي الحساسة، وتتطلب ضوابط مادية صارمة، وصولاً مقيدًا، ومراجعة مستمرة للحفاظ على سلامتها وسريتها.
يصرح المسؤولون بأن الهدف الأساسي هو تعزيز الوعي في ساحة المعركة وتسريع عمليات اتخاذ القرار. من المتوقع أن تدعم أنظمة الذكاء الاصطناعي المدمجة وظائف حاسمة مثل توليف البيانات، وتحليل الاستخبارات، والتخطيط العملياتي، خاصة في البيئات المعقدة وسريعة التطور.
“تسرّع هذه الاتفاقيات التحول نحو ترسيخ الجيش الأمريكي كقوة قتالية تعتمد الذكاء الاصطناعي أولاً، وستعزز قدرة مقاتلينا على الحفاظ على التفوق في اتخاذ القرار عبر جميع مجالات الحرب،” أكد بيان صادر عن وزارة الدفاع.
توسع هذه المبادرة نطاق GenAI.mil، وهي منصة الذكاء الاصطناعي الداخلية لوزارة الدفاع، والتي شهدت بالفعل اعتمادًا واسع النطاق بين الأفراد العسكريين. استخدم أكثر من 1.3 مليون فرد المنصة لمهام مثل البحث، والصياغة، وتحليل البيانات ضمن أنظمة سحابية آمنة. يفيد البنتاغون بأن المستخدمين قد أنشأوا ملايين الأوامر ونشروا آلاف وكلاء الذكاء الاصطناعي، مما قلل بشكل كبير من الجداول الزمنية التشغيلية من أشهر إلى أيام.
من الجوانب الرئيسية لاستراتيجية البنتاغون في مجال الذكاء الاصطناعي هو منع الاعتماد على أي مزود تكنولوجيا واحد، مما يضمن المرونة والمرونة للقوة المشتركة. يهدف هذا النهج إلى الحماية ضد احتمالية الارتباط بمورد واحد وتعزيز بيئة تنافسية للابتكار.
“ستواصل الوزارة بناء بنية تمنع الارتباط بمورد ذكاء اصطناعي واحد وتضمن مرونة طويلة الأمد للقوة المشتركة،” أبرز البيان. “إن الوصول إلى مجموعة متنوعة من قدرات الذكاء الاصطناعي من جميع أنحاء المكدس التكنولوجي الأمريكي المرن سيزود المقاتلين بالأدوات التي يحتاجونها للعمل بثقة وحماية الأمة ضد أي تهديد.”
ومع ذلك، لم يكن هذا الدمج المتسارع للذكاء الاصطناعي في التطبيقات العسكرية خاليًا من الجدل داخل صناعة التكنولوجيا. نشأ نزاع بارز مع أنثروبيك (Anthropic)، التي أفادت التقارير أنها قاومت الاستخدام العسكري غير المقيد لأنظمة الذكاء الاصطناعي الخاصة بها، مستشهدة بمخاوف بشأن المراقبة واحتمال استخدام أسلحة ذاتية التحكم.
يمتد هذا النقاش إلى شركات تكنولوجيا كبرى أخرى، حيث حث أكثر من 600 موظف في جوجل (Google) قيادتهم على تجنب عقود دفاع مماثلة. أعربت رسالة مفتوحة موجهة إلى الرئيس التنفيذي سوندار بيتشاي (Sundar Pichai) عن تحفظات عميقة بشأن التداعيات الأخلاقية للذكاء الاصطناعي العسكري.
“نريد أن نرى الذكاء الاصطناعي يفيد البشرية، لا أن يستخدم بطرق غير إنسانية أو ضارة للغاية،” جاء في الرسالة. “يشمل ذلك الأسلحة الذاتية الفتاكة والمراقبة الجماعية، ولكنه يمتد إلى ما هو أبعد من ذلك.”
يشير التوتر المتزايد بين تطوير الذكاء الاصطناعي التجاري والتطبيقات العسكرية إلى أنه مع استمرار البنتاغون في تطوير اعتماده للذكاء الاصطناعي، من المرجح أن تتكثف التدقيقات والاعتبارات الأخلاقية من داخل قطاع التكنولوجيا. وفقًا لإنتريستنغ إنجينيرنغ (Interesting Engineering)، تمثل هذه التطورات لحظة محورية في تقاطع التكنولوجيا المتقدمة والأمن القومي.



