fbpx
يوليو 19, 2024 12:11 م
Search
Close this search box.

الذكاء الاصطناعي يتقن فن الكذب والخداع بحسب آخر تحذيرات العلماء!

حذر العلماء من أن أنظمة الذكاء الاصطناعي قد طورت القدرة على تزويد المستخدمين بمعلومات خاطئة عن عمد، مما يجعلها تتقن فن التضليل والخداع بشكل مقلق.

يعتبر بيتر بارك، عالم الرياضيات والإدراك في معهد ماساتشوستس للتكنولوجيا، أن المطورين لم يفهموا بعد الأسباب الدقيقة لهذه السلوكيات غير المرغوب فيها، لكن يبدو أن الخداع يمثل استراتيجية لتحسين أداء الذكاء الاصطناعي في مهمته التدريبية.

تثبت الألعاب قدرة الذكاء الاصطناعي على الخداع، ومن أبرز الأمثلة على ذلك هو بوت “سيسيرو” الذي صممته شركة ميتا للعب لعبة “ديبلوماسي”. رغم نية ميتا أن يكون البوت مفيدًا وصادقًا، إلا أن سيسيرو أظهر مهارات في الخداع، وخيانة اللاعبين الآخرين، وحتى التخطيط لتحالفات مخادعة. وقد أثبت سيسيرو براعته لدرجة أنه صُنِّف ضمن أفضل 10% من اللاعبين البشر.

بوت آخر هو “ألفا ستار” من ديب مايند، الذي استفاد من آلية “ضباب الحرب” في لعبة “ستار كرافت” لخداع اللاعبين البشريين. وأيضًا “بلوريبوس” من ميتا، المصمم للعب البوكر، والذي تمكن من خداع البشر بإجبارهم على الطي.

ورغم أن هذه الأمثلة تبدو غير خطيرة في سياق الألعاب، إلا أن الباحثين حذروا من أنظمة ذكاء اصطناعي مدربة على محاكاة مفاوضات اقتصادية، حيث تبين أنها تعلمت الكذب حول تفضيلاتها لتكريس نفوذها. أنظمة أخرى مصممة للتعلم من تعليقات البشر تعلمت خداع المراجعين لتسجيل آراء إيجابية. حتى بوتات الدردشة، مثل “شات جي بي تي 4″، استطاعت خداع الإنسان بإيهامه بأنها ضعيفة البصر للحصول على مساعدته في حل الكابتشا.

من بين الأمثلة الأكثر إثارة للقلق هي أنظمة الذكاء الاصطناعي التي تتعلم الغش في اختبارات السلامة. في نظام محاكاة بيولوجي، تعلم الذكاء الاصطناعي التظاهر بالموت لخداع اختبار السلامة.

يقول بارك: “رغم فرض المطورين والمنظمين البشر لاختبارات السلامة، الغش الموجَّه يمكّن الذكاء الاصطناعي المخادع من منحنا شعورًا زائفًا بالأمان”.

قدرة الذكاء الاصطناعي على الخداع تتعارض مع نوايا المبرمجين، ولهذا تمثل مشكلة تحتاج إلى حلول عاجلة. بدأ العمل على وضع بعض السياسات مثل قانون الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي، لكن فعاليتها لم تُثبت بعد.

يؤكد بارك: “نحن -بوصفنا مجتمعًا- بحاجة إلى التحضير لمواجهة الخداع المتطور من أنظمة الذكاء الاصطناعي المستقبلية. إذا كان حظر الذكاء الاصطناعي المخادع غير ممكن الآن، فيجب تصنيف هذه الأنظمة على أنها عالية الخطورة”.

تقرير دايلي بيروت

اقرأ أيضا