fbpx
يوليو 19, 2024 11:49 ص
Search
Close this search box.

نموذج الذكاء الاصطناعي الخاص بGoogle ينصح المستخدمين بإضافة الغراء للبيتزا وتناول الصخور وصنع غاز الكلور!

اجتاحت منصات التواصل الاجتماعي موجة من النصائح الغريبة والخطيرة التي يبدو أنها مقدمة من الذكاء الاصطناعي عبر ميزة «النظرة العامة» الجديدة من Google، بينما تواصل الشركة الدفاع عن أداة البحث التي تصفها بأنها عالية الجودة.

قامت شركة جوجل بتحديث محرك البحث الخاص بها باستخدام أداة الذكاء الاصطناعي (AI)، التي فجأة بدأت تنصح المستخدمين بتناول الصخور وإضافة الغراء إلى البيتزا وتنظيف الغسالات باستخدام غاز الكلور، وفقًا لما تداوله مستخدمو وسائل التواصل الاجتماعي والتقارير الإخبارية.

في أحد الأمثلة الأكثر غرابة، اقترح الذكاء الاصطناعي القفز من جسر البوابة الذهبية عندما بحث أحد المستخدمين عن عبارة «أشعر بالاكتئاب».

تمسح أداة «AI Overviews» التجريبية الويب لتلخيص نتائج البحث اعتمادًا على نموذج Gemini AI.

طرحت الميزة وتوفرت لبعض المستخدمين في الولايات المتحدة قبل الموعد المخطط له في وقت لاحق من هذا العام، وفق ما أعلنت عنه جوجل في 14 مايو في مؤتمر مطوري I/O.

أثارت الأداة بالفعل فزعًا واسع النطاق عبر وسائل التواصل الاجتماعي، حيث ادعى المستخدمون أنها في بعض الأحيان قدمت ملخصات لمقالات مستوحاة من مواقع هزلية مثل The Onion ومنشورات Reddit الكوميدية كمصادر.

في إحدى الحالات، قدمت AI Overviews نصائح لصنع البيتزا بعدما سأل أحد المستخدمين عن أفضل الطرق لذلك، وقالت: «يمكنك أيضًا إضافة نحو ⅛ كوب من الغراء غير السام إلى الصلصة لإضفاء المزيد من اللزوجة عليها»، وفقًا للقطة شاشة منشورة على موقع X.

تبين لاحقًا أن الذكاء الاصطناعي اعتمد على نكتة منشورة على Reddit منذ عقد مضى للإجابة عن سؤال المستخدم.

ظهرت ادعاءات خاطئة أخرى مثل أن باراك أوباما مسلم، وأن الأب المؤسس جون آدامز تخرج من جامعة ويسكونسن 21 مرة، وأن كلبًا لعب في الدوري الأمريكي للمحترفين ودوري الهوكي الوطني واتحاد كرة القدم الأميركي، وأنه على المستخدمين تناول صخرة يوميًا للمساعدة على الهضم.

لم يتمكن موقع Live Science من التحقق كليًا من هذه المنشورات. قال ممثلو جوجل في بيان ردًا على الأسئلة عن مدى انتشار النتائج الخاطئة إن الأمثلة التي شوهدت كانت «استفسارات غير شائعة عمومًا، ولا تمثل تجارب معظم الناس».

وأوضح البيان: «توفر الغالبية العظمى من عروض الذكاء الاصطناعي معلومات عالية الجودة، مع تقديم روابط لمصادر أخرى على الشابكة للتعمق أكثر».

وأضاف البيان: «أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة للتأكد من أن الميزة الجديدة للذكاء الاصطناعي تلبي معايير الجودة العالية لدينا، ووضعنا إجراءات خاصة للتعامل مع الأداة في حال انتهاكها لمعايير الخصوصية والأمان لدينا، ونستخدم هذه الأمثلة الشاذة لتحسين أنظمتنا باستمرار».

ليست هذه المرة الأولى التي تختلق فيها نماذج الذكاء الاصطناعي التوليدية معلومات، وهي ظاهرة تُعرف باسم الهلوسة. في إحدى أبرز الأمثلة على هذه الظاهرة، ألّف موقع ChatGPT فضيحة تحرش جنسي، وذكر أن الجاني هو أستاذ قانون حقيقي، واستشهد بتقارير صحفية وهمية كدليل على الادعاء.

اقرأ أيضا