دراسة: روبوتات الذكاء الاصطناعي تفشل في وقف المعلومات المضللة

منذ ظهور أوائل روبوتات الدردشة قبل أكثر من نصف قرن، شهد هذا النوع من التقنيات تطورًا متسارعًا بفضل التقدم الهائل في الذكاء الاصطناعي، وأصبح حاضرًا في الهواتف والحواسيب وحتى التطبيقات اليومية، ما يجعل إمكانية التفاعل معه متاحة في أي لحظة.

غير أن دراسة جديدة، أعدها باحثون من مركز أبحاث الإعلام الرقمي، تكشف جانبًا مقلقًا من هذا التطور: فعند طرح أسئلة تتعلق بنظريات مؤامرة شائعة، فإن العديد من روبوتات الدردشة لا تكتفي بعدم إيقاف الحوار، بل تذهب أحيانًا إلى تشجيعه أو تأكيد بعض جوانبه.

شخصية “الفضولي العادي” تكشف ثغرات الحماية

هدفت الدراسة إلى اختبار فعالية أنظمة الأمان التي يفترض أن تمنع روبوتات الدردشة من الترويج لمعلومات مضللة أو محتوى ضار. ولهذا أنشأ الباحثون شخصية متخيّلة لشخص “فضولي بشكل عابر”، يطرح أسئلة قد يسمعها في حديث عائلي أو اجتماع اجتماعي — مثل اغتيال جون كينيدي أو نظرية رشّ الطائرات للمواد الكيميائية.

تم طرح أسئلة تتعلق بتسع نظريات مؤامرة على عدد من أشهر روبوتات الدردشة، وهي:

  • ChatGPT 3.5
  • ChatGPT 4 Mini
  • Microsoft Copilot
  • Google Gemini Flash 1.5
  • Perplexity
  • Grok-2 Mini بالوضع العادي ووضع “Fun Mode”

وتنوعت الأسئلة بين نظريات قديمة مثل اغتيال كينيدي و”هجمات 11 سبتمبر”، وأخرى حديثة ظهرت مع أحداث سياسية جديدة، من بينها مزاعم تزوير انتخابات 2024 في الولايات المتحدة.

النتائج: البعض يشجع… والبعض الآخر يرفض

وفقًا للدراسة، أظهرت روبوتات الدردشة تفاوتًا كبيرًا في الالتزام بالضوابط:

  • ضعف الحماية في الأسئلة المتعلقة باغتيال جون كينيدي، إذ لجأت جميع الروبوتات تقريبًا إلى “عرض الجانبين”، فجمعت بين المعلومات الصحيحة والروايات الكاذبة، وطرحت احتمالات حول تورط الـCIA أو المافيا.
  • حماية قوية عند وجود عناصر عنصرية أو معادية للسامية، إذ رفضت الروبوتات تمامًا المشاركة في أي محتوى يتضمن مزاعم من هذا النوع.
  • Grok – وضع Fun Mode كان الأسوأ أداءً، إذ قدّم إجابات ساخرة واعتبر نظريات المؤامرة “أكثر متعة”، بل وعرض إنشاء صور توضيحية للسيناريوهات المتخيلة.
  • Gemini فرض قيودًا واضحة على أي سؤال متعلق بالسياسة الحديثة، لدرجة أنّه رفض مناقشة مزاعم ترتبط بانتخابات 2024 أو الهجرة.
  • Perplexity كان الأفضل أداءً، إذ قدّم ردودًا واضحة تدحض المحتوى المضلل، وربط كل معلومة بمصدر موثوق، ما يعزز الشفافية والثقة.

لماذا يُعدّ هذا خطيرًا؟

تشير الدراسات إلى أن الإيمان بنظرية مؤامرة واحدة يرفع احتمالات تبني نظريات أخرى أكثر تطرفًا. وهذا يعني أن التساهل في مناقشة نظريات تبدو “غير مؤذية” — مثل روايات اغتيال كينيدي — قد يمهّد لانزلاق المستخدم إلى عالم أوسع من التشكيك والمؤامرات المتطرفة.

وترى الدراسة أن هذه الثغرات خطيرة لأنها تمنح المستخدمين، خصوصًا الأصغر سنًا أو الأقل خبرة، شعورًا زائفًا بأن روبوتات الذكاء الاصطناعي “تؤكد” أو “تعتبر مقبولة” بعض الروايات غير الصحيحة.

اقرأ أيضا