في واقعة غير مسبوقة قد تُعيد رسم العلاقة بين التقنية والقانون، تواجه شركات الذكاء الاصطناعي في الولايات المتحدة سلسلة من الدعاوى القضائية بتهمة التشهير، بعدما اتهمها عدد من الأفراد والمؤسسات بنشر معلومات كاذبة ومسيئة تسببت في أضرار مادية ومعنوية جسيمة.
بداية القصة: شركة طاقة متضررة من “أكاذيب رقمية”
بدأت الأزمة عندما لاحظ مندوبو مبيعات شركة «وولف ريفر إلكتريك»، وهي شركة متخصصة في الطاقة الشمسية بولاية مينيسوتا، ارتفاعًا مفاجئًا في عدد العقود الملغاة نهاية عام 2024. وعند سؤال العملاء عن السبب، كانت الإجابات صادمة: محرك البحث غوغل أظهر أن الشركة تواجه دعاوى قضائية بسبب ممارسات بيع خادعة.
غير أن الحقيقة كانت مغايرة تمامًا — فلم تُرفع أي قضية ضد الشركة إطلاقًا. وبعد تحقيق داخلي، اكتشف مسؤولوها أن نموذج الذكاء الاصطناعي “جيميني” من غوغل هو من أنتج تلك المزاعم الخاطئة تلقائيًا أثناء عمليات البحث.
ومع فشل محاولات تصحيح المعلومات عبر أدوات غوغل الرسمية، لجأت الشركة إلى رفع دعوى قضائية ضد عملاق التكنولوجيا بتهمة التشهير الرقمي.
وقال مؤسس الشركة جاستن نيلسن لصحيفة نيويورك تايمز:
“بذلنا سنوات من العمل لبناء سمعة قوية، وعندما يرى العملاء تحذيرًا كهذا، من المستحيل تقريبًا استعادة ثقتهم”.
ظاهرة قانونية جديدة
قضية «وولف ريفر» ليست الوحيدة؛ إذ تُعد واحدة من ست قضايا تشهير على الأقل رُفعت خلال العامين الأخيرين ضد شركات الذكاء الاصطناعي في الولايات المتحدة، بسبب محتوى مولّد آليًا تضمن أكاذيب أو تشويهات للسمعة.
ويجادل المدّعون بأن هذه التقنيات لا تكتفي بنشر معلومات خاطئة، بل تستمر أحيانًا في تكرارها حتى بعد الإبلاغ عن الخطأ، ما يجعل الأضرار مضاعفة.
ويرى خبراء قانونيون أن هذه القضايا تُثير تساؤلات جوهرية حول المسؤولية القانونية عن محتوى لم يُنشئه البشر.
وقال البروفيسور يوجين فولوك من جامعة كاليفورنيا، وهو خبير في قانون حرية التعبير:
“لا شك أن النماذج الذكية قد تنشر ادعاءات ضارة… لكن السؤال الجوهري هو: من يتحمل المسؤولية؟”.
سابقة قضائية مع ChatGPT
في عام 2023، شهدت ولاية جورجيا أولى القضايا من هذا النوع عندما رفع المذيع الأمريكي مارك والترز دعوى ضد شركة OpenAI، مشيرًا إلى أن روبوت الدردشة ChatGPT زعم زورًا أنه متهم بالاختلاس أثناء ردّه على استفسار صحفي.
وقال محامي والترز، جون مونرو، في تشبيه لافت:
“لا يمكن لفرانكشتاين أن يخلق وحشًا ثم يتنصل من مسؤوليته عندما يبدأ في تدمير الناس”.
لكن المحكمة رفضت القضية، موضحة أن الصحفي لم يقتنع بصحة الادعاء، وبالتالي لم يحدث ضرر مباشر، وهو شرط أساسي لإثبات التشهير.
مسؤولية ضبابية وتحدٍ قانوني جديد
تُعد هذه القضايا اختبارًا حقيقيًا للقانون الأمريكي الذي لم يواجه بعد مفهوم “التشهير الآلي”، أي المحتوى المسيء الصادر عن أنظمة ذكية دون تدخل بشري مباشر.
ويرى خبراء أن غياب الشفافية في خوارزميات الذكاء الاصطناعي يجعل إثبات النية أو الخطأ أمرًا بالغ الصعوبة، ما قد يدفع المحاكم لإعادة النظر في مفهوم المسؤولية الرقمية.
هل يُحاسَب الذكاء الاصطناعي؟
مع تصاعد عدد الدعاوى، يبدو أن المحاكم الأمريكية ستضطر قريبًا للإجابة عن سؤال تاريخي:
هل يمكن تحميل الآلة مسؤولية قانونية عن أفعالها، أم أن اللوم يجب أن يقع على المبرمجين والشركات المطوّرة؟
في وقت تتسابق فيه الشركات لتطوير نماذج أكثر ذكاءً، تبدو هذه القضايا بمثابة جرس إنذار قانوني للعصر الرقمي، إذ تذكّر الجميع بأن الذكاء الاصطناعي — رغم عبقريته — ما زال بحاجة إلى ضوابط بشرية وأخلاقية واضحة.
سؤال للنقاش:
هل تعتقد أن على الحكومات سنّ قوانين جديدة تُحمّل شركات الذكاء الاصطناعي المسؤولية عن المحتوى الذي تنتجه أنظمتها؟















