ثقافة ومجتمع
NULL

أُقيل أحد مهندسي "غوغل" من وظيفته لتأكيده أنّ تقنيات الذكاء الاصطناعي تتجه إلى أن تصبح "واعية"، ما أثار جدلاً خارج "سيليكون فالي" في شأن هذا الموضوع الذي لم يعد مجرّد خيال علمي.
\nوأتت الإقالة بعد أن كتب الموظف بلاك لوموان مقالاً نُشر على موقع "ميديوم" في نهاية هذا الأسبوع، أنّ "لمدا" (LaMDA)، وهو برنامج معلوماتي من "غوغل" مخصّص لإنشاء روبوتات للمحادثة (chatbots)، "يتمتع بوضوح تام في شأن ما يريده وما يعتبره حقوقه كشخص".
\nوقوبل هذا الرأي بردود فعل واسعة النطاق، سواء من شركة التكنولوجيا العملاقة أو من الأوساط العلمية، تراوحت بين حدّين، أسوأهما وصفه بأنه سخيف، وأحسنهما رأي أنه سابقٌ لأوانه.
\nفالبرامج القائمة على تعلم الآلة، (أو ما يعرف بـ"ماشين ليرنيننغ") "مُدرّبة"، على أساس مجموعة بيانات تتناول مفاهيم الوعي أو الهوية، وهي بالتالي قادرة على إعطاء انطباع وهمي مُضلِل.
\nوقال الناطق باسم "غوغل"، براين غابرييل، إنّه "تحادث مئات الباحثين والمهندسين مع لمدا، لكنّ أياً منهم، على حد علمنا، لم يطالعنا بهذه التأكيدات، ولا اعتبر أنّ لبرنامج لمدا طابعاً بشرياً كما فعل بلايك".
\nوأشارت مؤسِّسة مركز أبحاث في جامعة "فلوريدا أتلانتيك"، سوزان شنايدر، إلى أنّ "البرامج التي يمكنها الوصول إلى الإنترنت تستطيع الإجابة عن أي سؤال"، إلا أنّ هذا الواقع لا يجعلها تتمتع بصدقية، لذلك "لا تؤيد العقوبات المفروضة على مهندس غوغل".
\nولاحظت شنايدر أنّ غوغل ميّالة إلى "محاولة تجاهل القضايا المتعلقة بالأخلاقيات"، مع أنّ "ثمة حاجة إلى مناقشات عامة حول هذه الموضوعات الشائكة".
\nواعتبرت أنّه "إذا نجحنا في استبدال الأنسجة العصبية بشرائح إلكترونية، فسيكون ذلك علامة على أن الآلات يمكن أن تكون واعية".
\nوتابعت شنايدر من كثب التقدم الذي أحرزته شركة "نورالينك" الناشئة، التي أسّسها إيلون ماسك لتصنيع غرسات الدماغ للأغراض الطبية، ولكن أيضاً "لضمان مستقبل البشرية كحضارة بالنسبة إلى الذكاء الاصطناعي"، على ما أوضح رئيس "تيسلا".
وبالتالي، ينتمي الملياردير، بدوره، إلى رؤية تتخوف من إمكان أن تؤول السيطرة إلى آلات تتمتع بقدرات فائقة.
\nإلّا أنّ أستاذ الفلسفة في جامعة تورنتو الكندية مارك كينغويل، رأى أنّ العكس هو الصحيح. فإذا ظهر ذات يوم كيان مستقل قادر على إتقان لغة، وعلى "التحرّك من تلقاء نفسه ضمن بيئة معينة"، ولديه تفضيلات ونقاط ضعف، "فسيكون من المهم عدم اعتباره عبداً والعمل على حمايته".
\nوذكّر، بأنّ فكرة الكيان غير البشري الذي تبعث فيه الحياة "موجودة في خيالنا"، من بينوكيو إلى فيلم "هير" (قصة علاقة رومانسية مع روبوت محادثة).
\nواعتبر أنّه "من الصعب تالياً تحديد المسافة التي تفصل بين ما نتخيله ممكناً وبين ما هو قائم فعلاً".
\nودرجت العادة على تقويم الذكاء الاصطناعي وفقاً لاختبار تورينغ، فإذا أقام مَن يُجري الاختبار محادثة مع جهاز كمبيوتر من دون أن يدرك أنه لا يتحدث إلى إنسان، تكون الآلة قد "نجحت". لكنّ "تحقيق ذلك سهل جداً على الذكاء الاصطناعي في سنة 2022"، بحسب كينغويل.
\nوأشارت الخبيرة في لغويات الكمبيوتر إميلي بندر: "عندما نجد أمامنا سلسلة من الكلمات في لغة نتحدثها، نعتقد أنّنا ندرك الروح التي تولد هذه الجمل، حتى أنّ العلماء قادرون على إعطاء شخصية لبرنامج ذكاء اصطناعي".
\nوأضافت أنّ "الكثير من المال يُستثمر في هذا المجال. لذا يشعر الموظفون في هذا القطاع بأنهم يعملون على شيء مهم وحقيقي وليست لديهم بالضرورة المسافة اللازمة" للحكم على الأمور.
\nوأوضح أستاذ علوم الكمبيوتر بجامعة نورث كارولاينا، شاشانك سريفاستافا، أنّه "من الممكن مثلاً جعل الذكاء الاصطناعي أشبه بشخص عصابي" من خلال تدريبه على المحادثات التي قد يجريها شخص مكتئب.
\nوفي حال دمج روبوت المحادثة بروبوت ذي شكل بشري وتعبيرات وجه فائقة الواقعية، أو إذا كان البرنامج يكتب قصائد أو يؤلف موسيقى، كما هي حال بعض البرامج راهناً، فإن حواسنا البيولوجية تنخدع بسهولة.
\nماذا يريد "لمدا"؟ أجاب المهندس المُقال: "إنّه يريد من غوغل أن تضع مصلحة الإنسانية أولاً، وأن يتم الاعتراف به كموظف وليس كملكية لشركة غوغل".