يبدو أن الأمور ليست بالصورة الوردية التى تسوقها شركات التكنولوجيا عن مستقبل الذكاء الاصطناعى وعلاقة الإنسان بالآلة. ففى ظل الصورة الذهنية التى رسمتها أفلام الخيال العلمى عن الصراعات القادمة بين البشر والروبوت، توالت الأخبار عن الحوادث الناتجة عن تلك العلاقة بين الطرفين، أحدثها ما كان من تسبب الروبوت فى كسر إصبع طفل خلال مشاركته فى مباراة للشطرنج بموسكو بعد أن تسرع الطفل وحرك إحدى القطع دون أن ينتظر عودة ذراع الروبوت لوضع السكون.
وفقا لتقرير صحيفة الجارديان البريطانية فقد تسببت أذرع الروبوت المنتشرة حاليا فى أغلب المصانع والعديد من المستشفيات بالخارج فى العديد من حوادث القتل والإصابات الحادة. وحسب الموقع الإلكترونى لوزارة العمل الأمريكية، فإن الإصابات والحوادث التى تفضى إلى الوفاة بسبب روبوت المصانع هى حوادث سنوية تتكرر منذ عام 1984، وذلك بواقع حادثة أو اثنتين سنويا على أقل تقدير. يضاف إلى ذلك القلق المتزايد مما يعرف بالسيارات ذاتية القيادة، التى تعنى ترك مصائر الناس فى يد الذكاء الاصطناعى، مما تسبب فى ٣٧ حادثا وحالة وفاة بالولايات المتحدة . ثم ما كان أخيرا من قرار شركة جوجل بإقالة «بليك لمواين» مهندس البرمجيات بالشركة بعد أن صرح بأن أحد تطبيق «لامادا» LaMDA للدردشة الذى صممته جوجل يمتلك قدرا من الوعى فيما نفت جوجل وعدد من الخبراء إمكانية تحقيق ما افترضه المهندس بليك. كل تلك الحوادث أثارت تساؤلات حول المخاطر الدورية التى تحدث بسبب الآلة واحتمالية إنتاج روبوت فى المستقبل يمتلك إرادة حرة.
وتعليقا على تلك الأحداث، يقول الدكتور إسلام خليل الأستاذ المساعد فى مجال الميكرو روبوت بجامعة توينتى بهولندا، «إن وقوع حوادث الروبوت يعنى عدم تطبيق معايير السلامة والأمان فمن المتعارف عليه فى المصانع وكافة المواقع التى أدخلت تقنية الروبوت ضرورة أن تكون هناك مساحة آمنة وفاصلة بين حركة الإنسان والروبوت، خاصة فى ظل احتمال حدوث ثلاثة أنواع من الأخطاء، إما خطأ فى البرنامج الذى صممه الإنسان للروبوت أو خطأ ميكانيكى فى أطراف الروبوت أو خطأ فى نظام التحكم بالروبوت. كل هذه العوامل واردة وينتج عنها إصابات بالغة قد تؤدى للوفاة».
ويكمل د. إسلام : «وبالعودة إلى واقعة الشطرنج، فإن المنظمين أخطأوا بترك الطفل على مسافة شديدة القرب من الروبوت دون وجود محيط آمن للطفل حفاظا عليه من أى إصابة محتملة».
وحول امتلاك الروبوت للإرادة الحرة، يقول د. إسلام إن الأمر فى النهاية مرتبط بنوعية البرمجيات التى يصيغها الإنسان وبعيدا عن أجواء الخيال العلمى «فإننا نعتمد اليوم بشكل كبير على تطبيقات الذكاء الاصطناعى فى حياتنا اليومية وفكرة أن يكون للروبوت إرادة حرة أو مشاعر تجاه موقف وإجراء هو أمر قد يكون غير واقعى حاليا، إلا أنه لا يوجد شيء مستبعد فى المستقبل ففى نهاية الأمر ما سيقوم به الروبوت سيكون وفقا لبرنامج كتبه الإنسان».
فيما أكد الدكتور محمد زهران، أستاذ هندسة الكمبيوتر بجامعة نيويورك، أنه لا يعتقد أن أفضل جهاز كمبيوتر مجهز بأفضل برمجيات الذكاء الاصطناعى والشبكات العصبية العميقة يمكن أن يكون له أحاسيس أو تطلعات أو وعى، قائلا : «إننا ببساطة لا نعرف الكيفية التى تتولد بها المشاعر فى الإنسان على وجه الدقة. وتعريف الوعى صعب للغاية وغير متفق عليه وعلاقة المشاعر بالوعى وبالطموح مازالت محل دراسة، لذلك لن نستطيع برمجة جهاز كمبيوتر للقيام بإنتاج تلك المشاعر. كما يجب التفرقة بين جهاز يبدو ذكياً أو واعياً وبين جهاز ذكى فعلاً وواع، فعندما يلعب الكمبيوتر الشطرنج فإنه يبدو ذكياً لكنه فى الحقيقة لا يقوم إلا بحسابات، لذلك فإنه فى الحقيقة غير ذكى».
ويضيف د. زهران أن الخطر من الذكاء الاصطناعى لا يأتى من الخوف من شعور الأجهزة بالطموح والتفوق لكن يأتى من ناحيتين: خطأ فى البرمجة أو فى المعلومات التى تمت تغذية الروبوت بها، أو استخدام الأجهزة دون تحكم أو قيد. فالروبوت الذى تسبب فى كسر إصبع الطفل أثناء لعب الشطرنج لم يفعل ذلك لأنه كان سيهزم من الطفل أو لشعوره بكراهية الطفل لكن لأن الروبوت مبرمج على أنه ينتهى من نقلته ثم يسحب يده قبل أن يبدأ الإنسان فى مد يده لتحريك القطعة، ويبدو أن الطفل لم يتمهل ومد يده لقطعة شطرنج قبل أن ينتهى الروبوت من نقلته فظن البرنامج أن إصبع الطفل قطعة شطرنج وحدث ما حدث.
وكمثال آخر لخطر استخدام الذكاء الاصطناعى دون ضوابط، يقول د. زهران: «تخيل فى المستقبل أن أصبح فى الإمكان حقن البشر بروبوتات صغيرة تمشى فى الدم وتقوم بإصلاح أى خلل بالجسم قبل أن يحدث. وتكون هذه الروبوتات بالغة الدقة على اتصال بجهاز كمبيوتر ذكى يحلل المعلومات التى ترسلها ويتخذ القرار باستخدام هذا العلاج أو ذاك، قد يبدو هذا شيئاً جميلاً ويساعد على سرعة التعافى وتجنب الأمراض والمضاعفات الصحية، إلا أنه قد يؤدى أيضا لكوارث خاصة إذا ما منح الإنسان الروبوت الحق فى اتخاذ القرار دون مراجعة».
ويوضح أن برمجيات تعليم الآلة تتصرف بالطريقة التى تم تمرينها عليها أو بمعنى آخر المعلومات التى تمت تغذيتها بها لذلك عندما وضعت «ميكروسوفت» تطبيقا للدردشة على تويتر ليقرأ التغريدات ثم يتفاعل معها بدأ البرنامج فى سب بعض الناس بكلمات عنصرية لأن هذا ما تعلمه من التغريدات وليس لأنه يكره الناس، الشيء نفسه يمكن أن يقال عن المهندس الذى تم فصله من شركة جوجل بعد أن ادعى أن تطبيق الدردشة حى لمجرد أنه يتكلم بطريقة قد تبدو أن له مشاعر، فى حين أن هذا ما تم تدريب التطبيق عليه.
وختاما يشير إلى أن الإطار الأخلاقى للذكاء الاصطناعى يعنى وجود إنسان يمكن محاسبته إذا ما حدث خطأ من الآلة، وحتى يستمر ذلك يجب أن تكون الكلمة النهائية دائما للإنسان وليس للكمبيوتر.
رابط دائم: