يشهد العالم تطورًا متسارعًا في مجال الذكاء الاصطناعي Artificial Intelligence AI، الذي أحدث ثورة في مختلف القطاعات، لكنه حمل معه تحديات جسيمة تتعلق بالأخلاقيات، والسلامة، والخصوصية. ترتبط هذه التحديات ارتباطا وثيقا بتأثير الذكاء الاصطناعي المتزايد على حياة الأفراد؛ مما يستدعي تعاونا عاجلا بين الخبراء وصناع القرار لضمان استخدامه بشكل مسؤول وآمن.
موضوعات مقترحة
تقول الدكتورة منى نصر الأستاذ بكلية الحاسبات والذكاء الاصطناعي جامعة حلوان، لـ"بوابة الأهرام": تعكس أنظمة الذكاء الاصطناعي في كثير من الأحيان التحيزات الكامنة في البيانات المستخدمة لتدريبها، مما يعزز أوجه عدم المساواة الاجتماعية.
وتضيف الدكتورة منى نصر:"على سبيل المثال، أظهرت تقنيات التعرف على الوجوه تحيزًا ضد الأقليات العرقية والنساء، حيث ارتفعت نسبة الأخطاء في تحديد هوياتهم مقارنة بالمجموعات الأخرى، كما توظف بعض الشركات أدوات ذكاء إصطناعي في عمليات التوظيف، مما قد يؤدي إلى تكرار التمييز الموجود في البيانات التاريخية. يضاف إلى ذلك غموض آلية عمل الخوارزميات المعقدة المعروفة بـالصندوق الأسود BlackBox ، مما يعيق فهم كيفية إتخاذ القرارات ويضعف الشفافية؛ لذا يجب تبني أطر أخلاقية تلزم المطورين بتحسين جودة البيانات، وتعزيز الرقابة، وضمان الإنصاف".
وأردفت الأستاذ بكلية الحاسبات والذكاء الاصطناعي:"تثير الاستقلالية المتزايدة للأنظمة القائمة على الذكاء الإصطناعي مخاوف كبيرة، خاصة في المجالات الحيوية، ففي السيارات ذاتية القيادة، تظهر معضلات أخلاقية عند اتخاذ قرارات فورية؛ مثل إختيار حماية الركاب أو المشاة عند وقوع حادث".
وأوضحت:"وفي المجال العسكري، قد تتسبب الطائرات المسلحة دون طيار في كوارث إنسانية إذا ما تم إختراقها أو حدث خلل في برمجتها، كما تشكل تقنيات التزييف العميق Deepfakes تهديدًا خطيرًا عبر تزوير الهويات أو نشر الأخبار المزيفة؛ لذلك يجب تعزيز أنظمة الأمان، وإخضاع هذه التقنيات لاختبارات صارمة، وضمان توافقها مع القيم الإنسانية قبل نشرها.
وقالت الدكتورة منى نصر:"يعتمد الذكاء الإصطناعي على كميات هائلة من البيانات، مما يعرض الخصوصية الفردية للخطر، فتقنيات المراقبة الحديثة، مثل كاميرات التعرف على الوجوه في الأماكن العامة، تمنح الحكومات والشركات قدرة غير مسبوقة على تتبع الأفراد، مما يقييد الحريات المدنية. كما تستغل بعض المنصات الرقمية البيانات الشخصية لأغراض تجارية دون موافقة مستخدميها، والأخطر أن البيانات المجهولة الهوية يمكن إعادة ربطها بهويات أصحابها عبر تقنيات الربط الذكية، مما يفقد الأشخاص السيطرة على معلوماتهم، ولمواجهة هذا يجب تعزيز القوانين مثل لائحة حماية البيانات العامة GDPR، وتبني تقنيات حماية الخصوصية كالتعلم الموحد Federated Learning والخصوصية التفاضلية Differential Privacy".
وأضافت:"تتطلب التحديات الأخلاقية، والسلامة، والخصوصية المرتبطة بالذكاء الاصطناعي حلولاً شاملة تعتمد على التعاون بين الحكومات، والمطورين، والمجتمع المدني. فالتشريعات الصارمة، والتصميم الأخلاقي للخوارزميات، والتوعية العامة هي عناصر حاسمة لموازنة إمكانات الذكاء الاصطناعي مع حماية حقوق الإنسان".
ومع استمرار تطور الذكاء الاصطناعي، ستتفاقم تأثيراته على المجتمع؛ لذا يظل تبني نهج إستباقي، ومرن، ومتوازن هو السبيل الوحيد لضمان أن تظل هذه التكنولوجيا خادمة للإنسانية، لا تهديدًا لها.