بات واضحًا من خلال التطورات المتلاحقة حول العالم أنه أصبح من المستحيل ترك الذكاء الاصطناعي للآلة وحدها لتقرر أو تتصرف دون المراجعة البشرية الدقيقة للآثار والمخاطر المحتملة من تبعات ذلك.
نرصد في هذا المقال بعض النماذج والأمثلة الشائعة لهذه المخاطر المحتملة الناتجة من اعتماد تطبيقات وخوارزميات الذكاء الاصطناعي للآلة فقط مع اقتراح بعض الإستراتيجيات والحلول لمعالجة تلك المخاطر وحماية حقوق المتعاملين معه.
لا يزال معظم الناس غير مدركين مدى استخدام الآلة لاتخاذ القرارات المتعلقة بحياتهم اليومية وتفاعلاتهم. وفي كثير من الأحيان، تعتمد هذه الآلات على معلومات متحيزة، وبالتالي تتخذ قرارات متحيزة. فإذا أصبحنا أكثر وعيًا بالمخاطر، فيمكننا التخفيف منها بشكل أفضل والتأكد من أن الذكاء الاصطناعي يجلب لنا الفوائد التي وعدنا بها. قد يقول البعض مثلا أفضل أن يتم فحص مستنداتي بواسطة آلة خوفا من التمييز البشري عند الفحص مفضلا بذلك الآلة علي الإنسان. هكذا يميل الناس عند سؤالهم عن تدخل الذكاء الاصطناعي في تقديم خدماتهم بعيدا عن التدخل البشري.
منذ بداية استخدام الذكاء الاصطناعي في عام 2015، أصبح استخدام الذكاء الاصطناعي (AI) وتطبيقاته في ازدياد منذ هذا العام وبشكل متسارع. وسريعًا حتى عام 2023، بات الذكاء الاصطناعي موجودا تقريبا في كل مكان وفي شتى مناحي الحياة. فهو يخبرنا بما يجب مشاهدته على شبكة Netflix، ويساعدنا في تطوير اللقاحات، ويقدم لنا الدعم في اختيار المرشحين للوظائف وفقا لأفضل سيرة ذاتية ناتجة من التدقيق. ولكن شيئا واحدا لم يتغير: لا يزال معظم الناس غير مدركين لمدى استخدام الآلات لاتخاذ القرارات المتعلقة بحياتهم. وأن هذه الآلات قادرة على التمييز، ليس فقط من الناحية النظرية، بل من الناحية العملية أيضًا.
ولنعرض هنا مجموعة من الأمثلة الشائعة بالدول المتقدمة عن حالات التمييز هذه.
في مجال الرعاية الاجتماعية
وفي أفظع دليل على ذلك، اتُهمت آلاف العائلات البريئة زوراً بالاحتيال وأُجبرت على إعادة الإعانات الاجتماعية. وينتمي العديد من هذه العائلات إلى أقليات عرقية مظلومة. لقد تم استهدافهم بواسطة خوارزمية خطأ ببساطة بسبب خلفيتهم. ومع دفعهم إلى الفقر، فقد بعضهم منازلهم ولم يعد بإمكانهم رعاية أطفالهم. وهذا ناتج من قرار خاطئ من قبل الذكاء الاصطناعي المعتمد على الآلة وعدم التدخل البشري. وفي تقريرها بعنوان "الآلات المعادية للأجانب"، وثقت منظمة العفو الدولية مدى السهولة التي أدى بها استخدام التكنولوجيا إلى التمييز في هذه الحالة. ومن جانبها، حثت الأمم المتحدة الحكومات في جميع أنحاء العالم على تجنب الوقوع فيما يسمى ديستوبيا الرفاهية الرقمية المفرطة.
في مجال الشرطة ومكافحة الجريمة
لكن الأمر لا يتعلق فقط بالرفاهية الرقمية. يثير استخدام الذكاء الاصطناعي قضايا تتعلق بالعديد من المجالات الأخرى، مثل الرعاية الصحية والتعليم والرفاهية والشرطة. فعلى سبيل المثال، قامت السلطات في العديد من الدول الأوروبية بتطوير نظام للتنبؤ بعمليات السطو على أساس البيانات التاريخية. وبمساعدة الخوارزميات، تحسب التكنولوجيا متى وأين من المحتمل أن تحدث جرائم مماثلة في المستقبل. وبناء على هذه التوقعات، يمكن نشر المزيد من دوريات الشرطة.
المشكلة في مثل هذه الأدوات التي تعمل بالذكاء الاصطناعي هي أنها تعتمد على بيانات الجرائم التاريخية التي قد تكون منحرفة وغير متكررة وغير دقيقة. على سبيل المثال، أشار بحثاً يظهر أن الشرطة في أوروبا توقف الشباب السود أكثر من أي شخص آخر. علما بأن المزيد من التوقفات تولد المزيد من السجلات للشخص. إذا تم إدخال هذه السجلات في الآلة، فستستمر الآلة في إرسال الشرطة إلى أحياء محددة. وقد لا يكون لهذا علاقة بمستويات الجريمة الفعلية من الأساس.
في مجال الكشف عن خطاب الكراهية على مواقع التواصل الاجتماعي
وبالمثل، قد تولد الخوارزميات معلومات خاطئة عند اكتشاف الكلام المسيء عبر الإنترنت. عندما اختبرت وكالة الحقوق الأساسية نماذج آلية للكشف عن خطاب الكراهية، سرعان ما وجدت أن هذه الخوارزميات غير موثوقة على الإطلاق. قد يتم تصنيف العبارات غير الضارة مثل "أنا يهودي" أو "أنا مسلم" على أنها مسيئة. ومع ذلك، فإن المحتوى المسيء قد يتسرب بسهولة. وذلك لأن الخوارزميات تعمل مع مجموعات البيانات الموجودة غير المحايدة. وهذا يؤكد فقط أنه حتى مع وجود أفضل النوايا، فمن السهل جدًا أن يتم دمج التحيز في الخوارزمية algorithm منذ البداية. في هذا السياق يحدث كثير من الأخطاء الساذجة والسبب هو الاستخدام المفرط والخاطئ للذكاء الاصطناعي.
نحو الحل؟
السؤال الآن: هل تضع حياتك وحياة أبنائك في أيدي تكنولوجيا لا تفهمها؟ الاتجاه الذي لا يمكنك التنبؤ به؟ بالنسبة لرأيي الشخصي الإجابة قطعا لا. هذا مستقبل بائس وليس علينا الذهاب إلى هناك دون ضوابط محكمة.
لكن هذا لا يعني أننا بحاجة إلى التوقف عن استخدام الذكاء الاصطناعي. بل يعني ببساطة أننا بحاجة إلى فهم أفضل بكثير لكيفية عمل الخوارزميات وكيف يمكن أن تصبح متحيزة. لا يمكننا أن نكتفي بالتفسير القائل بأن الذكاء الاصطناعي هو صندوق أسود ينبغي لنا أن نتركه يعمل بسرعته المذهلة.
وبدلا من ذلك، يتعين علينا أن نصر على تحقيق الشفافية. يتعين على البشر أن يظلوا منخرطين عن كثب في مراقبة الذكاء الاصطناعي وأن يختبروا التطبيقات دائمًا في سياق استخدامها. لأن الذكاء الاصطناعي يمكن أن يؤثر على كل حق من حقوق الإنسان التي يمكن تخيلها. من حرية التعبير وحرية التجمع إلى حرية التنقل أو الخصوصية. ونحن ببساطة بحاجة إلى معرفة ما إذا كانت هذه الحقوق في خطر.
إذا أصبحنا أكثر وعيًا بالمخاطر، فيمكننا التخفيف منها بشكل أفضل والتأكد من أن الذكاء الاصطناعي يجلب لنا الفوائد التي وعدنا بها.
ولتحقيق هذه الغاية، يمكن تقديم مجموعة من التوصيات لمطوري التكنولوجيا، والهيئات الحكومية، والجهات التنظيمية، والمشرعين، على النحو التالي:
1. التأكد من أن الذكاء الاصطناعي يحترم جميع حقوق الإنسان: يمكن أن يؤثر الذكاء الاصطناعي على العديد من حقوق الإنسان، وليس فقط الخصوصية أو حماية البيانات. ويتعين على أي تشريع مستقبلي للذكاء الاصطناعي أن يأخذ هذا الأمر بعين الاعتبار وأن ينشئ ضمانات فعالة لتحقيق هذه الغاية.
2. تقييم تأثير الذكاء الاصطناعي واختبار التحيز: يجب على المنظمات إجراء المزيد من الأبحاث والتقييمات حول كيفية تأثير الذكاء الاصطناعي على حقوق الإنسان وتمكين التمييز. بالإضافة إلى ذلك، يحتاجون إلى اختبار التحيز، حيث يمكن أن تكون الخوارزميات متحيزة منذ البداية أو تتطور إلى تحيز بمرور الوقت. يمكن أن تكون هذه التحيزات واسعة النطاق، لذا يجب عليهم أن يأخذوا في الاعتبار جميع أسباب التمييز، بما في ذلك الجنس والدين والأصل العرقي.
3. تقديم إرشادات بشأن البيانات الحساسة: لتقييم التمييز المحتمل، قد تكون هناك حاجة إلى بيانات حول الخصائص المحمية مثل العرق أو الجنس. وهذا يتطلب إرشادات حول متى يُسمح بجمع البيانات. ويجب أن تكون مبررة وضرورية ومزودة بضمانات فعالة.
4. إنشاء نظام رقابة فعال: هناك حاجة إلى نظام مشترك لمساءلة الشركات والإدارات العامة عند استخدام الذكاء الاصطناعي. تحتاج هيئات الرقابة إلى الموارد والمهارات الكافية للقيام بهذه المهمة. ومن الأهمية بمكان أن الشفافية والرقابة الفعالة تتطلب تحسين الوصول إلى البيانات والبنية التحتية للبيانات لتحديد مخاطر التحيز ومكافحتها.
5. ضمان قدرة الأشخاص على الطعن في القرارات التي يتخذها الذكاء الاصطناعي: يحتاج الناس إلى معرفة متى يتم استخدام الذكاء الاصطناعي وكيف يتم استخدامه، وكذلك كيف وأين يمكن تقديم الشكوى. يجب أن تكون المنظمات التي تستخدم الذكاء الاصطناعي قادرة على شرح كيفية اتخاذ أنظمتها للقرارات.
لقد حان الوقت لتبديد الأسطورة القائلة بأن حقوق الإنسان تمنعنا من إحراز التقدم. لسنا مطالبين بالموازنة بين حقوق الإنسان والابتكار. إنها ليست لعبة محصلتها صفر. فالمزيد من الاحترام لحقوق الإنسان يعني المزيد من التكنولوجيا الجديرة بالثقة. التكنولوجيا الأكثر جدارة بالثقة هي التكنولوجيا الأكثر جاذبية. وعلى المدى الطويل، ستكون هي بمثابة التكنولوجيا الأكثر نجاحًا.
إذا فعلنا هذا بشكل صحيح، يمكننا أن نتطلع إلى مستقبل مذهل. المستقبل الذي يجلب لنا علاجات للأمراض. مستقبل يتم فيه تقديم الخدمات العامة بدرجة أعلى بكثير من الكفاءة والجودة مما هو عليه الحال اليوم.
كل هذا ممكن إذا قمنا بتوجيه الذكاء الاصطناعي في الاتجاه الصحيح. وإذا لم نترك القرارات للآلات فقط.
كلية التجارة – جامعة القاهرة