Close ad

دعوات متزايدة لتنظيم قطاع الذكاء الاصطناعي منعًا للتجاوزات

13-2-2023 | 16:08
دعوات متزايدة لتنظيم قطاع الذكاء الاصطناعي منعًا للتجاوزاتأرشيفية
أ ف ب

برزت الحاجة أخيرًا في أوروبا وفي أنحاء أخرى من العالم لتنظيم قطاع الذكاء الاصطناعي الآخذ في الازدهار والنمو، توخيًا لحماية بيانات المستخدمين ولمنع أي تجاوزات بدأت تظهر بوادرها.

موضوعات مقترحة

وأراد مستخدمو برنامج "ريبليكا" الأمريكي للذكاء الاصطناعي، تبادل الأحاديث مع تجسيداتهم الافتراضية (أفاتار) المطورة على قياسهم، لإجراء حوارات رومانسية أو مثيرة. لكن البعض يشتكون أخيرًا من تلقي رسائل وصور جريئة لدرجة جعلتهم يضعونها في مصاف التحرش الجنسي.

قبل أيام، أبدت الوكالة الإيطالية لحماية البيانات قلقها من تأثير هذه البرمجية على الأشخاص الأكثر ضعفاً، ومنعت "ريبليكا" من استخدام بيانات الإيطاليين الشخصية، معتبرة أنها تنتهك القانون الأوروبي لحماية البيانات. ولم ترد "ريبليكا" على أسئلة وكالة فرانس برس في هذا الموضوع.

وتُظهر القضية أن هذا التشريع الأوروبي الذي فُرضت بموجبه غرامات بمليارات الدولارات، قد يصبح أيضاً عدو تقنيات الذكاء الاصطناعي المولّدة للنصوص.

وقد دُرب برنامج "ريبليكا" على نسخة من نموذج روبوت المحادثة "جي بي تي 3" المطور من شركة "أوبن إيه آي"، المطورة لبرنامج "تشات جي بي تي" القادر على تحليل كمية هائلة من البيانات لتوليد نصوص تقدم إجابات متماسكة على أسئلة المستخدمين.

وتعد هذه التكنولوجيا بثورة في عمليات البحث على الإنترنت وفي استخدامات أخرى يُعمل على تطويرها.

غير أن الخبراء يحذرون من أنها تحمل أيضاً في طياتها مخاطر تتطلب قيوداً تشريعية يصعب فرضها حالياً.

- "توتر قوي" -

في الوقت الحالي، يحتل الاتحاد الأوروبي موقعا مركزياً في جهود تنظيم هذه التقنيات الجديدة على صعيد روبوتات الدردشة القائمة على الذكاء الاصطناعي. وقد ينتهي العمل على مشروع قانون "آيه آي أكت" نهاية العام الحالي أو مطلع 2024، ليبدأ تطبيقه بعد بضع سنوات.

ويلفت القانونيون أيضاً إلى صعوبة فهم وضبط "العلبة السوداء" التي يستند عليها منطق تقنيات الذكاء الاصطناعية هذه.

ويعود ذلك إلى وجود خوارزميات مختلفة بالكاملة عن تلك التي تقترح فيديوهات للمشاهدة على تيك توك أو عن نتائج عمليات البحث عبر محرك جوجل، على سبيل المثال.

- تغيير "عميق" -

ويُتوقع طرح "جي بي تي 4"، النموذج الأحدث من "أوبن إيه آي"، قريباً مع طريقة عمل أقرب إلى السلوك البشري.

غير أن هذه البرمجيات للذكاء الاصطناعي لا تزال تقترف أخطاء فادحة على صعيد دقة المعلومات، وقد تُظهر انحيازاً في عملها، ما يفسر طلبات التنظيم المتزايدة.

لكن هذا ليس رأي جيكوب متشانجاما مؤلف كتاب بعنوان "حرية التعبير: من سقراط إلى الشبكات الاجتماعية"، إذ يقول "حتى لو لم يكن لروبوتات المحادثة الحق في حرية التعبير، علينا أن نكون حذرين إزاء إمكان منع الحكومات للتعبير بالبرمجيات الاصطناعية من دون أي عوائق".

ويؤيد الكاتب اعتماد نظام أكثر مرونة في التعامل مع هذه التقنيات. ويقول "من وجهة نظر تشريعية، الخيار الأكثر أمانًا حتى اللحظة يبقى فرض موجبات للشفافية لتحديد ما إذا كنا نتحادث مع كائن بشري أو مع الذكاء الاصطناعي.

كلمات البحث
اقرأ أيضًا:
الأكثر قراءة