Close ad

موظفون سابقون بشركات الذكاء الاصطناعي يكشفون عن معلومات خطيرة حول آليات عمل المواقع

5-6-2024 | 14:42
موظفون سابقون بشركات الذكاء الاصطناعي يكشفون عن معلومات خطيرة حول آليات عمل المواقعأرشيفية

حذر بعض العاملين الحاليين والسابقين من نقص الرقابة على سلامة صناعة الذكاء الاصطناعي، ووقع هؤلاء العاملون، خطاباً يطالبون بمزيد من الحماية للمبلغين عن المخالفات، والذين يقررون التعبير عن مخاوفهم المتعلقة بالسلامة.

موضوعات مقترحة

وذكرت مصادر مطلعة بحسب قناة العربية، أن عدد الموظفين الذين وقعوا على الرسالة 11 موظفاً حالياً وسابقاً في OpenAI، بالإضافة إلى اثنين من موظفي "Google DeepMind" الحاليين أو السابقين - أحدهما كان يعمل سابقاً في "Anthropic".

ودعت الرسالة الموقعة "التي نشرتها صحيفة نيويورك تايمز ـ وهي واحدة من أكثر التصريحات العلنية حول مخاطر الذكاء الاصطناعي من جانب الموظفين ضمن صناعة تعتبر سرية بشكل عام ـ إلى "الحق في التحذير من الذكاء الاصطناعي. 

وطالب العاملون فى الرسالة بالالتزام بأربعة مبادئ حول الشفافية والمساءلة، بما في ذلك بند ينص على أن الشركات لن تجبر الموظفين على التوقيع على أي اتفاقيات عدم الاستخفاف التي تحظر بث قضايا الذكاء الاصطناعي المتعلقة بالمخاطر وآلية للموظفين لتبادل المخاوف مع أعضاء مجلس الإدارة دون الكشف عن هويتهم.

وجاء في الرسالة: "تمتلك شركات الذكاء الاصطناعي معلومات كبيرة غير عامة حول قدرات أنظمتها والقيود المفروضة عليها، ومدى كفاية تدابير الحماية الخاصة بها، ومستويات مخاطر أنواع مختلفة من الضرر". "ومع ذلك، ليس لديهم حالياً سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليهم جميعاً لتقاسمها طوعاً".

كما ذكرت الرسالة: "طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور". "ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا".

وحاولت شركة OpenAI  الدفاع عن ممارساتها في بيان، مشيرة إلى أن لديها طرقاً مثل خط إرشادي للإبلاغ عن المشكلات في الشركة وأنها لم تطلق تقنية جديدة حتى تكون هناك ضمانات مناسبة، وفقاً لما ذكرته صحيفة "الجارديان".

وقال متحدث باسم "OpenAI":"متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظراً لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم".

وأضاف: "نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أماناً ونؤمن بنهجنا العلمي لمعالجة المخاطر"..
وبينما حذر الباحثون والموظفون من نقص الرقابة لأن أدوات الذكاء الاصطناعي تؤدي إلى تفاقم الأضرار الاجتماعية الحالية أو خلق أضرار جديدة تماماً، أعلنت شركات الذكاء الاصطناعي علناً عن التزامها بتطوير التكنولوجيا بأمان.

ورغم أن المخاوف من الأضرار المحتملة للذكاء الاصطناعي موجودة منذ عقود، لكن طفرة الذكاء الاصطناعي في السنوات الأخيرة زادت من حدة هذه المخاوف وتركت الهيئات التنظيمية تسعى جاهدة للحاق بالتقدم التكنولوجي. 

وتأتي الرسالة بعد استقالة اثنين من كبار موظفي OpenAI، منهم المؤسس المشارك إيليا سوتسكيفر وباحث السلامة الرئيسي جان لايكي، من الشركة الشهر الماضي. وبعد رحيله، زعم لايكي أن شركة OpenAI تخلت عن ثقافة السلامة لصالح "المنتجات اللامعة".

كلمات البحث
اقرأ أيضًا:
الأكثر قراءة