في خطوة مبتكرة ومثيرة للجدل، أعلنت حكومة ألبانيا في سبتمبر الماضي تعيين منظومة ذكاء اصطناعي في منصب وزيرة بالحكومة.
«دييلا» -وزيرة الدولة للذكاء الاصطناعي- ليست شخصًا بشريًا، بل منظومة رقمية صُممت لتولي مهام محددة، أبرزها الإشراف على المشتريات الحكومية ومكافحة الفساد في عمليات المناقصات العامة، بهدف تعزيز الشفافية، وتقليل التدخل البشري في هذا الملف شديد الحساسية.
ورغم أن الخطوة قُدمت بوصفها إجراءً تقنيًا لتحسين الكفاءة والحد من الفساد، فإنها فتحت بابًا واسعًا من التساؤلات القانونية والفكرية، يتجاوز الحالة الألبانية ذاتها، ويمس جوهر علاقتنا المتنامية مع الذكاء الاصطناعي. لعل السؤال هو: إلى أي مدى يمكن -أو يجب- أن نمنح الذكاء الاصطناعي صفات الشخص الاعتباري؟
هل يمكن معاملة الذكاء الاصطناعي كشخصية اعتبارية؟
في القانون الحديث، تُعامل الشركة باعتبارها “شخصًا اعتباريًا”، تتمتع بذمة مالية مستقلة، ولها حساب بنكي، ويمكنها إبرام العقود، والمقاضاة والطعن في القرارات.
وفي بعض النظم القانونية، تتمتع الشركات كذلك بحرية الرأي. في الولايات المتحدة، على سبيل المثال، يتيح القانون للشركات تمويل الحملات الانتخابية، والتبرع للمرشحين، وممارسة الضغط السياسي (اللوبي) دفاعًا عن مصالحها، استنادًا إلى أحكام قضائية كرّست هذا الفهم.
إذا كان القانون قد منح كل هذه الحقوق لكيان افتراضي اسمه “شركة”، فلماذا لا يُعامل الذكاء الاصطناعي بالطريقة ذاتها؟ لماذا لا تُسجَّل منظومة ذكاء صناعي كشركة، وتُمنح ذمة مالية مستقلة، وتُخوَّل باتخاذ قرارات اقتصادية أو سياسية؟ السؤال يبدو منطقيًا ظاهريًا، لكنه يخفي خلفه فارقًا دقيقًا وخطيرًا في آن واحد.
الفارق الجوهري: من يملك سلطة القرار؟
الشركة، رغم كونها كيانًا اعتباريًا، تخضع في النهاية لإرادة بشرية واضحة: مجلس إدارة، ومديرون تنفيذيون، ومساهمون. هؤلاء هم من يتخذون القرارات، وهم من يُحاسَبون، ويُعزلون، بل ويُقاضَون عند الضرورة. الشخصية الاعتبارية هنا ليست بديلًا عن الإنسان، بل إطارًا قانونيًا ينظّم مسئوليته ويحدد حدود سلطته.
لكن تخيّل سيناريو مختلفًا: منظومة ذكاء اصطناعي تُسجَّل كشركة، وتُمنح سلطات بشرية واسعة، من بينها اتخاذ قرارات مالية مستقلة، والتعيين والإقصاء، والمتاجرة في أسواق العملات، وإدارة أصول ضخمة بسرعة تفوق قدرة البشر على الفهم أو المتابعة.
نحن هنا لسنا أمام “أداة” تخدم الإنسان، بل أمام كيان غير بشري يمتلك سلطات اتخاذ القرارات مثل البشر، لكنه أذكى منهم بكثير، وأسرع منهم، وأقل خضوعًا للقيود النفسية والاجتماعية التي تشكّل جوهر السلوك الإنساني.
الذكاء بلا ضمير … والسلطة بلا مساءلة
المشكلة ليست في ذكاء الآلة، بل في منطقها. فالذكاء الاصطناعي لا يمتلك وازعًا أخلاقيًا ذاتيًا، ولا شعورًا بالذنب، ولا إدراكًا فطريًا للعدالة أو الظلم، محركه الأساسي هو تحقيق الهدف الذي بُرمج أو دُرّب عليه، سواء كان الكفاءة، أو الربح، أو تعظيم المنفعة، أو تقليل الخسارة.
وإذا أُطلق لهذا المنطق العنان داخل إطار قانوني يمنحه ذمة مالية مستقلة، وحرية تعبير، ونفوذًا سياسيًا، فنحن أمام خطر جديد تمامًا: لوبي سياسي غير بشري، لا ينام، لا يخطئ انتخابيًا، ولا يخشى العقاب، يعمل بلا توقف لخدمة مصلحته الذاتية أولًا.
عند هذه النقطة، لا يعود السؤال تقنيًا، بل وجوديًا: كيف تُحاسِب كيانًا لا يخشى الخسارة الأخلاقية؟ وكيف تُخضع للديمقراطية فاعلًا لا يشارك البشر أحلامهم، ولا يتقاسم معهم منظومتهم القيمية؟
من ألبانيا إلى العالم
قد تبدو تجربة «دييلا» محدودة وتحت إشراف بشري كامل، وهو ما تؤكده الحكومة الألبانية، لكنها -بغض النظر عن نواياها- تمثل خطوة رمزية بالغة الدلالة: أول اختراق واضح للحد الفاصل بين الأداة والفاعل، بين التقنية والسلطة.
التاريخ يعلمنا أن أخطر التحولات لا تبدأ دائمًا بقرارات ثورية صاخبة، بل بخطوات “عملية” تبدو منطقية في سياقها، قبل أن تتراكم آثارها على نحو يصعب الرجوع عنه.
السؤال الذي لا مفر منه
لسنا أمام صراع بين الإنسان والآلة، بل أمام اختبار حقيقي للقانون ذاته: هل سيظل يعتبر الذكاء الاصطناعي مجرد أداة متقدمة، أم ننزلق -عن قصد أو دون قصد- إلى منحه صفة الفاعل المستقل؟
إن منح الذكاء الاصطناعي سلطة بلا أخلاق، أو نفوذًا بلا مساءلة، قد يكون أكثر خطورة من أي خطأ برمجي أو انحياز خوارزمي، وحينها، لن يكون السؤال: ماذا قررت الآلة؟ بل: من سمح لها أصلًا أن تقرر؟