في عام 1962، نشرت مجلة "لايف إنترناشيونال" لغزًا منطقيًا يتكون من 15 جملة تقدم أدلة حول خمس منازل مختلفة، مثل "الرجل الإنجليزي يسكن في المنزل الأحمر". كان على المشاركين تحديد من يملك الحمار الوحشي، مثل هذه الألغاز أصبحت اليوم اختبارًا لقدرات نماذج الذكاء الاصطناعي، وكشفت عن قيودها الكبيرة، وذلك حسبما أفاد موقع quantamagazine المهتم بالشئون التقنية.
موضوعات مقترحة
ضعف الشات بوت في حل المشكلات المعقدة
أجرى الباحثون في معهد "ألين" للذكاء الاصطناعي اختبارات على نماذج لغوية كبيرة مثل ChatGPT لحل هذا النوع من الألغاز، لكن النتائج لم تكن مشجعة. وجد الباحثون أن هذه النماذج تعاني من صعوبة في التفكير المنطقي المتسلسل، حيث تعتمد بشكل أساسي على الأنماط التي تعلمتها خلال التدريب، مما يؤدي إلى إجابات تقريبية وأحيانًا غير صحيحة.
لماذا تفشل النماذج اللغوية في الحسابات؟
على الرغم من أن نماذج مثل GPT-4 تبدو قادرة على الفهم، إلا أنها تخفق في بعض المهام البسيطة مثل عمليات الضرب. في إحدى التجارب، نجح GPT-4 في ضرب رقمين من ثلاثة أرقام بنسبة 59٪ فقط، وعند زيادة الأرقام إلى أربعة، انخفضت الدقة إلى 4٪.
هل هناك حدود لا يمكن تجاوزها؟
أظهرت دراسات رياضية أن بنية الشبكات العصبية المستخدمة في هذه النماذج تواجه قيودًا رياضية تمنعها من حل مشكلات منطقية معقدة. حتى مع زيادة حجم النماذج، فإن المشكلات تصبح أكثر تعقيدًا، مما يحد من قدرتها على تقديم إجابات دقيقة.
البحث عن حلول بديلة
يحاول الباحثون تطوير طرق جديدة لتجاوز هذه التحديات، مثل تقديم الحلول خطوة بخطوة داخل المدخلات أو استخدام تقنيات تعلم متقدمة. ومع ذلك، تبقى هذه المحاولات حلولًا مؤقتة لا تغير من حقيقة أن الذكاء الاصطناعي الحالي لا يزال بعيدًا عن الفهم الحقيقي والاستنتاج الذاتي.
هل يهتم المستخدم العادي بهذه المشاكل؟
بالنسبة للمستخدمين، قد لا يكون من المهم ما إذا كانت هذه النماذج "تفكر" فعليًا أو لا، طالما أنها تؤدي المهام المطلوبة منها بكفاءة. لكن بالنسبة للباحثين والمطورين، فهم هذه القيود ضروري لتحسين قدرات الذكاء الاصطناعي في المستقبل.