في خطوة أثارت الجدل، أوقفت آبل مؤخرًا برنامجها الجديد للذكاء الاصطناعي المعروف بـ Apple Intelligence بعد أن تعرض لانتقادات واسعة بسبب تقديمه أخبارًا مزيفة وتفسيرات خاطئة للعناوين الإخبارية، وذلك بحسب موقع futurism التقني المتخصص.
موضوعات مقترحة
هذا القرار يأتي بعد تحذيرات من مهندسي الشركة بشأن العيوب العميقة في هذه التقنية، ولكن يبدو أن هذه التحذيرات لم تمنع آبل من المضي قدمًا في إطلاقها.
الذكاء الاصطناعي لا "يفكر" بل يقلد
في أكتوبر الماضي، أصدر فريق من باحثي آبل دراسة كشفت عن مشكلات كبيرة في نماذج الذكاء الاصطناعي الحالية. الدراسة، التي لم تخضع بعد لمراجعة الأقران، أثبتت أن هذه النماذج لا تعتمد على التفكير الرياضي الحقيقي، بل على محاكاة خطوات الحلول التي تدربت عليها مسبقًا.
وقال الباحثون: "بدلاً من التفكير، تحاول النماذج تقليد خطوات التفكير الموجودة في بيانات تدريبها."
فجوات مذهلة في الأداء
لتقييم قدرة النماذج، اختبر الباحثون 20 نموذجًا على آلاف المسائل الرياضية من مجموعة بيانات معيارية تدعى GSM8K. على الرغم من بساطة بعض الأسئلة، مثل: "اشترى جيمس 5 عبوات من اللحم، وزن كل منها 4 أرطال، وسعر الرطل 5.50 دولار. كم دفع جيمس؟"، إلا أن التغييرات البسيطة مثل تعديل الأرقام أو إضافة تفاصيل غير ضرورية تسببت في انخفاض ملحوظ في دقة الإجابات.
عند إدخال تفاصيل عشوائية، مثل ذكر أن بعض الفواكه "أصغر من المعتاد"، انخفضت دقة بعض النماذج بنسبة تصل إلى 65%. حتى النماذج الأكثر تقدمًا، مثل o1-preview من OpenAI، سجلت انخفاضًا بنسبة 17.5%، بينما تراجع أداء GPT-4o بنسبة 32%.
الذكاء الاصطناعي يفتقر للمنطق
أشارت الدراسة إلى أن السبب الأساسي لهذه الأخطاء هو أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط بدلاً من المنطق السليم. وقال الباحثون: "النماذج تظهر ذكاءً ظاهريًا، لكنها تفشل في التعامل مع المشكلات عندما تتطلب فهمًا حقيقيًا بدلاً من نسخ الحلول."
لماذا تم إطلاق النموذج رغم العيوب؟
على الرغم من هذه العيوب الواضحة، أطلقت آبل نموذجها الخاص، وهو قرار يتماشى مع النهج المتبع في صناعة الذكاء الاصطناعي ككل، حيث تتسابق الشركات لإطلاق التقنيات قبل ضمان كفاءتها التامة.