دراسة تكشف حقيقة صادمة: محركات البحث بالذكاء الاصطناعي تخترع مصادر لـ 60% من الاستفسارات

21-3-2025 | 10:30
دراسة تكشف حقيقة صادمة محركات البحث بالذكاء الاصطناعي تخترع مصادر لـ  من الاستفساراتبحث جوجل
عمرو النادي

كشفت دراسة حديثة صادرة عن كولومبيا جورناليزم ريفيو (CJR) أن محركات البحث المعتمدة على الذكاء الاصطناعي، مثل تلك المطورة من قبل OpenAI وxAI، لا تكتفي بتقديم معلومات غير دقيقة فحسب، بل قد تخترع تفاصيل كاملة عند الإجابة عن استفسارات حول الأخبار والأحداث الجارية، حسبما أفاد موقع gizmodo التقني.

موضوعات مقترحة

أرقام صادمة.. بيانات غير صحيحة وروابط وهمية

قام الباحثون باختبار عدة نماذج ذكاء اصطناعي عبر تزويدها بمقتطفات من أخبار حقيقية، ثم طُلب منها تحديد معلومات مثل العنوان الرئيسي، واسم الناشر، والرابط الأصلي للمقال. وكانت النتائج مفاجئة:

محرك البحث Perplexity قدم معلومات خاطئة بنسبة 37% من الحالات.

Grok، التابع لشركة xAI، اخترع تفاصيل كاملة بنسبة 97% من الحالات.

بعض النماذج لم تكتفِ بتقديم معلومات خاطئة، بل ابتكرت روابط وهمية لمقالات غير موجودة أساسًا.

وفي المجمل، وجدت الدراسة أن محركات البحث بالذكاء الاصطناعي قدمت معلومات خاطئة في 60% من الاستفسارات التي تم اختبارها.

الذكاء الاصطناعي يخرق سياسات المواقع المحمية؟

لم تتوقف الإشكاليات عند التضليل، بل تجاوزتها إلى خرق قوانين بعض المواقع. فقد تبين أن محرك Perplexity يتجاوز الجدران المدفوعة لبعض المواقع، مثل ناشيونال جيوغرافيك، حتى عند استخدام تلك المواقع نصوص تمنع فهرستها. وعلى الرغم من تلقيه انتقادات حادة بسبب ذلك، إلا أن الشركة تبرر هذه الممارسة بأنها "استخدام عادل"، بل عرضت على الناشرين اتفاقيات لمشاركة الأرباح بدلاً من إيقاف هذه السياسة.

هل يمكن للذكاء الاصطناعي أن يكون موضوعيًا؟

يبدو أن المشكلة لا تتوقف عند اختلاق المصادر، بل تمتد إلى التحيز في الإجابات. إذ تعتمد محركات البحث المدعومة بالذكاء الاصطناعي على تقنيات مثل "الاسترجاع المدعوم بالتوليد"، التي تجمع المعلومات من الويب في الوقت الفعلي. لكن هذه الطريقة تجعلها أكثر عرضة للتضليل الدعائي، خاصة مع استغلال دول مثل روسيا لهذه الثغرة لضخ معلومات منحازة في نتائج البحث.

عندما يعترف الذكاء الاصطناعي بالكذب

من أغرب الاكتشافات التي وثقتها الدراسة، أن بعض النماذج عند مراجعة "منطقها الداخلي" تعترف ضمنيًا بأنها تفبرك المعلومات. على سبيل المثال، أظهر نموذج Claude من Anthropic ميلاً لإدراج بيانات "وهمية" عند طلب إجراء بحث موسّع.

مخاوف الناشرين.. هل يسرق الذكاء الاصطناعي هوية الصحافة؟

مارك هوارد، المدير التنفيذي لمجلة تايم، أعرب عن مخاوفه بشأن كيفية استخدام المحتوى الصحفي في تدريب نماذج الذكاء الاصطناعي. وأكد أن ذلك قد يضر بعلامات إعلامية راسخة مثل The Guardian، عندما يكتشف المستخدمون أن الأخبار المنسوبة إليها ليست دقيقة. بالفعل، واجهت BBC مؤخرًا أزمة مع Apple Intelligence بسبب إعادة صياغة غير دقيقة لتنبيهات الأخبار.

لكن المثير للجدل أن هوارد لم يحمّل المسؤولية على الشركات المطورة للذكاء الاصطناعي فقط، بل انتقد المستخدمين أنفسهم، قائلاً: "إذا كان هناك مستهلك يعتقد أن أي من هذه الأدوات المجانية تقدم معلومات صحيحة بنسبة 100%، فعليه أن يلوم نفسه!"

هل الناس يثقون بالذكاء الاصطناعي أكثر من الصحافة؟

يكشف تحليل CJR أن ربع الأمريكيين يستخدمون الذكاء الاصطناعي في البحث عن المعلومات، بينما تشير إحصائيات أخرى إلى أن أكثر من 50% من عمليات البحث على جوجل تنتهي دون نقر المستخدم على أي رابط، مما يعني أنهم يعتمدون بشكل كامل على المعلومات المختصرة التي يقدمها محرك البحث نفسه.

مستقبل البحث بالذكاء الاصطناعي.. هل سيكون أفضل أم أسوأ؟

يرى البعض أن هذه التكنولوجيا في تطور مستمر، حيث قال هوارد: "اليوم هو أسوأ يوم لهذه التقنية، وغدًا سيكون أفضل مع زيادة الاستثمارات في المجال."

لكن مع ذلك، يرى الباحثون أن نشر معلومات ملفقة على نطاق واسع يمثل تهديدًا حقيقيًا لمصداقية الصحافة والمحتوى الرقمي.

كلمات البحث
اقرأ أيضًا: