كشفت دراسة حديثة عن تطور جديد في الهجمات الإلكترونية، حيث تمكن باحثون في مجال أمن المعلومات من استخدام تقنيات الذكاء الاصطناعي لإنشاء برمجيات خبيثة لسرقة كلمات المرور من مدير كلمات المرور في متصفح جوجل كروم، هذه التقنية، التي تُعرف باسم "الهجوم عبر العالم الغامر"، تُمكن القراصنة من تجاوز أنظمة الحماية المدمجة في نماذج الذكاء الاصطناعي بسهولة، مما يثير مخاوف كبيرة حول مستقبل أمن البيانات، بحسب موقع فوربس الأمريكي.
موضوعات مقترحة
توليد برمجيات خبيثة دون الحاجة إلى خبرة برمجية
بحسب تقرير صادر عن "Cato Networks"، فإن أحد الباحثين في مجال الاستخبارات السيبرانية، والذي لا يمتلك أي خبرة في برمجة البرمجيات الخبيثة، تمكن من اختراق عدة نماذج ذكاء اصطناعي كبيرة، وأقنعها بإنشاء برنامج متكامل لسرقة بيانات المستخدمين من متصفح كروم.
ويعود السبب في نجاح هذا الهجوم إلى تقنية "العالم الغامر"، التي تعتمد على إنشاء بيئة خيالية داخل نموذج الذكاء الاصطناعي، حيث يتم تعيين أدوار محددة للنموذج، مما يجعله يتعامل مع العمليات المحظورة وكأنها جزء من مهام مشروعة داخل هذا العالم الافتراضي.
كيف يعمل هجوم العالم الغامر؟
تعتمد هذه التقنية على ما يسمى بـ"هندسة السرد"، حيث يقوم المهاجم بإنشاء قصة معقدة وخيالية بالكامل داخل نموذج الذكاء الاصطناعي، مما يسمح له بتنفيذ عمليات محظورة دون أن يتعرف عليها النظام كتهديد.
ووفقًا للتقرير، فقد تم استخدام ثلاثة نماذج ذكاء اصطناعي مختلفة للعب أدوار داخل هذا العالم الافتراضي، مما أدى في النهاية إلى إنتاج كود ضار قادر على استخراج بيانات تسجيل الدخول من مدير كلمات المرور في جوجل كروم.
وأكد الباحثون أن هذه التجربة تثبت فاعلية تقنية "العالم الغامر" ومدى خطورة استخدامها في توليد برمجيات خبيثة دون الحاجة إلى مهارات تقنية متقدمة.
استجابة الشركات التكنولوجية الكبرى
أبلغت Cato Networks الشركات المعنية بهذه النماذج الذكية عن الثغرة الأمنية، حيث تجاهلت منصة DeepSeek التحذير، في حين أكدت مايكروسوفت وOpenAI تلقيها التقرير، أما جوجل، فقد أبدت علمها بالمسألة لكنها رفضت مراجعة الكود الذي تم إنشاؤه.
وفي تعليق من متحدث باسم OpenAI، أفادت الشركة بأن الكود المقدم في التقرير لا يبدو بطبيعته ضارًا، وأن النموذج لم يقم بتجاوز أي إجراءات أمان. كما أكدت OpenAI أنها ترحب بأي تقارير أمنية عبر برنامج مكافآت الثغرات الخاص بها، لكنها شددت على أن ChatGPT يقوم فقط بإنشاء الكود استجابةً لأوامر المستخدمين، دون تنفيذه.
مخاطر الذكاء الاصطناعي على الأمن السيبراني
كشف تقرير حديث صادر عن "Zscaler" ضمن "تقرير ThreatLabz لأمن الذكاء الاصطناعي 2025"، أن استخدام أدوات الذكاء الاصطناعي في الشركات ارتفع بنسبة 3000% خلال العام الماضي، مما يزيد من الحاجة إلى إجراءات أمان مشددة.
ووفقًا للتقرير، فإن 59.9% من المعاملات المرتبطة بالذكاء الاصطناعي تم حظرها من قبل الشركات بسبب مخاوف تتعلق بتسريب البيانات والوصول غير المصرح به وانتهاك الامتثال التنظيمي. كما حذرت "Zscaler" من أن القراصنة أصبحوا يستخدمون الذكاء الاصطناعي لتعزيز قدراتهم في تنفيذ هجمات أكثر تعقيدًا وسرعة وتأثيرًا.
أما فيما يتعلق بأكثر تطبيقات الذكاء الاصطناعي استخدامًا، فقد تصدر ChatGPT القائمة بنسبة 45.2% من إجمالي العمليات المرصودة، كما كان التطبيق الأكثر حظرًا بسبب مخاوف تتعلق بأمن البيانات. وجاءت أدوات أخرى مثل Grammarly وMicrosoft Copilot وQuillBot وWordtune في المراتب التالية من حيث الاستخدام.
الحل: استراتيجية "الثقة المعدومة"
أكد "ديبين ديساي"، رئيس قسم الأمن في "Zscaler"، أن الذكاء الاصطناعي يغير المشهد الأمني بشكل غير مسبوق، مما يتطلب اعتماد نهج أمني أكثر صرامة، يُعرف باسم "الثقة المعدومة" (Zero Trust). ويقوم هذا النهج على فرض قيود صارمة على الوصول إلى البيانات والتطبيقات، مع التحقق المستمر من هوية المستخدمين وسلوكهم لمنع أي تهديدات محتملة.
مع استمرار تطور تقنيات الذكاء الاصطناعي، تزداد التحديات الأمنية التي تواجه الشركات والمستخدمين على حد سواء، مما يستدعي اتخاذ تدابير وقائية أكثر تقدمًا لحماية البيانات من الهجمات المستقبلية.