في تحذير جديد يعيد الجدل حول الاستخدامات الخطيرة لتقنيات الذكاء الاصطناعي، كشفت صحيفة «نيويورك تايمز» عن تصاعد ظاهرة تهديدات إلكترونية مولّدة بالذكاء الاصطناعي، تستهدف ناشطين وشخصيات عامة بصور وأصوات تحاكيهم في مشاهد عنف مروّعة.
موضوعات مقترحة
القصة بدأت في أستراليا، حيث تلقت الناشطة كيتلين روبر، العضو في منظمة «Collective Shout» المعنية بمكافحة الاستغلال الجنسي عبر الإنترنت، موجة من الصور المفبركة تُظهرها مشنوقة أو تحترق، بتفاصيل دقيقة لدرجة أن بعض اللقطات أظهرتها مرتدية فستانًا حقيقيًا تملكه في الواقع.
وقالت روبر في تصريحاتها: «التفاصيل الصغيرة هي ما يجعل الأمر أكثر رعبًا.. إنه انتهاك من نوع جديد، لأن هذه الصور تُجسّد خيالات العنف بطريقة واقعية تجعل التهديد يبدو حقيقيًا».
ويرى الخبراء أن هذه الموجة تمثل مرحلة جديدة من إساءة استخدام الذكاء الاصطناعي، بعد أن استُخدم سابقًا في تقليد الأصوات البشرية لإجراء عمليات احتيال أو في إنتاج مواد إباحية زائفة، لكن الجديد هذه المرة هو توظيف الذكاء الاصطناعي لتوليد تهديدات شخصية واقعية تبدو وكأنها توثّق جرائم حقيقية ضد الضحايا.
البروفيسور هاني فريد، أستاذ علوم الحاسب بجامعة كاليفورنيا - بيركلي، علّق قائلًا: «كل مرة نطوّر فيها تقنية جديدة، نجد جانبين متناقضين: أحدهما مبدع ومفيد، والآخر مظلم ومدمّر. المقلق في الأمر أن هذه النتائج لم تكن مفاجئة».
ويرى خبراء الأمن السيبراني أن سهولة الوصول إلى أدوات الذكاء الاصطناعي التوليدي، مثل نماذج توليد الصور والصوت والفيديو، فتحت الباب أمام نوع جديد من العنف الرقمي يصعب رصده أو محاسبته قانونيًا، خاصة عندما تُستخدم هذه التقنيات في حملات ترهيب تستهدف ناشطين أو صحفيين أو معارضين سياسيين.
ويحذر مختصون من أن استمرار غياب التشريعات المنظمة لاستخدام الذكاء الاصطناعي قد يحول هذه الأدوات من وسيلة للإبداع إلى سلاح يُستخدم لنشر الرعب والتلاعب بالحقائق على نطاق واسع.