لأول مرة.. «البريد» يصدر شهادة بسعر المشغولات الذهبية| تفاصيل | مصطفى كامل: لا أُجيد فنون التمثيل والنفاق والكذب.. وأتمنى أن يُلهمني الله اتخاذ القرار الصحيح | منى زكي بعد عرض فيلم «الست» في مراكش: سعيدة جدا بردود الفعل الجميلة من الجمهور والنقاد | افتتاح مسجد آل عرابي بمركز جرجا في سوهاج بعد أعمال الإحلال والتجديد| صور | "إيديكس 2025” يحسم المشهد.. مكاسب إستراتيجية وتحول تاريخي في التصنيع العسكري المصري | "منظومة مرور بلا أوراق".. إطلاق شهادة المخالفات المرورية الإلكترونية بديلاً عن الورقية بدءًا من الغد | وزير الخارجية يؤكد ضرورة تمكين قوة الاستقرار الدولية من أداء مهامها لترسيخ وقف إطلاق النار بقطاع غزة | ملتقى "أهل مصر" لثقافة المرأة بشرم الشيخ يناقش العلاقة بين ريادة الأعمال والاقتصاد والتنمية | صور | هربت من المذاكرة.. الأمن يعثر على طالبة دار السلام تعمل بمحل ملابس بالغربية | أسهم الصين ترتفع بدعم شركات تصنيع الرقائق |

تحذير صادم.. الذكاء الاصطناعي قد يصنع أسلحة بيولوجية

25-6-2025 | 19:19
تحذير صادم الذكاء الاصطناعي قد يصنع أسلحة بيولوجيةالأسلحة البيولوجية - أرشيفية

كشفت شركة OpenAI عن قدرات خطيرة محتملة لنماذج الذكاء الاصطناعي الجديدة التي تطورها، قائلة إن هذه الأنظمة الذكية قد تصل إلى درجة تمكنها من المساعدة في تصنيع أسلحة بيولوجية متطورة، وفق روسيا اليوم . 

موضوعات مقترحة

وجاء هذا الإفصاح المثير في منشور رسمي للشركة، أقرت فيه بأنها توازن بين سعيها لتحقيق تقدم علمي مذهل في مجالات مثل الأبحاث الطبية الحيوية والدفاع البيولوجي، وبين مسؤوليتها في منع تسريب معلومات خطيرة قد تهدد الأمن العالمي.


وفي تصريح خاص لموقع Axios، أوضح يوهان هايديكي، رئيس قسم السلامة في الشركة، أن النماذج القادمة لن تكون قادرة على تصنيع أسلحة بيولوجية بشكل مستقل، لكنها ستوفر أدوات معرفية كافية لتمكين أفراد غير متخصصين من تنفيذ مثل هذه المهام الخطيرة. وأضاف هايديكي أن القلق الأكبر لا يتمحور حول ابتكار تهديدات بيولوجية جديدة غير مسبوقة، بل حول إمكانية هذه النماذج في إعادة إنتاج تهديدات معروفة بالفعل لدى الخبراء.

وتتوقع الشركة أن تصل بعض النماذج التطويرية اللاحقة لنموذجها الاستدلالي "o3" إلى هذا المستوى من الخطورة، ما دفعها لاعتماد استراتيجية وقائية صارمة. فبدلا من الانتظار لمعرفة ما إذا كانت هذه التهديدات ستصبح حقيقة واقعة، اختارت OpenAI المضي قدما في تطوير ضوابط أمان متقدمة تصل إلى درجة "الكمال شبه التام"، حيث يجب أن تتمكن الأنظمة من اكتشاف أي محاولات لاستغلالها في أغراض ضارة وإبلاغ المشرفين البشر عنها فورا.

لكن هذه الطموحات الوقائية لا تخلو من مخاطر جسيمة، حيث توجد إمكانية حقيقية لاستغلال هذه التقنيات المتطورة من قبل جهات غير مسئولة في أعمال تتعارض مع حقوق الإنسان.

ويأتي هذا الجدل في وقت تشهد فيه صناعة الذكاء الاصطناعي تحولات جذرية، حيث تزداد القدرات التقنية بشكل مطرد بينما تظل الضوابط الأخلاقية والتنظيمية عاجزة عن مواكبة هذه التطورات السريعة.

كلمات البحث
اقرأ أيضًا: