تحذير صادم من OpenAI.. الذكاء الاصطناعي قد يصنع أسلحة بيولوجية !

كشفت شركة OpenAI عن قدرات خطيرة محتملة لنماذج الذكاء الاصطناعي الجديدة التي تطورها، قائلة إن هذه الأنظمة الذكية قد تصل إلى درجة تمكنها من المساعدة في تصنيع أسلحة بيولوجية متطورة.
وجاء هذا الإفصاح المثير في منشور رسمي للشركة أقرت فيه بأنها توازن بين سعيها لتحقيق تقدم علمي مذهل في مجالات مثل الأبحاث الطبية الحيوية والدفاع البيولوجي، وبين مسؤوليتها في منع تسريب معلومات خطيرة قد تهدد الأمن العالمي.
وفي تصريح خاص لموقع Axios، أوضح يوهان هايديكي، رئيس قسم السلامة في الشركة، أن النماذج القادمة لن تكون قادرة على تصنيع أسلحة بيولوجية بشكل مستقل، لكنها ستوفر أدوات معرفية كافية لتمكين أفراد غير متخصصين من تنفيذ مثل هذه المهام الخطيرة. وأضاف هايديكي أن القلق الأكبر لا يتمحور حول ابتكار تهديدات بيولوجية جديدة غير مسبوقة، بل حول إمكانية هذه النماذج في إعادة إنتاج تهديدات معروفة بالفعل لدى الخبراء.
وتتوقع الشركة أن تصل بعض النماذج التطويرية اللاحقة لنموذجها الاستدلالي “o3” إلى هذا المستوى من الخطورة، ما دفعها لاعتماد استراتيجية وقائية صارمة. فبدلا من الانتظار لمعرفة ما إذا كانت هذه التهديدات ستصبح حقيقة واقعة، اختارت OpenAI المضي قدما في تطوير ضوابط أمان متقدمة تصل إلى درجة “الكمال شبه التام”، حيث يجب أن تتمكن الأنظمة من اكتشاف أي محاولات لاستغلالها في أغراض ضارة وإبلاغ المشرفين البشر عنها فورا.
لكن هذه الطموحات الوقائية لا تخلو من مخاطر جسيمة، حيث توجد إمكانية حقيقية لاستغلال هذه التقنيات المتطورة من قبل جهات غير مسئولة في أعمال تتعارض مع حقوق الإنسان.
ويأتي هذا الجدل في وقت تشهد فيه صناعة الذكاء الاصطناعي تحولات جذرية، حيث تزداد القدرات التقنية بشكل مطرد بينما تظل الضوابط الأخلاقية والتنظيمية عاجزة عن مواكبة هذه التطورات السريعة.
المصدر: Futurism