يحدث الذكاء الاصطناعي ثورة في طريقة عمل الأنظمة الرقمية، مشغلا كل شيء بدءا من المساعدات الذكية وصولا إلى دفاعات الأمن السيبراني، مع ذلك، كشفت دراسة جديدة رائدة عن ثغرة مخيفة، حيث يمكن للمخترقين استغلال قدرة الذكاء الاصطناعي على تفسير الصور عن طريق تضمين برمجيات خبيثة داخل صور على الإنترنت تبدو بريئة.
هذه الصور المنتشرة على نطاق واسع عبر وسائل التواصل الاجتماعي والمواقع الإلكترونية، يمكن أن تحمل سرا تعليمات خفية يعالجها الذكاء الاصطناعي ولا يستطيع البشر اكتشافها، حسب ما ورد في صحيفة ” لايف ساينس ” .
تسمح هذه الآلية الخفية للمهاجمين بتجاوز مرشحات الأمان التقليدية واختراق أنظمة الذكاء الاصطناعي، مما قد يتيح لهم الوصول غير المصرح به إلى بيانات المستخدم، أو التحكم في الأجهزة، أو التسبب في خلل في التطبيقات التي تشغلها الذكاء الاصطناعي.
ينبع هذا التهديد من كيفية “رؤية” نماذج الذكاء الاصطناعي للصور بشكل مختلف عن رؤية البشر، بخلاف الإنسان الذي يتعرف على المشهد بصريا، يقسم الذكاء الاصطناعي الصور إلى وحدات بكسل وأنماط، ويعالجها رقميا.
يتلاعب المخترقون ببيانات وحدات البكسل لتضمين “ضوضاء معادية” أو “محفزات وحدات بكسل” وهي أنماط مصممة لتضليل نماذج الذكاء الاصطناعي ودفعها إلى تنفيذ أوامر دون علم المستخدم، فعلى سبيل المثال، يمكن تصميم صورة تبدو غير ضارة بحيث تتيح، عند تحليلها بواسطة عميل ذكاء اصطناعي، الوصول إلى نظام ما من خلال ثغرات أمنية أو استخراج معلومات حساسة.
نظرا لأن هذه التعديلات غير محسوسة للعين البشرية وتتجنب الكشف عنها بواسطة برامج مكافحة الفيروسات أو جدران الحماية، فإن مثل هذه الهجمات تمثل آفاقا جديدة في التهديدات السيبرانية، وتشمل الآثار قطاعات عديدة تعتمد على الذكاء الاصطناعي، بما في ذلك المركبات ذاتية القيادة، وتشخيصات الرعاية الصحية، وأدوات الأمن السيبراني، ومنصات الاتصالات الرقمية.
قد يؤدي الذكاء الاصطناعي الممكن من إساءة تفسير إشارات الطرق أو الصور السريرية إلى حوادث خطيرة أو تشخيصات خاطئة، بينما قد تسمح جدران حماية الذكاء الاصطناعي المخترقة بحركة مرور ضارة أو سرقة بيانات.
إن قابلية توسع متجه الهجوم هذا تضاعف الخطر، إذ يمكن لصورة واحدة متلاعب بها أن تنتشر بسرعة وهدوء عبر ملايين الأجهزة، ويتطلب التصدي لهذا التحدي تطويرا عاجلا لبروتوكولات أمان خاصة بالذكاء الاصطناعي قادرة على اكتشاف وتحييد عمليات التلاعب العدائية بالصور.