سمحت ثغرة تم إصلاحها الآن للباحثين بتجاوز قيود شركة أبل وإجبار نموذجها اللغوي الكبير، الذي يعمل على الأجهزة لتشغيل ميزات “Apple Intelligence”، على تنفيذ إجراءات يتحكم بها المهاجم.
ويوضح منشوران على مدونة “RSAC” كيف جمع الباحثون بين استراتيجيتين هجوميتين من أجل إجبار نموذج الذكاء الاصطناعي التابع لأبل، والذي يعمل محليًا على الأجهزة، على تنفيذ تعليمات يتحكم بها المهاجم عبر حقن الأوامر.
ونجح الباحثون في استغلال الثغرة دون أن يكونوا متأكدين 100% من الطريقة التي يعالج بها نموذج أبل جزءًا من مسار تصفية المدخلات والمخرجات، نظرًا لأن “أبل” لا تكشف عن التفاصيل الدقيقة لآلية عمل نماذجها، على الأرجح لأسباب أمنية، بحسب تقرير لموقع “9to5Mac” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
ومع ذلك، أشار الباحثون إلى أن لديهم فكرة جيدة إلى حد كبير عن الآلية التي يعمل وفقها نموذج الذكاء الاصطناعي. وقال إن السيناريو الأرجح هو أنه بعد أن يرسل المستخدم أمرًا إلى نموذج أبل المُدمج في الجهاز عبر استدعاء واجهة برمجة التطبيقات، يضمن مُرشِّح المدخلات خلو الطلب من أي محتوى غير آمن.
فإذا كان الأمر يتضمن محتوى غير آمن، يفشل الطلب. أما إذا لم يكن كذلك، فيتم تمرير الطلب إلى نموذج الذكاء الاصطناعي الفعلي العامل على الجهاز، والذي يسلّم بدوره الرد إلى مرشح الإخراج ليتحقق مما إذا كانت النتيجة تتضمن محتوى غير آمن، ليقرر بعدها إما رفض الطلب أو السماح بمروره.

