في مؤتمر Black Hat 2025، كشف باحثون في أمن المعلومات عن ثغرة خطيرة من نوع "صفر نقرة" (Zero-Click Exploit) تسمح بالسيطرة على حسابات مستخدمي ChatGPT والوصول إلى ملفاتهم على Google Drive، وحتى حقن أوامر خبيثة داخل المستندات لتسريب بيانات حساسة، وكل ذلك دون أي تفاعل من الضحية.
وفي السياق نفسه، أعلنت شركة Salt Security الأمريكية، عبر ذراعها البحثي Salt Labs، عن اكتشاف ثغرات في نظام الإضافات (Plugins) الخاص بـ ChatGPT، تمكّن من تثبيت إضافات خبيثة والتحايل على نظام المصادقة (OAuth)، ما يتيح للمهاجمين سرقة الحسابات أو الوصول إلى مستودعات خاصة على GitHub.
كما نبّه باحثون مستقلون حول العالم إلى أن تقنيات "حقن الأوامر" (Prompt Injection) قادرة على تجاوز أنظمة الحماية في أدوات الذكاء الاصطناعي التوليدي عبر إدخال تعليمات مخفية أو خبيثة ضمن البيانات، مما يفتح الباب أمام تسريب معلومات أو تنفيذ أوامر غير مرغوبة.
هذه الاكتشافات تؤكد أن التهديدات الأمنية للذكاء الاصطناعي تحدٍ عالمي يستدعي تطوير مستمر لآليات الحماية ويقظة دائمة من المستخدمين والمطورين.