
- منذ ظهور نماذج الذكاء الاصطناعي المتقدمة، بدأ المخترقون والجهات ذات النوايا السيئة في استغلالها بطرق غير قانونية، رغم محاولات الشركات التقنية فرض ضوابط صارمة للحد من إساءة استخدامها. ويكمن التحدي الحقيقي في قدرة هؤلاء على التحايل وابتكار أساليب جديدة لاختراق الأنظمة، وفقًا لتقرير نشره موقع "androidauthority" واطلعت عليه "العربية Business".
- يكشف تقرير لمجموعة Threat Intelligence Group التابعة لشركة غوغل حول إساءة استخدام الذكاء الاصطناعي التوليدي عن محاولات من قبل مجموعات دولية لاستغلال نماذج غوغل بطرق ضارة. وفي هذا السياق، أصبح تطبيق "ديب سيك" غير متوفر على متجري تطبيقات "أبل" و"غوغل" في إحدى الدول، مما يعكس الجهود المبذولة للحد من إساءة استخدام هذه التقنيات.
يحدد التقرير نوعين رئيسيين من الهجمات:
- الهجمات المساعدة، حيث يُستخدم الذكاء الاصطناعي لإنشاء تعليمات برمجية قد تُستغل في بناء برامج ضارة.
- الهجمات المباشرة، التي تستهدف جعل الذكاء الاصطناعي يؤدي إجراءات غير مرغوب فيها، مثل جمع بيانات الحسابات.
كما يشير التقرير إلى وجود فئتين من المهاجمين:
- التهديدات المستمرة المتقدمة (APT)، وهي مجموعات قرصنة كبيرة غالبًا ما تكون ممولة من دول.
- عمليات المعلومات (IO)، التي تعتمد على الخداع وإحداث الفوضى في وسائل التواصل الاجتماعي.
- وتُظهر التقارير أن جهات من دول مثل الصين، وإيران، وكوريا الشمالية، وروسيا، حاولت استغلال نموذج الذكاء الاصطناعي "Gemini" في أنشطة تتراوح بين قرصنة البيانات وتطوير برمجيات خبيثة، وصولاً إلى التلاعب بالمعلومات على منصات التواصل الاجتماعي. وعلى الرغم من فشل معظم هذه المحاولات في تجاوز أنظمة الأمان الصارمة لـ "Gemini"، فقد استُخدم الذكاء الاصطناعي في البحث عن ثغرات برمجية وتلخيص بيانات استخباراتية وتعزيز أساليب الخداع الرقمي.
- بالإضافة إلى ذلك، لجأت بعض المجموعات إلى استخدام الذكاء الاصطناعي لصياغة محتوى مضلل بأساليب أكثر إقناعًا، مما يزيد من صعوبة كشف حملات التضليل. ورغم الجهود المتواصلة من "غوغل" لتعزيز أمن منصاتها، فإن استغلال الذكاء الاصطناعي لأغراض غير مشروعة يظل يشكل تهديدًا عالميًا متصاعدًا يستدعي تكثيف الجهود الأمنية والرقابية.