هل يمكن للمحتالين استغلال الذكاء الاصطناعي في المستقبل؟

مع التقدم السريع في تقنيات الذكاء الاصطناعي، تبرز تساؤلات حول كيفية استغلال هذه التقنيات من قبل المحتالين لتنفيذ عمليات احتيال معقدة ومتطورة.
ويعتبر الذكاء الاصطناعي سلاحًا ذا حدين، فمن ناحية، يُسهم في تطوير حلول مبتكرة في مختلف المجالات، ومن ناحية أخرى، يمكن أن يُستخدم بطرق غير قانونية تهدد الأمن السيبراني والخصوصية.
وفي هذا التقرير، من بانكير، نسلط الضوء على ماذا يمكن للمحتالين فعله بالذكاء الاصطناعي في المستقبل.
استغلال الذكاء الاصطناعي في عمليات الاحتيال
ويمكن استخدام الذكاء الاصطناعي بالنسبة للمحتالين بعدة طرق، منها:
التزييف العميق (Deepfake)
تعد تقنية التزييف العميق من أبرز الأمثلة على استغلال الذكاء الاصطناعي في الاحتيال، وتمكن هذه التقنية من إنشاء مقاطع فيديو أو صور مزيفة تبدو حقيقية للغاية، مما يسهل على المحتالين انتحال شخصيات معروفة أو خداع الأفراد.
وعلى سبيل المثال، في هونغ كونغ، تم استخدام تقنية التزييف العميق لسرقة 26 مليون يورو عبر انتحال شخصية مدير شركة كبرى.
التصيد الاحتيالي المتقدم
ويستغل المحتالون الذكاء الاصطناعي لإنشاء رسائل بريد إلكتروني ومواقع ويب مزيفة تبدو وكأنها من جهات موثوقة، وبفضل تقنيات التعلم الآلي، يمكن لهذه الرسائل تجاوز أنظمة الكشف التقليدية، مما يزيد من احتمالية وقوع الضحايا في الفخ.
وأشار تقرير حديث من مؤسسات أمن سيبراني، إلى أن أدوات الذكاء الاصطناعي تعزز من تعقيد عمليات الاحتيال عبر الإنترنت، مثل التصيد الاحتيالي، من خلال إنتاج نصوص وصور وفيديوهات بدقة عالية، مما يصعب اكتشاف الاحتيال.
الاحتيال الصوتي
وبالإضافة إلى الصور والفيديو، يمكن للذكاء الاصطناعي تقليد الأصوات بدقة عالية، ويستخدم المحتالون هذه التقنية للاتصال بالضحايا وانتحال شخصيات معروفة أو مقربة، مما يدفع الضحايا لتحويل أموال أو تقديم معلومات حساسة.
وفي إحدى الحالات، تم استخدام تقنية التزييف الصوتي لسرقة ملايين الدولارات من شركة بعد انتحال صوت المدير التنفيذي.
تجاوز أنظمة التحقق من الهوية
ويتمثل الاحتيال التوليدي باستخدام الذكاء الاصطناعي في إنشاء مستندات وصور مزيفة تهدف إلى تجاوز أنظمة الأمان.
ويمكن للجهات غير الشرعية استخدام تقنيات الذكاء الاصطناعي التوليدية لإنشاء مستندات تبدو حقيقية بما يكفي لتجاوز الأنظمة الأمنية التقليدية، مما يؤدي إلى إنشاء حسابات غير حقيقية باستخدام وثائق هوية مزيفة.
التحديات المستقبلية
ومع استمرار تطور تقنيات الذكاء الاصطناعي، يتوقع أن تصبح عمليات الاحتيال أكثر تعقيدًا وصعوبة في الكشف، حيث تشير التقديرات إلى أن الاحتيال المدعوم بالذكاء الاصطناعي قد يؤدي إلى خسائر تصل إلى 40 مليار دولار سنويًا بحلول عام 2027.
جهود مكافحة الاحتيال المدعوم بالذكاء الاصطناعي
وفي مواجهة هذه التحديات، تعمل المؤسسات على تطوير تقنيات مضادة تعتمد على الذكاء الاصطناعي للكشف عن الأنشطة الاحتيالية، حيث يتجلى الذكاء الاصطناعي للكشف عن الاحتيال كحليف استراتيجي، حيث يوفر قدرات ديناميكية للتصدي لتقنيات الاحتيال المتجددة.
وبينما يوفر الذكاء الاصطناعي فرصًا هائلة للتقدم والابتكار، فإنه يحمل في طياته مخاطر استغلاله من قبل المحتالين بطرق متطورة، ويتطلب التصدي لهذه التحديات تعاونًا دوليًا وتطوير تقنيات دفاعية متقدمة، بالإضافة إلى توعية الأفراد حول أساليب الاحتيال الحديثة وكيفية الحماية منها.