الجمعة 2025-06-13 09:00 م
 

بنوك أردنية تحذر من أسلوب احتيال جديد يستخدم الذكاء الاصطناعي لتقليد الأصوات

تعبيرية
تعبيرية
 
11:04 م
الوكيل الإخباري-   وجّهت بنوك أردنية تحذيرات رسمية للمواطنين من أسلوب احتيالي جديد بدأ ينتشر في المملكة، يستخدم تقنيات الذكاء الاصطناعي لتقليد أصوات الأشخاص بدقة عالية بهدف تنفيذ عمليات نصب مالي.اضافة اعلان


وبحسب الرسائل التحذيرية الصادرة عن عدد من البنوك، فإن المحتالين يقومون بجمع تسجيلات صوتية للضحية عبر المكالمات الهاتفية أو الرسائل الصوتية، ثم يستخدمون أدوات تعتمد على الذكاء الاصطناعي لتحويل هذه المقاطع إلى نموذج صوتي مطابق تماماً لصوت الشخص المستهدف.

ويقوم الجناة بعد ذلك بالتواصل مع أصدقاء الضحية أو أفراد من عائلته عبر تطبيقات المحادثة أو المكالمات الهاتفية، مستخدمين الصوت المزوّر لطلب تحويل مبالغ مالية عبر المحافظ الإلكترونية أو تطبيق "كليك"، ما يجعل عملية الاحتيال تبدو واقعية للغاية.

ودعت البنوك المواطنين إلى توخّي الحذر، وعدم التجاوب مع أي طلبات تحويل أموال إلا بعد التأكد المباشر من هوية الشخص الطالب، سواء من خلال مكالمة مرئية أو تواصل مباشر شخصي، لتجنّب الوقوع ضحية لمثل هذه الأساليب الاحتيالية المتطورة.

يُشار إلى أن هذه التقنية الاحتيالية تعكس تطور أساليب الجريمة الإلكترونية في ظل انتشار أدوات الذكاء الاصطناعي، مما يتطلب وعياً أكبر وإجراءات تحقق إضافية من قِبل المستخدمين لتأمين معلوماتهم وأموالهم.
 
gnews

أحدث الأخبار



 
 





الأكثر مشاهدة