طريقة احتيال جديدة تعتمد على الذكاء الاصطناعي .. وبنوك أردنية تحذر

0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
طريقة احتيال جديدة تعتمد على الذكاء الاصطناعي .. وبنوك أردنية تحذر, اليوم الاثنين 16 يونيو 2025 12:14 مساءً

سرايا - خاص - ظهرت في الآونة الأخيرة طريقة جديدة للاحتيال؛ تعتمد على الذكاء الاصطناعي؛ ووجهت بنوك أردنية تحذيرات للمواطنين من هذا الأسلوب الاحتيالي، الذي يعتمد على تقليد أصوات الأشخاص المقربين من الضحية المستهدفة، مثل: الأصدقاء وأفراد العائلة.

وبحسب الرسائل التحذيرية الصادرة عن عدد من البنوك في الأردن، فإن الضحية يتلقى مكالمة صوتية تبدو مألوفة ومُقنعة تطلب بشكل عاجل تحويل أموال عبر المحافظ الإلكترونية أو خدمات التحويل الأُخرى.

وتنشر "سرايا" بعض النصائح التي وجهها خبير في الامن السيبراني للمواطنين لحماية انفسهم من الوقوع بمثل هذا النوع من الاحتيال الصوتي، ينصح الخبراء باتباع عدد من الأمور، مثل:

استخدام عبارات سرية: يُنصح باستخدام عبارات خاصة بين أفراد العائلة أو الأصدقاء للتحقق من هوية المتصل، وطرح أسئلة دقيقة: إذا كنت تشك في هوية المتصل، فاطرح أسئلة تعتمد على تفاصيل يعرفها الشخص الحقيقي فقط،وملاحظة التفاصيل الصوتية: مع أن الأصوات المولّدة بالذكاء الاصطناعي تبدو طبيعية، فإنها قد تحمل علامات مميزة مثل: التحدث بطريقة خالية من المشاعر، أو الخطأ في نطق بعض العبارات بطريقة غير طبيعية.

التحقق المباشر: إذا شككت في المتصل، أنهِ المكالمة، ثم اتصل بالشخص مباشرة عبر الرقم المسجل لديك.


تجنب الضغط العاطفي: يعتمد المحتالون على استراتيجيات مثل: الضغط العاطفي لدفعك إلى التصرف بسرعة، لذلك تعامل بحذر مع الطلبات التي تتعلق بالمال، ولا تتصرف بسرعة، وتحقق من صحة الأمر قبل إرسال أي مبلغ مالي أو التصريح بأي بيانات شخصية.

 

 


إخترنا لك

أخبار ذات صلة

0 تعليق