خدمات توليد الصوت عبر ChatGPT تثير مخاوف احتيال جديد اليوم وكيفية الحماية منها

الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي أصبح تهديدًا متصاعدًا يشكل تحديًا جديدًا للأمن الرقمي والمالي في ظل التطورات المتسارعة للتقنيات الحديثة، حيث حذر سام ألتمان، رئيس شركة OpenAI، من أننا على أعتاب “أزمة احتيال” ضخمة نتيجة قدرة المحتالين على تجاوز معظم أساليب التحقق من الهوية التقليدية باستثناء كلمات المرور، مستغلين منصات مثل ChatGPT لاستنساخ الأصوات والصور بخداع متطور يصعب كشفه.

مخاطر الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي وتأثيراته المالية

تصاعد الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي بات ظاهرة ملحوظة، خاصّة في دول مثل المملكة المتحدة التي شهدت ارتفاعًا بنسبة 46% في الجرائم المالية خلال عام واحد فقط، وفقًا لتقرير بنك Starling عام 2024. هذا النوع من الاحتيال يعتمد على تقنيات الذكاء الاصطناعي لاستنساخ صوت أشخاص مقربين من الضحايا، مثل أفراد العائلة، بهدف إقناع الضحية بتحويل أموال أو تسليم معلومات حساسة. يحذر سام ألتمان من أن الذكاء الاصطناعي قد تجاوز بشكل كبير أدوات التحقق القديمة، مما يجعل الاحتيال أكثر سهولة وانتشارًا، مع تسجيل نسبة 28% من الناس في المملكة المتحدة تعرضوا للاحتيال الصوتي خلال العام الماضي بحسب “ديلي ميل”. ويقدر التحالف العالمي لمكافحة الاحتيال أن الخسائر المالية الناجمة عن هذه الظاهرة تخطت 1.03 تريليون دولار في 2024، في ظل النمو السريع لاستخدام الذكاء الاصطناعي في عمليات الاحتيال.

كيف تكتشف عملية الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي؟

الوعي بعلامات الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي هو خطوة أولى نحو الوقاية، كما توضح سارة لينيت، خبيرة الجرائم المالية في بنك Starling، حيث لا يدرك كثيرون كيفية تمييز الأصوات المزيفة بسهولة، مما يعرضهم للخداع. تشمل العلامات التي يجب الانتباه لها نبرة صوت غير مألوفة أو أكثر هدوءًا من المعتاد، أصوات خلفية غير طبيعية أو توقفات في الكلام تبدو مصطنعة، تغيّر مفاجئ في طريقة النطق أو الأسلوب، إضافة إلى محتوى الرسالة أو الطلب الذي لا يتناسب مع شخصية المتحدث الظاهري. وتؤكد لينيت على ضرورة عدم الاستجابة لأي طلب مرتبط بالمال أو البيانات الشخصية عبر الهاتف دون التحقق من هوية المتصل بدقة.

خطوات فعالة لحماية نفسك من الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي

تتطلب حماية الأفراد من الاحتيال باستخدام استنساخ صوت الذكاء الاصطناعي اتباع إجراءات محددة ترفع من مستوى الأمان الرقمي، ومن أهمها:

  • إنشاء عبارة أمان خاصة بالعائلة والأصدقاء، بحيث تكون سرًا لا يعرفه سوى المقربون، لتستخدم كوسيلة تحقق تشبه كلمات المرور، ويفضل أن تكون العبارة غير مرتبطة بأي معلومات يمكن اكتشافها عبر الإنترنت
  • طرح أسئلة خاصة عند تلقي مكالمات تطلب معلومات حساسة، مثل ذكر مواقف مشتركة أو تفاصيل شخصية لا يعرفها الغرباء
  • خفض مشاركة البيانات الصوتية والفيديوهات الشخصية على مواقع التواصل الاجتماعي، لأن المحتالين يحتاجون فقط لثوانٍ من تسجيل الصوت لاستخدامها في النسخ؛ لذلك من الحكمة قبول طلبات الأصدقاء فقط من الأشخاص الموثوق بهم
  • نشر الوعي والمعرفة بين أفراد العائلة والأصدقاء حول أساليب الاحتيال الحديثة، لأن الوعي يشكل خط الدفاع الأول في مواجهة عمليات الاحتيال المعقدة
الإحصائية بيانات 2024
نسبة التعرض للاحتيال الصوتي في المملكة المتحدة 28%
ارتفاع الجرائم المالية في المملكة المتحدة 46%
الخسائر المالية المتوقعة عالميًا 1.03 تريليون دولار

في ظل هذا الواقع، يظل الذكاء الاصطناعي أداة مزدوجة بقدرته على تحقيق فوائد عظيمة وفي الوقت ذاته يطرح تحديات أمنية كبيرة؛ فالابتكار في تقنيات التحقق من الهوية الرقمية أصبح أولوية ملحة لمواجهة تطورات الاحتيال، ومن الضروري تعزيز الحماية الرقمية لتظل السلامة المالية والرقمية في مأمن من التهديدات الحديثة الناتجة عن استنساخ الصوت.