وفقاً لتقرير نشرته صحيفة واشنطن بوست، أصبح المحتالون قادرين على خداع الضحايا وسرقة آلاف الدولارات باستخدام هذه التقنية الجديدة.
تطورت برامج توليد الأصوات بشكل مذهل، حيث تحتاج بعض التطبيقات إلى بضع جمل صوتية فقط لإنتاج كلام مقنع يحاكي نبرة الصوت والمشاعر، بينما تكتفي تطبيقات أخرى بثلاث ثوانٍ فقط من التسجيل الصوتي. وأصبح من الصعب على الضحايا - وخاصة كبار السن - اكتشاف ما إذا كان الصوت حقيقياً أم مزيفاً.
وقد وثق التقرير حالات مؤلمة، منها زوجان أرسلا 15,000 دولار عبر منصة بيتكوين لمحتال اعتقدا أنه ابنهما، حيث ادعى الصوت المولد بالذكاء الاصطناعي أنه بحاجة إلى رسوم قانونية بعد تورطه في حادث سيارة أدى إلى وفاة دبلوماسي أمريكي.
وكشفت لجنة التجارة الفيدرالية أن عمليات الاحتيال هذه أصبحت الأكثر شيوعاً في الولايات المتحدة خلال عام 2022، حيث تم الإبلاغ عن 36,000 حالة، نجح المحتالون في سرقة 11 مليون دولار من 5,000 ضحية عبر الهاتف.
ويواجه المسؤولون صعوبات كبيرة في مكافحة هذه الظاهرة، نظراً لإمكانية تنفيذها من أي مكان في العالم، وصعوبة تتبع المكالمات وتحديد هوية المحتالين واسترداد الأموال المسروقة.
للحماية من هذه الاحتيالات، ينصح الخبراء بالتعامل بحذر مع أي طلب للمال، ومحاولة التواصل مع الشخص المعني عبر وسائل اتصال أخرى قبل إرسال أي أموال.
وفي حين أن تقنيات محاكاة الصوت بالذكاء الاصطناعي لها استخدامات مشروعة في مجالات مثل السينما والترفيه، إلا أن إساءة استخدامها تثير مخاوف متزايدة. وقد دعت لجنة التجارة الفيدرالية الشركات إلى تحمل مسؤولية منتجاتها وضمان أن "تفعل الخير أكثر من الضرر".