حذرت كثير من المصارف حول العالم، عملاءها من عمليات احتيال تتم باستخدام الذكاء الاصطناعي عبر استنساخ الأصوات للإيقاع بالضحايا.

وتتزايد المخاوف بشأن قدرة الذكاء الاصطناعي على تقليد الأصوات البشرية، من إلحاق الأذى بالناس من خلال مساعدة المجرمين على الوصول إلى حساباتهم المصرفية ونشر المعلومات المضللة.

استنساخ الصوت

وبفضل التطور التكنولوجي أصبح المحتالون قادرين على استخدام الذكاء الاصطناعي لاستنساخ صوت الشخص من ثلاث ثوانٍ فقط من صوت موجود، ويمكن الحصول على الصوت من مقطع فيديو نشره الشخص عبر الإنترنت.

 ويمكن للمحتالين بعد ذلك تحديد أصدقاء الشخص وأفراد أسرته واستخدام الصوت المستنسخ بوساطة الذكاء الاصطناعي لإجراء مكالمة هاتفية لطلب المال، وهذه الأنواع من عمليات الاحتيال لديها القدرة على إيقاع الملايين، وقد أثرت فعلًا في مئات الأشخاص.

وأشار استطلاع جديد، إلى أن ما يزيد انتشار تلك العمليات هو عدم علم 46% من الأشخاص بوجود مثل هذه الاحتيالات، حتى إن 8% من المستطلعين أكدوا أنهم سيرسلون قدرًا كبيرًا من المال كما يطلبه صديق أو فرد من العائلة، حتى لو اعتقدوا أن المكالمة تبدو غريبة.

طرق الحماية

يشجع الخبراء أن يتفق الأشخاص على “عبارة آمنة” مع أحبائهم، وهي يمكن أن تكون مجرد عبارة سهلة وعشوائية يسهل تذكرها، ومختلفة عن الكلمات التي نكررها كثيرًا، والتي يمكن استخدامها للتحقق من هوية الأشخاص عبر الهاتف.

وينصح أيضًا بعدم مشاركة العبارة الآمنة عبر الرسائل النصية، ما قد يسهل على المحتالين اكتشافها، ولكن إذا شُورِكَت بهذه الطريقة، فيجب حذف الرسالة بمجرد أن يراها الشخص الآخر.

وفي وقت سابق من العام الجاري، كشفت شركة “OpenAI”، صانعة برنامج الدردشة الآلي “ChatGPT”، عن أداة استنساخ الصوت “Voice Engine”، ولكنها لم تجعلها متاحة للجمهور، بسبب احتمال إساءة استخدام الصوت الاصطناعي المستنسخ للإضرار بشخص ما أو للقيام بعمليات احتيال عبر المكالمات الهاتفية لسرقة أموال الضحايا.

Share.
Exit mobile version