أصبح بالإمكان اليوم تقليد صوت أي شخص باستخدام الذكاء الاصطناعي، وبدرجة من الدقة تخدع حتى المقربين، في الوقت الذي تعد التعليقات الصوتية ضرورية لجعل مقاطع الفيديو والإعلانات والألعاب أكثر جاذبية.
تعرف هذه التقنية باسم “الاستنساخ الصوتي” (Voice Cloning) وتستخدم خوارزميات متطورة لتكوين نسخة رقمية من خطاب شخص ما، بكل ما فيه من خفايا ونغمات صوتية ومزاجية تتم معالجتها بعد ذلك بخوارزميات الذكاء الاصطناعي لإنشاء نموذج صوتي رقمي.
يمكن للنموذج توليد كلام جديد يبدو مثل الصوت الأصلي عن طريق تحويل النص إلى كلمات منطوقة بنفس النبرة والإيقاع.
هذه التقنية دقيقة للغاية، وغالبًا لا يمكن تمييزها عن الصوت البشري الحقيقي، مما يجعلها مفيدة في تطبيقات مثل إنشاء المحتوى وخدمة العملاء وتجارب المستخدم الشخصية.
مزايا “الاستنساخ الصوتي” ومجالاته
على الرغم من استغلال تقنية “الاستنساخ الصوتي” من قبل بعض ضعاف النفوس في عمليات الاحتيال، فإنها تملك جانبًا إيجابيًا، كغيرها من التقنيات ذات الحدين وتتجلى أهم المزايا بـ:
- إنشاء محتوى صوتي وديناميكي.
- توفير الوقت والمال من خلال السماح للشخص بإنشاء محتوى جديد بسرعة.
- زيادة فرص الشركات بالإعلان والرعاية للشخصيات الصوتية والمشاهير والمؤثرين.
- إعداد المحتوى المتكرر مثل نشرات الطقس وأخبار الرياضة.
ويتم استخدام هذه التقنيات في العديد من المجالات منها:
- الكتب الصوتية.
- إنشاء مقاطع الفيديو التعليمية.
- الحملات الإعلانية على مواقع التواصل الاجتماعي.
- المساعدون الرقميون و”روبوتات” الدردشة.
- التطبيقات الخاصة بكبار السن وذوي الإعاقة.
الاحتيال القائم على “الاستنساخ الصوتي”
يعد الاحتيال القائم على استنساخ الصوت باستخدام تقنيات الذكاء الاصطناعي من أحدث عمليات الاحتيال وأكثرها تطورًا، من خلال استخدامه لإنشاء مقاطع صوتية مزيفة، واستخدامها لانتحال صفة شخص، مثل صديق أو أحد أفراد الأسرة أو أحد المسؤولين في العمل، وبعد ذلك يستخدم الصوت المستنسخ للاتصال بالضحايا أو إرسال مقاطع صوتية لهم بدافع النصب والابتزاز، على سبيل المثال، يمكن طلب مساعدة مالية عاجلة من أفراد العائلة أو طلب معلومات الدخول لأحد الحسابات الخاصة بالموظفين ضمن شركة ما.
تطبيقات تفتقد لتدابير الأمان
كشفت دراسة جديدة أجرتها “Consumer Reports” أن العديد من أدوات استنساخ الصوت الشهيرة تفتقر إلى تدابير أمان فعالة لمنع إساءة الاستخدام والاحتيال.
وأوضحت الدراسة أن معظم هذه الأدوات لا تتطلب سوى تأكيد بسيط من المستخدم على امتلاكه الحق القانوني لاستنساخ الصوت، مما يثير مخاوف بشأن استغلال هذه التقنيات في عمليات الاحتيال وانتحال الهوية.
وشملت الدراسة منصات مثل “Descript” و”ElevenLabs” و”Lovo” و”PlayHT”و “Resemble AI”و”Speechify”، ووجدت أن شركتين فقط، “Descript” و”Resemble AI”، اتخذتا خطوات جادة للحد من سوء الاستخدام، بينما تعتمد الشركات الأخرى على إجراءات تحقق سطحية.
وأكدت جريس جيدي، محللة السياسات في “Consumer Reports” أن هذه التقنيات قد تعزز عمليات الاحتيال إذا لم يتم وضع ضمانات كافية، وأشارت إلى أن الشركات بإمكانها اتخاذ خطوات بسيطة لكنها ضرورية لحماية المستخدمين من الاستنساخ غير القانوني لأصواتهم.
مرتبط
اذا كنت تعتقد/تعتقدين أن المقال يحوي معلومات خاطئة أو لديك تفاصيل إضافية أرسل/أرسلي تصحيحًا
إذا كنت تعتقد/تعتقدين أن المقال ينتهك أيًا من المبادئ الأخلاقية أو المعايير المهنية قدم/قدمي شكوى
المصدر: عنب بلدي