Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
منوعات تقنية

AI Voice Simulator يتم إساءة استخدامه بسهولة لمشاهير Deepfake

موقع شبرون للتقنية والأخبار- متابعات تقنية:

أصبح تركيب الصوت بالذكاء الاصطناعي أكثر تعقيدًا ، مما يعني أيضًا أنه أكثر عرضة للإساءة.
الرسم: أرتميس ديانا (صراع الأسهم)

من كان يمكن أن يرى هذا قادمًا؟ تم استخدام مولدات الصور بالذكاء الاصطناعي للإنشاء المواد الإباحية غير التوافقية من المشاهير ، ولكن لماذا هذا المستخدم نفسه هل تجرؤ القاعدة على إساءة استخدام مولد صوت Deepfake لتحويل النص إلى كلام بالذكاء الاصطناعي؟

ElevenLabs ومقرها المملكة المتحدة توصف لأول مرة Prime Voice AI في وقت سابق من هذا الشهر ، ولكن بعد أسابيع قليلة فقط قد تحتاج إلى إعادة التفكير في نموذجها بالكامل بعد أن أبلغ المستخدمون عن قيام عدد كبير من المستخدمين بإنشاء رسائل كراهية باستخدام أصوات العالم الحقيقي. أصدرت الشركة أول نظام تجريبي مفتوح لتحويل النص إلى صوت في 23 يناير. وعد المطورون بأن تتناسب الأصوات مع أسلوب وإيقاع إنسان حقيقي. تتيح ميزة “Voice Lab” الخاصة بالشركة للمستخدمين استنساخ الأصوات من عينات صوتية صغيرة.

اللوحة الأم تم الإبلاغ لأول مرة يوم الاثنين عن عدد كبير من مستخدمي 4Chan الذين كانوا يحمّلون أصواتًا مكشوفة لمشاهير أو شخصيات على الإنترنت ، من جو روغان إلى روبن ويليامز. وبحسب ما ورد نشر أحد مستخدمي 4Chan مقطعًا لإيما واتسون تقرأ مقطعًا من Mein Kampf. أخذ مستخدم آخر صوتًا يبدو وكأنه يشبه صوت ريك سانشيز من جاستن رويلاند ريك ومورتي يتحدث عن كيف كان سيضرب زوجته ، في إشارة واضحة إلى الادعاءات الحالية للعنف المنزلي ضد المؤلف المشارك للمسلسل.

في أحد خيوط 4Chan التي استعرضها Gizmodo ، نشر المستخدمون مقاطع من منظمة العفو الدولية تنشر كراهية شديدة للنساء أو رهاب المتحولين جنسياً باستخدام أصوات الشخصيات أو الرواة من مختلف الرسوم المتحركة أو ألعاب الفيديو. كل هذا يعني أنه بالضبط ما تتوقع أن يفعله الإبط من الإنترنت بمجرد أن يصبح بيده تقنية deepfake سهلة الاستخدام.

يوم الإثنين ، غرّدت الشركة بأنها كانت “عطلة نهاية أسبوع مجنونة” ولاحظت أنه بينما كانت تقنيتهم ​​”تطبق بشكل كبير على الاستخدام الإيجابي” ، رأى المطورون “عددًا متزايدًا من حالات إساءة استخدام استنساخ الصوت” ولكن لم يذكر نظامًا أساسيًا أو أنظمة أساسية معينة حيث يتم إساءة الاستخدام كان يحدث.

عرضت شركة ElevenLabs بعض الأفكار حول كيفية الحد من الضرر ، بما في ذلك تقديم بعض عمليات التحقق من الحساب ، والتي قد تتضمن دفعًا مقدمًا ، أو حتى إسقاط الإصدار المجاني من مختبر الصوت تمامًا ، مما يعني بعد ذلك التحقق يدويًا من كل طلب استنساخ.

في الأسبوع الماضي ، أعلنت شركة ElevenLabs عن ذلك تلقي 2 مليون دولار من التمويل الأولي بقيادة شركة Credo Ventures ومقرها جمهورية التشيك. كانت شركة الذكاء الاصطناعي الصغيرة – التي – تخطط لتوسيع نطاق عملها واستخدام النظام بلغات أخرى أيضًا ، وفقًا لمنصة العرض التقديمي الخاصة بها. يعد هذا الاستخدام المعترف به بمثابة منعطف للمطورين الذين كانوا متفائلين للغاية بشأن المكان الذي يمكن أن تذهب إليه التكنولوجيا. أمضت الشركة الأسبوع الماضي في الترويج لتقنيتها قائلة إنها يمكن أن يتكاثر النظام شخصيات تلفزيونية بولندية. روجت الشركة كذلك فكرة وضع الإنسان رواة الكتب المسموعة عاطلين عن العمل. موقع بيتا يتحدث عن hيمكن للنظام تشغيل الصوت تلقائيًا للمقالات الإخبارية ، أو حتى إنشاء صوت لألعاب الفيديو.

يمكن للنظام بالتأكيد محاكاة الأصوات بشكل جيد ، فقط بناءً على الأصوات التي راجعها موقع Gizmodo. قد لا يتمكن الشخص العادي من معرفة الفرق بين مقطع مزيف لروغان يتحدث عن العادات الإباحية مقابل مقطع فعلي من البودكاست الخاص به. ومع ذلك ، هناك بالتأكيد جودة آلية للصوت تصبح أكثر وضوحًا في المقاطع الطويلة.

تواصلت Gizmodo مع ElevenLabs للتعليق عبر Twitter ، لكننا لم نتلق ردًا على الفور. سنقوم بتحديث هذه القصة إذا سمعنا المزيد.

هناك الكثير من الشركات الأخرى التي تقدم أداة تحويل النص إلى الصوت الخاصة بها ، ولكن أثناء ذلك لا يزال نظام VALL-E المماثل من Microsoft غير مطروح، كانت الشركات الأصغر الأخرى أقل ترددًا بكثير في فتح الباب أمام أي شخص لسوء المعاملة. أخبر خبراء الذكاء الاصطناعي موقع Gizmodo هذا الدفع لإخراج الأشياء من الباب دون مراجعة الأخلاق سيستمر في التسبب في مثل هذه القضايا.



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى