قامت شركة مايكروسوفت بتطوير أداة ذكاء اصطناعي يمكنها تكرار الكلام البشري بدقة خارقة. ومن المقنع للغاية أن عملاق التكنولوجيا يرفض مشاركته مع الجمهور، مشيرًا إلى "المخاطر المحتملة" لسوء الاستخدام. الأداة، التي يطلق عليها اسم VALL-E 2، عبارة عن مولد لتحويل النص إلى كلام يمكنه تقليد الصوت بناءً على بضع ثوانٍ فقط من الصوت، ويتم تدريبه على التعرف على المفاهيم دون تقديم أي أمثلة على تلك المفاهيم مسبقًا في سيناريو يسمى التعلم الصفري. ويقول عملاق التكنولوجيا إن VALL-E 2 هو الأول من نوعه الذي يحقق "التكافؤ البشري"، مما يعني أنه يلبي أو يفوق معايير التشابه البشري، ويخلف نظام VALL-E الأصلي، الذي تم الإعلان عنه في يناير 2023. وفقًا للمطورين في Microsoft Research، يمكن ل VALL-E 2 إنتاج "كلام طبيعي دقيق بنفس صوت السماعة الأصلية، مشابهًا للأداء البشري"، ويمكنه تركيب جمل معقدة بالإضافة إلى العبارات القصيرة، وللقيام بذلك، تستفيد الأداة من ميزتين تسمى أخذ العينات المدركة للتكرار ونمذجة التعليمات البرمجية المجمعة. اقرأ أيضا| مايكروسوفت تهز عرش جوجل بإطلاق أداة البحث "SearchGPT" ويعالج أخذ العينات المدرك للتكرار مخاطر الرموز المميزة المتكررة، أو أصغر وحدات البيانات التي يمكن لنموذج اللغة معالجتها - ممثلة هنا بالكلمات أو أجزاء من الكلمات. فهو يمنع الأصوات أو العبارات المتكررة أثناء عملية فك التشفير، مما يساعد على تغيير كلام النظام وجعله يبدو أكثر طبيعية. تحد نمذجة التعليمات البرمجية المجمعة من عدد الرموز المميزة التي يعالجها النموذج مرة واحدة للحصول على نتائج أسرع. وقارن الباحثون VALL-E 2 بعينات صوتية من LibriSpeech وVCTK، وهما قاعدتا بيانات باللغة الإنجليزية. كما استخدموا أيضًا ELLA-V، وهو إطار تقييم لتركيب تحويل النص إلى كلام بدون لقطة، لتحديد مدى جودة تعامل VALL-E مع المهام الأكثر تعقيدًا. وتغلب النظام على منافسيه "في قوة الكلام، وطبيعته، وتشابه المتحدث"، وفقًا لورقة بحثية بتاريخ 17 يونيو تلخص النتائج. وتدعي Microsoft أن VALL-E 2 لن يتم إصداره للعامة في أي وقت قريب، معتبرة إياه "مشروع بحثي بحت". وكتبت الشركة على موقعها على الإنترنت: "في الوقت الحالي، ليس لدينا أي خطط لدمج VALL-E 2 في منتج أو توسيع نطاق الوصول إلى الجمهور". "قد يحمل مخاطر محتملة في إساءة استخدام النموذج، مثل انتحال الهوية الصوتية أو انتحال شخصية متحدث معين." ويشير عملاق التكنولوجيا إلى أنه يمكن الإبلاغ عن إساءة الاستخدام المشتبه بها للأداة باستخدام بوابة إلكترونية. ومخاوف مايكروسوفت في حدود المعقول. وفي هذا العام فقط، شهد خبراء الأمن السيبراني انفجارًا في استخدام أدوات الذكاء الاصطناعي من قبل جهات ضارة، بما في ذلك تلك التي تحاكي الكلام. ويمكن أن يشكل انتحال الصوت خطرًا على الأمن القومي. في يناير، حثت مكالمة آلية باستخدام صوت الرئيس جو بايدن الديمقراطيين على عدم التصويت في الانتخابات التمهيدية في نيو هامبشاير. ووجهت إلى الرجل الذي يقف وراء المؤامرة في وقت لاحق اتهامات بقمع الناخبين وانتحال شخصية مرشح. وتعرضت مايكروسوفت لتدقيق متزايد بشأن تنفيذها للذكاء الاصطناعي، على جبهتي مكافحة الاحتكار وخصوصية البيانات. وأعرب المنظمون عن قلقهم بشأن شراكة عملاق التكنولوجيا البالغة 13 مليار دولار مع OpenAI وما ينتج عنها من سيطرة على الشركة الناشئة.