آخر الأخبار

AI Deepfake تمامًا Clones Ex-Binance Ceo’s Cz’s Voice ، ويشجع المخاوف الاحتيال



Changpeng “CZ” Zhao ، الرئيس التنفيذي السابق لـ Binance ، ذكرت يوم الخميس أنه واجه مقطع فيديو تم إنشاؤه من الذكاء الاصطناعى يكرر صوته بدقة لدرجة أنه لم يستطع تمييزه عن تسجيل حقيقي.

تميز المنشور ، الذي تم مشاركته عبر X ، بصوت منظمة العفو الدولية لماندرين يتحدثون من الذكاء الاصطناعي ، ويطابق حركات وجهه بدقة وصفها بأنها “مخيفة”.

ال فيديو يظهر Zhao يتحدث باللغة الصينية حول سلسلة من مقاطع الفيديو والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى والصور. تجددت الإخلاص المخاوف حول الاستخدام غير المصرح به من الذكاء الاصطناعى لانتحال شخصيات عامة.

يضيف الحادث إلى مجموعة متزايدة من الحالات التي تم فيها استنساخ أوجه الشبه الرقمية للمديرين التنفيذيين للتشفير باستخدام أدوات توليدية ، وأحيانًا لأغراض احتيالية.

أصدر تشاو ، الذي لا يزال شخصية بارزة في صناعة التشفير على الرغم من التنقيب عن منصب الرئيس التنفيذي لشركة Binance في عام 2023 ، تحذيرات حول محاولات الانتحار التي تنطوي على DeepFakes. في أكتوبر 2024 ، هو نصح لا يثق المستخدمون في أي لقطات فيديو تطلب عمليات نقل التشفير ، مع الاعتراف بتداول المحتوى المتغير الذي يحمل شكله.

Deepfakes و Crypto: زيادة المخاطر التشغيلية

يضيف أحدث مقطع فيديو بعدًا جديدًا إلى تكتيكات الانتحال التي تجاوزت الصور والنص الثابت. في عام 2023 ، ضابط الاتصالات في بنانس آنذاك ، باتريك هيلمان ، تم الكشف عنها استخدم المحتالون محاكاة فيديو له لإجراء اجتماعات مع ممثلي المشروع عبر Zoom.

تم وضع اللقطات الاصطناعية معًا باستخدام سنوات من المقابلات العامة والمظاهر عبر الإنترنت ، مما يمكّن الجهات الفاعلة من جدولة المكالمات الحية بأهداف بموجب مشاركة التبادل الرسمية.

تشير تجربة Zhao إلى أن النسخ المتماثل الصوتي قد وصل إلى مستوى مماثل من الواقعية ، حتى للشخص الذي يتم تقليده ، مما يثير مخاطر الاحتيال خارج نطاق انتحال وسائل الإعلام الاجتماعية.

في فبراير ، تم خداع موظفي مكتب Arup في هونغ كونغ في النقل حوالي 25 مليون دولار خلال اجتماع فرق Microsoft ، معتقدين أنهم كانوا يتحدثون مع مدير المالية في المملكة المتحدة. وفقًا لـ The South China Morning Post ، كان كل مشارك في المكالمة محاكاة تم إنشاؤها من الذكاء الاصطناعي.

تتطلب إمكانيات الاستنزاف الصوتي الآن الحد الأدنى من المدخلات

تعمل الأدوات ذات مرة على عينات صوتية واسعة النطاق الآن مع تسجيلات موجزة فقط. تتطلب العديد من الأنظمة على مستوى المستهلك ، مثل Elevenlabs ، أقل من 60 ثانية من الصوت لإنشاء استنساخ مقنع. ذكرت المؤسسة المالية في يناير أن انتهاء ذلك ربع البالغين في المملكة المتحدة نعتقد أنهم واجهوا عمليات احتيال تتضمن أصوات استنساخ خلال الـ 12 شهرًا السابقة.

هذه الأدوات متاحة بشكل متزايد بتكلفة منخفضة. وفقًا لإحاطات الاستخبارات التهديد من Cyflare ، يمكن شراء واجهات APIs للاستنساخ الصوتي 5 دولارات على Darknet الأسواق. بينما توفر النماذج التجارية متطلبات العلامات المائية والاختيار ، نادراً ما تلتزم بدائل السوق المفتوحة والسوق السوداء بمثل هذه المعايير.

قانون الذكاء الاصطناعي للاتحاد الأوروبي ، رسميًا اعتمد في مارس 2024، يتضمن تفويضات بأنه يجب وضع علامة على محتوى DeepFake بوضوح عند نشره في الإعدادات العامة. ومع ذلك ، تظل نافذة إنفاذ القانون بعيدة ، مع عدم توقع الامتثال الكامل حتى عام 2026.

بدون حواجز تنظيمية نشطة ، بدأ مصنعو الأجهزة في دمج إمكانات الكشف مباشرة في أجهزة المستهلكين.

تميزت مؤتمر Mobile World Congress 2025 في برشلونة بالعديد من المظاهرات لأدوات الجهاز المصممة اكتشف التلاعب الصوتي أو البصري في الوقت الحقيقي. على الرغم من عدم توفرها تجاريًا بعد ، فإن هذه التطبيقات تهدف إلى تقليل اعتماد المستخدم على خدمات التحقق الخارجية.

المذكورة في هذه المقالة

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى