منظمة العفو الدولية ، تعلمك مقاطع الفيديو المزيفة من الذكاء الاصطناعي الحرية المالية؟ تنشر الشركات اليابانية أحدث التقنيات لتحديد الرسوم المتحركة المزيفة واستخدام الذكاء الاصطناعى لصنع الذكاء الاصطناعي

أنشأ Lao Gao قناة YouTube تجريبية Mrby Tabby Tales ، والتي تثبت أنه طالما أنك تعرف كيفية استخدام الذكاء الاصطناعي ، يمكنك إنشاء مقاطع فيديو قصيرة مزيفة وحقيقية؟ ! لقد استخدم سلسلة الفأر الملتوية التي تنتجها Generation AI ، وقام فقط بتحميل 12 مقطع فيديو لجذب 380،000 مشترك. هذا يعرض أيضا مشكلة. وسائل الإعلام عبر الإنترنت مليئة بالأخبار المزيفة ومقاطع الفيديو المزيفة. هذه الأفلام القصيرة أصبحت أكثر وأكثر دقة. كيف تحكم على الأصالة؟ أجرت وسائل الإعلام اليابانية مقابلة مع شركة ناشئة لنشر أحدث اكتشاف تكنولوجيا الذكاء الاصطناعي وتحليلها لإمكانية الاحتيال. يمكن القول أن الذكاء الاصطناعى يستخدم لكبح AI ، بحيث لا يقع الجيل من الذكاء الاصطناعي في أيدي المجرمين وتصبح أداة احتيال.
قم بإنشاء منظمة العفو الدولية لتسريع عملية إنتاج الصوت والفيديو القصيرة ، ومن الصعب التمييز بين صحة الفيديو
يتطور AI التوليدي بسرعة ، وأصبح الإنتاج الصوتي البصري المعقد السابق سريعًا وبسيطًا. استخدم YouTuber Lao Gao ، الذي لديه 6 ملايين مشترك ، مؤخرًا الذكاء الاصطناعي لإنشاء سلسلة من مقاطع الفيديو القصيرة من القطط والفئران. من خلال إنشاء الذكاء الاصطناعي ، يمكنه بسهولة إنشاء مقاطع فيديو عالية الحركة لجذب الجماهير طالما أنها تستخدم بشكل صحيح ، وقد يدرك الحرية المالية على المدى القصير!
ومع ذلك ، فإن مقاطع الفيديو القصيرة هذه سهلة الانتشار على الإنترنت ، كما أن روعة الفيديو تجعل من الصعب على الجمهور التمييز بين الأصالة. إذا تم استخدامه للاحتيال أو نشر الشائعات ، فقد يساء فهمه من قبل الجمهور لكونه مزيفًا وحقيقيًا ، مما يسبب خسائر.
تستخدم التكنولوجيا المبتكرة للشركة اليابانية NABLAS الذكاء الاصطناعي لتحقيق التوازن بين الذكاء الاصطناعي
لمعالجة القضية التي قد يسهل جيل الذكاء الاصطناعي عدد كبير من الاحتيال ، اليابان نابلاس تقوم الشركة بتطوير تقنية AI متقدمة تستخدم خصيصًا لتحديد واكتشاف مقاطع الفيديو المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يحلل نظام Nablas التفاصيل الموجودة في الفيديو للتحقق من الإجراءات غير الطبيعية والتناقضات التي قد تحدث أثناء عملية توليد الفيديو.
يتمثل مبدأ العمل أولاً في استخدام AI لتحليل الفيديو إلى سلسلة من الصور ، وترقيم كل إطار من الصورة وتحليله إطارًا حسب الإطار. ثم يتحقق النظام من الإجراءات غير الطبيعية في الصورة ، أي العقد الخاطئة الصغيرة التي تظهر في الفيديو. هذا عادة ما يكون عيبًا لا مفر منه يمكن أن ينتج عنه الذكاء الاصطناعي أثناء عملية الإنتاج.
أشار مدير NABLAS Miyao Suzuki إلى أنه عندما يولد الذكاء الاصطناعي كل مشهد ، سيتم تحديد الصورة ، مما يؤدي إلى عقد غير طبيعية. هذه الجوانب الخفية غير الطبيعية هي المفتاح لتحديد مقاطع الفيديو المزيفة.
والأهم من ذلك ، أن التكنولوجيا تتحقق أيضًا مما إذا كانت الشخصيات في الفيلم ، وخاصة وجوههم قد تم معالجتها. غالبًا ما يترك الذكاء الاصطناعى التوليدي آثارًا للتعديلات اليدوية عن غير قصد ، والتي يمكن اكتشافها بواسطة أنظمة الذكاء الاصطناعى المصممة خصيصًا.
في التشغيل الفعلي ، يمكن لنظام Nablas إجراء اكتشاف مفصل للفيديو. في مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي ، يتحلل الذكاء الاصطناعى صورته ويتحقق من بداية الفيديو. توضح النتيجة أن الفيديو قد تم تحريره بواسطة AI التوليدي ، وإمكانية التزوير تصل إلى 94 ٪.
قالت سوزوكي مياو إن نابلاس تخطط لإطلاق هذه التكنولوجيا رسميًا بحلول نهاية هذا الشهر. سيساعد إطلاق هذه التكنولوجيا على زيادة اليقظة إلى مقاطع الفيديو الخاطئة والحد بشكل فعال لانتشار المعلومات الخاطئة.
لقد اخترق تطبيق الذكاء الاصطناعي الحياة اليومية. AI التوليدي هو محور التكنولوجيا الحالية. ليس من الضروري فقط تعلم استخدام أدوات الذكاء الاصطناعي للمساعدة في الخلق والحياة اليومية ، ولكن أيضًا للحصول على تقنيات مقابلة لضمان صحة المعلومات.
أكد مياو سوزوكي أن النية الأصلية لتطوير هذه التكنولوجيا هي ضمان الاستخدام العقلاني لمنظمة العفو الدولية. وأشار إلى أن توليد الذكاء الاصطناعي والمعلومات الخاطئة قد يظهر في مناسبات مختلفة ، ويحتاج المجتمع إلى التعامل بجدية مع مشكلة فيضان مقاطع الفيديو المزيفة. هدف NABLAS هو تطبيق هذه التكنولوجيا في المزيد من المجالات ، ومساعدة المستخدمين على تحديد مقاطع الفيديو المزيفة والترويج للاستخدام الصحيح لتكنولوجيا الذكاء الاصطناعى.
تحذير المخاطر
استثمارات العملة المشفرة محفوفة بالمخاطر للغاية ، وقد تتقلب أسعارها بشكل كبير وقد تفقد كل مديرك. يرجى تقييم المخاطر بحذر.