يقوم وكلاء الذكاء الاصطناعى بالحكم الذاتي بإنشاء فرص عمل جديدة

ما يلي هو منشور ضيف ورأي Zac Cheah ، المؤسس المشارك لـ بوندي AI.
يتطلب براوهها على وكلاء الذكاء الاصطناعي المستقل (AI) وظائف وتحويلها بشكل جذري مثل الرعاية الصحية والتمويل يتطلب فحصًا وثيقًا. الحكم الذاتي هو طيف ، حيث حتى أكثر عوامل الذكاء الاصطناعى الذاتي الذاتي يحتاج إلى بعض أشكال التدخل البشري للعمل بشكل مناسب.
عوامل الذكاء الاصطناعى المستقلة تمامًا مستحيلة. وبدلاً من تناول الوظائف ، يخلق عوامل الذكاء الاصطناعى المستقلة فرص عمل جديدة حيث يساعد البشر وظائف وكلاء الذكاء الاصطناعي طوال دورة حياتهم.
تنويع خيارات الوظائف في صناعة الذكاء الاصطناعى
تتطلب جميع وكلاء الذكاء الاصطناعى المستقلة في مراحل الإنتاج أو النشر عملًا بشريًا لأنهم لا يستطيعون العمل بشكل مستقل ، وبالتالي خلق فرص عمل. على الرغم من أن وكلاء الذكاء الاصطناعى الذين يعملون على نطاق واسع يتجاوزون القدرات المعرفية لشخص واحد ، إلا أن كل عميل لديه فرق متعددة بقيادة الإنسان في خط أنابيب التطوير.
يحتاج هؤلاء الوكلاء إلى مطورين بشريين لبناء البنية التحتية الأساسية ، وترميز الخوارزمية ، وإعداد مجموعات البيانات المسمى بالإنسان للتدريب ، والإشراف على إجراءات التدقيق.
على سبيل المثال ، تعتمد دقة وكيل الذكاء الاصطناعى المستقلة على تدريب البيانات عالي الجودة وإجراء اختبارات تحليلية متكررة. لا عجب 67 ٪ من مهندسي البيانات يقضون ساعات في إعداد مجموعات البيانات للتدريب على نموذج الذكاء الاصطناعي.
نظرًا لأن مجموعات البيانات المجزأة تؤدي إلى مشاكل تشغيلية للعوامل المستقلة ، يتعين على فرق المشروع تنظيف البيانات قبل التدريب. علاوة على ذلك ، نظرًا لأن فجوات البيانات يمكن أن تولد إخراجًا خاطئًا ، يجب على المطورين ضمان سلامة وكيل الذكاء الاصطناعي وتحديد المواقع في السوق من خلال تقييم صارم. تتطلب كل شركة منظمة العفو الدولية أن يقوموا بمنظفات البيانات البشرية ، وعلامات العلامات ، والمقيمين لتشغيل نماذجها.
علاوة على ذلك ، توفر عمليات التدقيق التي يتم إشرافها من الإنسان فحوصات ضرورية لمنع الضرر من عوامل الذكاء الاصطناعى المستقلة التي تعمل روغ بعد النشر. تتكون آليات الدفاع هذه من فرق متدرجة بما في ذلك إدارة الشركات وعمال السياسات والمراجعين وغيرهم من الفنيين المهرة. يستغرق الأمر قرية لبناء وكيل منظمة العفو الدولية أثناء دورة حياته. وبالتالي ، فإن وكلاء الذكاء الاصطناعى الذاتي تمامًا يولدون فرص عمل متعددة حيث أن الخبرة البشرية مطلوبة لإنشاء هذه الوكلاء ونشرها وتقييمها.
يقوم وكلاء الذكاء الاصطناعى بالحكم الذاتي بإنشاء فرص عمل جديدة بقيادة الإنسان
تساعدهم تجارب البشر على تطوير تفاهمات مجتمعية دقيقة ، والتي بدورها تساعدهم على اتخاذ استنتاجات منطقية وقرارات عقلانية. ومع ذلك ، لا يمكن لعوامل الذكاء الاصطناعى المستقلة “تجربة” محيطهم وسوف يفشلون دائمًا في إصدار أحكام سليمة دون مساعدة بشرية.
لذلك يجب على البشر إعداد مجموعات البيانات بدقة ، وتقييم دقة النموذج ، وتفسير توليد الإخراج لضمان الاتساق الوظيفي والموثوقية. يعد التقييم البشري أمرًا بالغ الأهمية لتحديد التحيزات ، وتخفيف التحيز ، وضمان أن يتوافق عوامل الذكاء الاصطناعي مع القيم الإنسانية والمعايير الأخلاقية.
من الضروري اتباع نهج تعاوني بين الذكاء البشري والآلي لمنع أحداث توليد الإنتاج الغامضة ، وفهم الفروق الدقيقة ، وحل المشكلات المعقدة. مع قاعدة المعرفة السياقية للبشر ، والتفكير السليم ، والخصم المتماسك ، سيعمل وكلاء الذكاء الاصطناعى بشكل أفضل في مواقف الحياة الواقعية.
لذلك ، يخلق وكلاء الذكاء الاصطناعى المستقلين أدوارًا جديدة وفرص عمل في صناعة الذكاء الاصطناعي بدلاً من شغل الوظائف. تحقيقا لهذه الغاية، بوندي AI يدفع ابتكار الذكاء الاصطناعي عن طريق تمكين البشر للمساهمة مباشرة في سرد نمو الصناعة.
إلى جانب الطاقة الحسابية ، تحتاج نماذج الذكاء الاصطناعى إلى إمكانية الوصول إلى بيانات عالية الجودة لتدريب النماذج وأخصائيي المجال لضبط البيانات لأداء النموذج الفعال. لكن الشركات الضخمة لها سيطرة محتظمة على البيانات التي تم إنشاؤها من قبل الإنسان لبناء نماذج AI-ML.
يقدم Pundi AI حلًا لا مركزيًا للبيانات ، مما يوفر فرصًا عادلة للجميع حتى لا تستغل الشركات الكبيرة منتجي البيانات. وبالتالي ، يمكن للبشر الحفاظ على السيطرة على بياناتهم والاستفادة بشكل مباشر من استخدامها للتدريب على نموذج الذكاء الاصطناعى ، وإنشاء خيارات عمل جديدة متعلقة بالنيابة.
وفقًا لمسح Gartner ، ستتخلى الشركات 60 ٪ من مشاريع الذكاء الاصطناعى بحلول عام 2026 بسبب عدم توفر البيانات الجاهزة لمنظمة العفو الدولية. حلول مثل Pundi AI’s AIFX تمكين المطورين والمستخدمين من إنشاء أصول بيانات جاهزة لـ AI وتداولهم على السلسلة ، مما يوفر حوافز مالية لإنشاء مجموعات بيانات قوية.
إلى جانب مجموعات بيانات المعالجة المسبقة ، يتطلب عملاء الذكاء الاصطناعى أيضًا مساعدة بشرية أثناء مراحل المعالجة (الاستدلال) وما بعد المعالجة (النشر). العديد من الطرق ، مثل التعلم التعزيز مع التعليقات البشرية (RLHF) والإنسان في الحلقة (HITL) ، ضرورية لتقييم عوامل الذكاء الاصطناعى أثناء التدريب أو العمليات في الوقت الفعلي لتوليد الناتج الفعال وتحسين النموذج.
وبالمثل ، يساعد تصحيح الأخطاء التفاعلية لمراجبي الحسابات البشرية على التدقيق في استجابات وكلاء الذكاء الاصطناعى وتقييمهم ضد المعايير المجتمعية لاتخاذ القرارات العادلة. في بعض الأحيان ، تتطلب تطبيقات الوكيل الحساسة طريقة هجينة تجمع بين التحقق من صحة المستوى البشري الخبراء مع إجابات تم إنشاؤها بواسطة الرشاشات لإزالة أوجه عدم اليقين وبناء الثقة.
يعد الحدس البشري والإبداع الرئيسيين لتطوير وكلاء الذكاء الاصطناعى الجدد الذين يمكنهم العمل بشكل مستقل في المجتمع دون التسبب في أي ضرر. إلى جانب تعزيز الذكاء العام لعوامل الذكاء الاصطناعى المستقلة ، يضمن الإشراف البشري الأداء الأمثل للعوامل عالية الأداء في البيئات المستقلة.
وبالتالي ، فإن النهج اللامركزي لبناء ونشر وكلاء الذكاء الاصطناعي يضعف صناعة الذكاء الاصطناعى من خلال إعادة توزيع البيانات والتدريب النموذجي بين الأشخاص من خلفيات متنوعة ، وتقليل التحيز الهيكلي ، وخلق فرص عمل جديدة.