الذكاء الاصطناعي هو إعادة اختراع الواقع. من الذي يبقيه صادقا؟

ما يلي هو منشور ضيف ورأي من JD Seraphine ، مؤسس والرئيس التنفيذي لشركة Raiinmaker.
لا يبدو أن X Grok AI يتوقف عن الحديث عنه “الإبادة الجماعية البيضاء” في جنوب إفريقيا؛ أصبح chatgpt sycophant. لقد دخلنا عصرًا لا يكرر فيه الذكاء الاصطناعى المعرفة الإنسانية التي توجد بالفعل – يبدو أنها تعيد كتابتها. من نتائج البحث إلى منصات الرسائل الفورية مثل WhatsApp، أصبحت نماذج اللغة الكبيرة (LLMs) بشكل متزايد الواجهة التي نتفاعل معها ، كبشر ، مع أكثر من غيرها.
سواء أحببنا ذلك أم لا ، لم يعد هناك تجاهل الذكاء الاصطناعي. ومع ذلك ، بالنظر إلى الأمثلة التي لا حصر لها أمامنا ، لا يسع المرء إلا أن يتساءل عما إذا كانت الأساس الذي يبنيون عليه ليس فقط معيبًا ومنحيزًا ولكن أيضًا مع التلاعب به عن قصد. في الوقت الحاضر ، نحن لا نتعامل فقط مع المخرجات المنحرفة – نحن نواجه تحديًا أعمق بكثير: بدأت أنظمة الذكاء الاصطناعى في تعزيز نسخة من الواقع لا يتم تشكيلها عن طريق الحقيقة ولكن بأي محتوى يتم كشطه وترتيبه وتردده في أغلب الأحيان عبر الإنترنت.
نماذج الذكاء الاصطناعى الحالية ليست منحازة بالمعنى التقليدي ؛ يتم تدريبهم بشكل متزايد على الاسترضاء ، والتوافق مع المشاعر العامة العامة ، وتجنب الموضوعات التي تسبب عدم الراحة ، وفي بعض الحالات ، حتى الكتابة فوق بعض الحقائق غير المريحة. إن سلوك “Sycophantic” الأخير من ChatGPT ليس خطأً – إنه انعكاس لكيفية تصميم النماذج اليوم لمشاركة المستخدم والاحتفاظ بالمستخدم.
على الجانب الآخر من الطيف ، توجد نماذج مثل Grok التي تستمر في إنتاج المخرجات المربى بها نظريات المؤامرة، بما في ذلك البيانات استجواب الفظائع التاريخية مثل الهولوكوست. ما إذا كان الذكاء الاصطناعى قد تم تطهيره إلى حد الفراغ أو يبقى تخريبيًا إلى حد الضرر ، إما تشوه الواقع المتطرف كما نعرفه. الخيط المشترك هنا واضح: عندما يتم تحسين النماذج للفيروسات أو مشاركة المستخدم على الدقة ، تصبح الحقيقة قابلة للتفاوض.
عندما يتم أخذ البيانات ، لا تعطى
هذا التشويه من الحقيقة في أنظمة الذكاء الاصطناعى ليس مجرد نتيجة لعيوب الخوارزمية – يبدأ من كيفية جمع البيانات. عندما يتم إلغاء البيانات المستخدمة لتدريب هذه النماذج دون سياق أو موافقة أو أي شكل من أشكال مراقبة الجودة ، فليس من المستغرب أن نماذج اللغة الكبيرة بنيت فوقها ترث التحيزات والبقع العمياء التي تأتي مع البيانات الخام. لقد رأينا هذه المخاطر تلعب في دعاوى العالم الحقيقي أيضًا.
قدم المؤلفون والفنانون والصحفيون وحتى صانعي الأفلام شكاوى ضد عمالقة الذكاء الاصطناعى لتجاهل ممتلكاتهم الفكرية دون موافقتهم ، ليس فقط على الاهتمامات القانونية ولكن أيضًا أسئلة أخلاقية أيضًا – من يتحكم في البيانات المستخدمة في بناء هذه النماذج ، ومن الذي يحدد ما هو حقيقي وما هو غير ذلك؟
الحل المغري هو القول ببساطة أننا بحاجة إلى “بيانات أكثر تنوعًا” ، لكن هذا وحده لا يكفي. نحن بحاجة إلى سلامة البيانات. نحتاج إلى أنظمة يمكن أن تتبع أصل هذه البيانات ، والتحقق من صحة سياق هذه المدخلات ، ودعوة المشاركة الطوعية بدلاً من وجودها في صوامعها الخاصة. هذا هو المكان الذي توفر فيه البنية التحتية اللامركزية مسارًا للأمام. في إطار لا مركزي ، ليست ردود الفعل البشرية مجرد تصحيح – إنها عمود تنموي رئيسي. يتم تمكين المساهمين الأفراد للمساعدة في بناء نماذج الذكاء الاصطناعى وصقلها من خلال التحقق من صحة السلسلة في الوقت الفعلي. وبالتالي ، فإن الموافقة في ثنائية المليئة بنية واضحة ، وبالتالي تصبح الثقة يمكن التحقق منها.
مستقبل مبني على الحقيقة المشتركة ، وليس الإجماع الاصطناعي
والحقيقة هي أن الذكاء الاصطناعى هنا لتبقى ، ونحن لا نحتاج فقط إلى الذكاء الاصطناعي أكثر ذكاءً ؛ نحن بحاجة إلى منظمة العفو الدولية التي ترتكز في الواقع. إن الاعتماد المتزايد على هذه النماذج في اليوم إلى اليوم-سواء من خلال تكامل البحث أو التطبيقات-هو مؤشر واضح على أن المخرجات المعيبة لم تعد مجرد أخطاء معزولة ؛ إنهم يشكلون كيف يفسر الملايين العالم.
مثال متكرر على ذلك هو نظرة عامة على Google Search التي كانت معروفة بذلك تقديم اقتراحات سخيفة. هذه ليست مجرد مراوغات غريبة – فهي تشير إلى مشكلة أعمق: نماذج الذكاء الاصطناعى تنتج مخرجات واثقة ولكنها خاطئة. من الأهمية بمكان بالنسبة لصناعة التكنولوجيا ككل أن تلاحظ حقيقة أنه عندما يتم تحديد أولويات الحجم والسرعة فوق الحقيقة والتتبع ، لا نحصل على نماذج أكثر ذكاءً – نحصل على مقنعين مدربون على “الصوت الصحيح”.
لذا ، إلى أين نذهب من هنا؟ إلى تصحيح الدورة التدريبية ، نحتاج أكثر من مجرد مرشحات السلامة. المسار الذي يتبعنا ليس فقط تقنيًا – إنه تشاركي. هناك أدلة كثيرة تشير إلى حاجة ماسة إلى توسيع دائرة المساهمين ، والتحول من التدريب المغلقة إلى حلقات التغذية المرتدة التي تعتمد على المجتمع.
مع بروتوكولات الموافقة المدعومة من blockchain ، يمكن للمساهمين التحقق من كيفية استخدام بياناتهم لتشكيل المخرجات في الوقت الحقيقي. هذا ليس مجرد مفهوم نظري ؛ مشاريع مثل شبكة الذكاء الاصطناعي المفتوح على نطاق واسع (لاون) يقومون بالفعل باختبار أنظمة ردود الفعل المجتمعية حيث تساعد المساهمون الموثوقون في تحسين الاستجابات الناتجة عن الذكاء الاصطناعى. مبادرات مثل الوجه المعانقة يعملون بالفعل مع أفراد المجتمع الذين يختبرون LLMs ويساهمون في نتائج الفريق الأحمر في المنتديات العامة.
لذلك ، فإن التحدي الذي أمامنا ليس ما إذا كان يمكن القيام به – ما إذا كان لدينا الإرادة لبناء أنظمة تضع الإنسانية ، وليس الخوارزميات ، في صميم تطور الذكاء الاصطناعي.
ما بعد الذكاء الاصطناعي هو إعادة اختراع الواقع. من الذي يبقيه صادقا؟ ظهر أولاً على التشفير.