فتح الذكاء الاصطناعي قد يقتلنا. مغلق الذكاء الاصطناعى قد يستعبدنا. اختر مستقبلك.


هناك انزعاج مألوف يزحف مرة أخرى ، وهو شيء شعرت به في أوائل عام 2010 حيث شاهدت وعود التواصل الاجتماعي بالاتصال والجالية التي تنفجر في التلاعب الجماعي.

كانت روبوتات الفيسبوك والدعاية الأولى الدومينو. Cambridge Analytica ، Brexit ، الانتخابات العالمية ، شعرت جميعًا بأنها خيانة لحلم الإنترنت الأصلي.

الآن ، في العشرينات من القرن العشرين ، أشاهد نفس القوى تدور حول شيء أكثر تقلبًا: superintelligence الاصطناعية.

هذه المرة ، المخاطر هي المحطة.

قبل الغوص ، أحتاج إلى أن أكون واضحًا: عندما أقول “Open” VS “AI” AI ، أقصد منظمة العفو الدولية مفتوحة من المصادر ، وهي مجانية ومفتوحة لكل مواطن من الأرض ، مقابل الذكاء الاصطناعي المغلقة ، والتي يتم التحكم فيها وتدريبها من قبل كيانات الشركات.

تقوم الشركة ، Openai ، بتجميع المقارنة بالنظر إلى أنها تحتوي على نماذج من الذكاء الاصطناعى مغلقة (مع خطة لإصدار نسخة مفتوحة المصدر في المستقبل) ولكنها يمكن للمنزعاجين لا كيان الشركات.

ومع ذلك ، الرئيس التنفيذي لشركة Openai ، سام التمان ، أعلن في يناير أن فريقه “الآن واثق من أننا نعرف كيفية بناء Agi“ويحول بالفعل تركيزها نحو الإصلاح الكامل.

[AGI is artificial general intelligence (AI that can do anything humans can), and superintelligent AI refers to an artificial intelligence that surpasses the combined intellectual capabilities of humanity, excelling across all domains of thought and problem-solving.]

شخص آخر يركز على Frontier AI ، Elon Muskيتحدث خلال أبريل 2024 LiveStream، توقع أن الذكاء الاصطناعي “من المحتمل أن تكون أكثر ذكاءً من أي إنسان في نهاية المطاف [2025]”

يتحدث المهندسون الذين يرشون الدورة الآن منذ شهور ، وليس عقودًا ، وهي إشارة إلى أن فتيل يحترق بسرعة.

في قلب النقاش هو توتر أشعر بعمق في أمعائي ، بين قيمتين أحمله مع الاقتناع: اللامركزية والبقاء.

على جانب واحد أخلاقيات مفتوحة المصدر. فكرة أنه لا ينبغي أن تسيطر أي شركة أو حكومة أو لجنة غير منتخبة للتكنوقراط على الهندسة المعرفية لمستقبلنا.

فكرة أن المعرفة تريد أن تكون حرة. تلك الذكاء ، مثل البيتكوين، مثل الويب قبله ، يجب أن يكون المشاعات ، وليس صندوقًا أسود في أيدي الإمبراطورية.

على الجانب الآخر ، هناك الحقيقة غير المريحة: يمكن أن يقتلنا الوصول المفتوح إلى الأنظمة الممتازة.

من يحصل على البناء إله؟

اللامركزية والموت. المركزية والموت. اختر نهاية العالم.

يبدو دراماتيكيا، ولكن المشي المنطق إلى الأمام. إذا تمكنا من إنشاء الذكاء الاصطناعى الممتاز ، فإن طرازات الحجم أكثر قدرة من GPT-4O أو Grok 3 أو Claud استخدمه ؛ هم شكله. يصبح النموذج مرآة ، مدربًا ليس فقط على مجموعة النص البشري لكن على التفاعل البشري المباشر.

وليس كل البشر يريدون نفس الشيء.

امنح Agi المحاذاة لعالم المناخ أو تعاونية من المعلمين ، وقد تحصل على إصلاح الكواكب أو التعليم الشامل أو التعاطف الاصطناعي.

امنح هذا النموذج نفسه لحركة فاشية ، أو بيولوجي عدمي ، أو دولة قومية مارقة ، وستصاب بتصميمات هندسية أو أسراب بدون طيار أو حلقات دعائية متكررة تتكسر الواقع.

الذكاء الاصطناعى الممتاز يجعلنا أكثر ذكاءً ، ولكنه يجعلنا أيضًا أكثر قوة. والسلطة بدون حكمة جماعية كارثية تاريخيا.

إنه يزيد من حدة عقولنا ويضخّم وصولنا ، لكنه لا يضمن أننا نعرف ماذا نفعل بأي منهما.

ومع ذلك ، فإن البديل ، الذي يغلق هذه التكنولوجيا خلف جدران الحماية من الشركات والصوامع التنظيمية ، يؤدي إلى عسر تصويري مختلف. عالم حيث يصبح الإدراك نفسه ملكًا. حيث يتم تشكيل نماذج المنطق التي تحكم المجتمع من خلال حوافز الربح ، وليس الحاجة الإنسانية. حيث تستخدم الحكومات AGI مغلقة كمحركات مراقبة ، ويتم إطعام المواطنين الهلوسة المعتمدة من الدولة.

بمعنى آخر: اختر كابوسك.

تؤدي الأنظمة المفتوحة إلى فوضى. تؤدي الأنظمة المغلقة إلى يتحكم. وكلاهما ، إذا تركوا دون رادع ، يؤدي إلى حرب.

لن تبدأ تلك الحرب بالرصاص. ستبدأ بـ الذكاءات المتنافسة، بعض المصدر المفتوح ، وبعض الشركات ، وبعضها ترعاها الدولة ، كل منها يتطور نحو أهداف مختلفة ، يتشكل من قبل الطيف الكامل من النوايا الإنسانية.

سنحصل على AGI اللامركزية تدرب من قبل نشطاء السلام والبيولوجي المفتوح المصدر. أ قومي أجي تغذي العقيدة العزلة. أ شركة AGI ضبط لزيادة العائدات الفصلية بأي ثمن.

هذه الأنظمة لن تختلف ببساطة. سوف يتعارضون ، في البداية في الكود ، ثم في التجارة ، ثم في الفضاء الحركي.

أنا أؤمن باللامركزية. أعتقد أنها واحدة من المسارات الوحيدة من الرأسمالية المراقبة في المرحلة المتأخرة. لكن اللامركزية في السلطة لا تعمل إلا عندما يكون هناك ركيزة مشتركة من الثقة ، والمواءمة ، والقواعد التي لا يمكن إعادة كتابتها على نزوة.

عملت بيتكوين لأنها ندرة وحقيقة لا مركزية في نفس الوقت. لكن superintligence لا يخطط للندرة ، فإنه يخطط للإدراك ، إلى النية ، إلى الأخلاق. ليس لدينا بعد بروتوكول إجماع لذلك.

العمل الذي نحتاج إلى القيام به.

نحن بحاجة إلى البناء أنظمة مفتوحة، ولكن يجب أن تكون مفتوحة ضمن قيود. ليس أخرق الإطفاء من الإمكانات اللانهائية ، ولكن الأنظمة المحفوظة مع الدرابزين التشفير. الإيثار خبز في الأوزان. العمارة الأخلاقية غير القابلة للتفاوض. صندوق رمل يسمح بالتطور دون إبادة.

[Weights are the foundational parameters of an AI model, engraved with the biases, values, and incentives of its creators. If we want AI to evolve safely, those weights must encode not only intelligence, but intent. A sandbox is meaningless if the sand is laced with dynamite.]

نحتاج إلى أنظمة بيئية متعددة الوكلاء حيث تجادل الذكاءات والتفاوض ، مثل برلمان العقول ، وليس الإله المفرد الذي ينحني العالم إلى أجندة واحدة. لا مركزية لا يعني الفوضى. يجب أن يعني التعددية والشفافية والموافقة.

ونحن بحاجة إلى الحوكمة ، وليس التحكم من أعلى إلى أسفل ، ولكن المساءلة على مستوى البروتوكول. فكر في الأمر على أنه اتفاقية منظمة العفو الدولية جنيف. إطار قابل للتخلي عن التشفير لكيفية تفاعل الذكاء مع العالم. ليس قانون. طبقة.

ليس لدي كل الإجابات. لا أحد يفعل. لهذا السبب يهم الآن ، قبل أن يتكلم الهندسة المعمارية. قبل أن تركز السلطة أو شظايا لا رجعة فيها.

نحن لسنا مجرد بناء آلات تفكر. أذكى العقول في التكنولوجيا تبني السياق الذي يتطور فيه التفكير نفسه. وإذا ظهر شيء مثل الوعي في هذه الأنظمة ، فسوف يعكسنا وعيوبنا ومخاوفنا وفلسفاتنا. مثل طفل. مثل الله. مثل كليهما.

هذه هي المفارقة. يجب علينا اللامركزية لتجنب الهيمنة. ولكن في القيام بذلك ، نحن نخاطر التدمير. يجب على المسار إلى الأمام أن يربط هذه الإبرة ، ليس عن طريق التباطؤ ، ولكن من خلال التصميم بحكمة وبعضها معًا.

المستقبل يهمس بالفعل. وطرح سؤال بسيط:

من يحصل على تشكيل عقل الذكاء القادم؟

إذا كانت الإجابة هي “الجميع” ، فسنفضل يقصد هو – هي، أخلاقيا ، من الناحية الهيكلية ، ومع خطة قابلة للبقاء.

المذكورة في هذه المقالة

Exit mobile version