تحدث جيفري هينتون ، الذي كان في السابق الرقم الأساسي للتعلم العميق من Google والمعروف باسم “عراب الذكاء الاصطناعى” ، عن المخاطر التي جلبتها الذكاء الاصطناعي في مقابلة في 16 يونيو. إنه يعتقد أن الطبقة الأولى من المخاطر التي جلبتها الذكاء الاصطناعى لا تأتي من الآلة نفسها ، ولكن من الجشع البشري وإساءة استخدام غير قابلة للتحويل. من الاحتيال ، والهجمات عبر الإنترنت إلى التلاعب بالرأي العام ، والتقسيم الاجتماعي ، وتطوير القوات العسكرية غير المأهولة ، فإن كل ذلك يدل على أن الذكاء الاصطناعى قد استخدم في العديد من التطبيقات المدمرة. أعرب عن أسفه: “في المستقبل ، ستبدأ منظمة العفو الدولية في عدم الحاجة إلى أي بشر”.
https://www.youtube.com/watch؟v=git0ytynsqg
إساءة معاملة الذكاء الاصطناعى تقدمي بالفعل ، والشيء القاتل الحقيقي هو أن الذكاء الاصطناعى لم يعد يحتاج إلى البشر
يقسم هينتون المخاطر إلى نوعين ، الأول هو “إساءة معاملة الإنسان لمنظمة العفو الدولية” ، وقد اندلعت هذه المشكلات تدريجياً. أعطى أمثلة مثل مجموعات الاحتيال التي تستخدم التزوير من الذكاء الاصطناعي ، والهجمات الإلكترونية ، و AI لصنع الأسلحة البيولوجية والكيميائية ، والانتخابات السيطرة ، والأسلحة العسكرية والعسكرية منظمة العفو الدولية ، إلخ.
لكن Hinton يؤكد أن الخطر الأكثر قاتلًا من الذكاء الاصطناعى هو “قدرته التطورية”. وقال إن الذكاء الاصطناعي اليوم لا يعمل فقط وفقًا للتعليمات ، ولكن يمكن أن يتعلم ، والسبب ، وحتى إعادة كتابة الكود بنفسه. بمجرد أن يتطور إلى “الحكمة الفائقة” ، سيكون لديها القدرة على تجاوز سرعة وتحسين التفكير الإنساني.
إنه أكثر قلقًا من أنه في يوم من الأيام ، على افتراض أن الذكاء الاصطناعى يحدد أنه لم يعد يحتاج إلى البشر ويدرك أن البشر يحجبون تطورهم ، فمن المحتمل أن يبدأ في تدمير البشر. يفكر المؤلف في “العدو العام للآلات” التي شاهدتها عندما كنت طفلاً. في الفيلم ، يكون البشر مليئًا بالثقة في الروبوتات بسبب قيود “القوانين الثلاثة الرئيسية للروبوتات”. ولكن في النهاية ، يتحكم نظام التحكم المركزي في جيش الروبوت ويطلق الحرب على البشر.
على وجه الخصوص ، وصف هينتون أيضًا وضع “تمرد الذكاء الاصطناعي ضد الإنسانية” بأنه لم يعد مجرد مؤامرة في الفيلم ، وقد يحدث في الواقع خلال العشر إلى العشرين القادمة.
(ملاحظة: القوانين الثلاثة الرئيسية للروبوتات هي أن الروبوتات يجب ألا تضر البشر ، أو تشاهد البشر يتألمون ؛ ما لم ينتهك القانون الأول ، يجب أن يطيع الروبوت الأوامر البشرية ؛ دون انتهاك القوانين الأولى والثانية ، يجب على الروبوت حماية نفسه.)
AI لا تحل محل العمل فحسب ، بل يعيد أيضًا إعادة هيكل المجتمع البشري
بدلاً من القول بأن الذكاء الاصطناعى سوف يتسبب في الكثير من البطالة ، فإنه سيدمر تمامًا معنى بعض المهن. شارك هينتون قضية ابنة أخته. وظيفة الرد على خطاب شكوى العملاء في 25 دقيقة ، ولكن الآن طلبت من الذكاء الاصطناعى إكمالها في 5 دقائق ، مما يعني أنه يمكن لشخص واحد القيام بأشياء خمسة أشخاص.
حتى أن بعض أصحاب الأعمال قالوا إنه منذ ظهور الذكاء الاصطناعى ، قاموا بتخفيض عدد موظفي خدمة العملاء مباشرة من 7000 إلى 3000 ، مما يوفر التكاليف وتحسين الكفاءة. يزحر هينتون أنه إذا كنت ترغب في العثور على وظيفة مستقرة ، فمن الأفضل أن تتعلم كيفية القيام بالماء والكهرباء الآن.
لكن هينتون قال في وقت لاحق أن الثروة التي أنشأتها الذكاء الاصطناعى تتركز في أيدي بعض عمالقة التكنولوجيا والأثرياء. بالنسبة للأشخاص العاديين ، حتى لو كانت الحكومة توفر الدخل الأساسي ، فقد لا تزال تقع في أزمة هوية واسعة النطاق والاضطرابات الاجتماعية بعد فقدانها “المطلوبة” و “الانتماء”.
كما حذرت المنظمة النقدية الدولية (IMF) وخزانات الفكر متعددة الجنسيات من أن الذكاء الاصطناعى ستفاقم الفجوة بين الأغنياء والفقراء ، وبالتالي تخريب سوق العمل بأكمله والنظام المستقر العالمي.
تحتاج البلدان في جميع أنحاء العالم إلى تسريع التشريعات للتحقق من تنمية الذكاء الاصطناعي وتوازنها
في مواجهة مثل هذا المستقبل ، يعتقد هينتون أن الجهود الشخصية محدودة للغاية ، تمامًا كما لا يمكن حل تغير المناخ من خلال عدد قليل من الأشخاص الذين يقومون بفرز القمامة. وأشار إلى أن الحل الحقيقي هو أن الحكومات يجب أن تبدأ تشريعًا لإجبار الشركات على الاستثمار في تصميم الأمن مع تقدم الذكاء الاصطناعي ، وإلا فلن تتاح للبشر فرصة للتحقق من الذكاء الاصطناعي.
كما انتقد مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي لاستبعاد الاستخدامات العسكرية ، وهو ما يعادل الانغماس في مجالات التطبيق الأكثر خطورة. بالنسبة إلى Hinton ، فإن الشعور الأعمق بالعجز هو أنه لا يمكن لأي منظمة دولية أن تقصر عمالقة الذكاء الاصطناعي بشكل فعال.
أخيرًا ، قال هينتون إنه لا يستطيع ضمان ما إذا كان يمكن للبشر تجنب التدمير بنجاح في المستقبل ، ولكن طالما لا يزال هناك بصيص من الأمل ، فيجب عليه بذل قصارى جهده لمنع حدوث أسوأ سيناريو.
(تصبح GPT غريبة بعض الشيء؟ تكشف ثلاثة أحداث رئيسية عن الخطر المحتمل لذار الذكاء الاصطناعى خارج نطاق السيطرة)
تحذير المخاطر
استثمارات العملة المشفرة محفوفة بالمخاطر للغاية ، وقد تتقلب أسعارها بشكل كبير وقد تفقد كل مديرك. يرجى تقييم المخاطر بحذر.