منع حدوث نهاية العالم بسبب الذكاء الاصطناعيالباب: علوم وتكنولوجيا

نشر بتاريخ: 2018-10-12 11:10:35

فكر - المحرر الثقافي

سيث باوم

المدير التنفيذي للمعهد العالمي للمخاطر الكارثية (GCRI)

 

لم تعد التطورات الحديثة في الذكاء الاصطناعي شيئًا مثيرًا. يقوم الذكاء الاصطناعي بتحويل كل قطاعات المجتمع تقريبًا، من النقل إلى الطب إلى الدفاع. لذلك ينبغي الانتباه إلى ما سيحدث عندما سيصبح الذكاء الاصطناعي أكثر تقدمًا مما هو عليه بالفعل.

المنظور المروع هو أن الآلات التي يقودها الذكاء الاصطناعي سوف تفوق الإنسانية وستسيطر على العالم وتقتلنا جميعًا. وينتج هذا السيناريو في الخيال العلمي في كثير من الأحيان، ومن السهل رفضه، بالنظر إلى أن البشر يظل مسيطرًا بقوة. لكن العديد من خبراء الذكاء الاصطناعي يأخذون المنظور المروع على محمل الجد، وهم على حق في القيام بذلك. يجب على بقية المجتمع فعل نفس الشيء.

لفهم ما هو على المحك، والنظر في التمييز بين "الذكاء الاصطناعي الضيق" و"الذكاء الاصطناعي العام" (AGI). يمكن للذكاء الاصطناعي الضيق أن يعمل فقط في مجال واحد أو عدد قليل من النطاقات في كل مرة، لذلك في حين أنه قد يتفوق على البشر في مهام محددة، فإنه يظل تحت السيطرة البشرية.

وعلى النقيض من ذلك، يمكن أن يكون "الذكاء الاصطناعي العام" السبب عبر نطاق واسع من المجالات، وبالتالي يمكن أن يكرر العديد من المهارات الفكرية البشرية، مع الاحتفاظ بجميع مزايا أجهزة الكمبيوتر، مثل استدعاء الذاكرة بشكل مثالي. بتشغيل أجهزة الكمبيوتر المتطورة، يمكن "للذكاء الاصطناعي العام" أن يتفوق على الإدراك البشري. في الواقع، من الصعب تصور حدود أعلى لكيفية أن يصبح "الذكاء الاصطناعي العام" متقدمًا.

كما هو الحال، فإن معظم الذكاء الاصطناعي ضيق. وبالفعل، فإن أكثر الأنظمة الحالية تطورًا ليس لديها سوى كميات محدودة من العمومية. على سبيل المثال، في حين كان نظام AlphaZero من Google   DeepMind  قادرًا على إتقان Go وتشيس  شوجي- مما جعله أكثر عمومية من معظم أنظمة الذكاء الاصطناعي، والتي لا يمكن تطبيقها إلا على نشاط واحد محدد - فقد أثبتت قدرتها فقط ضمن الحدود المسطرة من بعض ألعاب اللوحة المنظمة للغاية.

كثير من الناس العارفين يرفضون احتمال تقدم الذكاء الاصطناعي العام. يعتقد البعض، مثل سيلمر برينكسجورد من معهد البوليتكنيك ودرو مكديرموت من جامعة ييل، يجادلون أنه من المستحيل أن يفوق الذكاء الاصطناعي الإنسانية. ويرى آخرون، مثل مارغريت أ. بودن من جامعة ساسكس وأورن إتزيوني من معهد ألن للذكاء الاصطناعي، أن الذكاء الاصطناعي من المستوى البشري قد يكون ممكنًا في المستقبل البعيد، لكن من السابق لأوانه البدء في القلق بشأنه الآن.

إن هؤلاء المتشككين ليسوا أرقامًا هامشية، مثل السواعد التي تحاول أن تشكك في علم تغير المناخ. هم علماء متميزون في علوم الكمبيوتر والمجالات ذات الصلة، ويجب أخذ آرائهم على محمل الجد.

لكن علماء بارزين آخرين - من بينهم ديفيد ج. تشالمرز من جامعة نيويورك، وجامعة ييل ألان دافو وستيوار راسيل من جامعة كاليفورنيا، بيركلي  ونيك بوستروم من جامعة أكسفورد، ورومان يامبولسكي من جامعة لويزفيل - يشعرون بالقلق من أن الذكاء الاصطناعي العام يشكل تهديدًا خطيرًا أو حتميًا للإنسانية. ومع تصفيق الخبراء على جانبي النقاش، ينبغي علينا التحلي بعقل منفتح.

علاوة على ذلك، الذكاء الاصطناعي العام هو محور البحوث والتنمية الهامة. أكملت مؤخرًا دراسة استقصائية لمشروعات الذكاء الاصطناعي العام و R&D، حددت 45 مشروعًا في 30 دولة في ست قارات. وتستند العديد من المبادرات النشطة في الشركات الكبرى مثل بايدو وفيسبوك وجوجل ومايكروسوفت وتينسنت، وفي الجامعات الكبرى مثل كارنيجي ميلون، وهارفارد، وستانفورد، فضلا عن الأكاديمية الصينية للعلوم. سيكون من الحكمة ببساطة الافتراض أنه لن ينجح أي من هذه المشاريع.

هناك طريقة أخرى للتفكير في التهديد المحتمل للذكاء الاصطناعي العام وهي مقارنتها بمخاطر كارثية أخرى. في تسعينيات القرن الماضي، رأى الكونجرس الأمريكي أنه من المناسب أن تتعقب ناسا الكويكبات الضخمة التي يمكن أن تصطدم بالأرض، على الرغم من أن احتمالات حدوث ذلك تبلغ حوالي واحد في 5000 كل قرن. مع الذكاء الاصطناعي العام، قد تكون احتمالية وقوع كارثة خلال القرن المقبل عالية مثل واحد في المائة، أو حتى واحد من كل عشرة، استنادًا إلى وتيرة البحث والتطوير وقلق الخبراء.

السؤال إذن هو ماذا يجب فعله حيال ذلك. بالنسبة للمبتدئين، نحتاج إلى ضمان إجراء البحث والتطوير بطريقة مسؤولة وآمنة وأخلاقية. سيتطلب ذلك حوارًا أعمق بين العاملين في مجال الذكاء الاصطناعي وصانعي السياسات وعلماء الاجتماع والمواطنين المعنيين. أولئك الموجودون في الميدان يعرفون التكنولوجيا وسيكونون هم من يصممونها وفقًا للمعايير المتفق عليها؛ لكن يجب ألا يقرروا وحدهم طبيعة تلك المعايير. العديد من الأشخاص الذين يقومون بتطوير تطبيقات الذكاء الاصطناعي غير معتاد على التفكير في الآثار الاجتماعية لهذا العمل. لكي يتغير ذلك، يجب أن يواجهوا وجهات نظر خارجية.

وسيتعين على صانعي السياسات أيضًا التعامل مع الأبعاد الدولية للمبادرة. في الوقت الحالي، يتم تنفيذ الجزء الأكبر من الأبحاث والتطوير في الذكاء الاصطناعي العام في الولايات المتحدة وأوروبا والصين، لكن الكثير من الشفرات مفتوح المصدر، مما يعني أن العمل يمكن أن يتم من أي مكان. لذا، فإن وضع المعايير والقواعد الأخلاقية الأساسية هو في نهاية المطاف وظيفة للمجتمع الدولي بأكمله، على الرغم من أن محاور البحث والتطوير ينبغي أن تأخذ زمام المبادرة.

وبالنظر إلى الأمام، يمكن لبعض الجهود الرامية إلى معالجة المخاطر التي يشكلها الذكاء الاصطناعي العام أن تتابع مبادرات السياسات التي وضعت بالفعل من أجل منظمة العفو الدولية الضيقة، مثل التجمع الجديد من الحزبين الجمهوري والديمقراطي الذي أطلقه جون ديلاني، عضو الكونغرس الديمقراطي من ولاية ماريلاند. هناك العديد من الفرص للتآزر بين أولئك الذين يعملون على المخاطر القصيرة الأجل للذكاء الاصطناعي الضيق وتلك التي تفكر في المدى الطويل.

ولكن بغض النظر عما إذا كان الذكاء الاصطناعي الضيق والذكاء الاصطناعي العام يعتبران معًا أو بشكل منفصل، فإن الأمر الأكثر أهمية هو أننا نتخذ الآن إجراءات بناءة لتقليل مخاطر حدوث كارثة على الطريق. هذه ليست مهمة يمكننا أن نأمل في إكمالها في اللحظة الأخيرة.

 

المصدر: BBC Future


عدد القراء: 5050

اقرأ لهذا الكاتب أيضا

اكتب تعليقك

شروط التعليق: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.
-