الخوف على الجنس البشري من ذكاء الآلاتالباب: علوم وتكنولوجيا

نشر بتاريخ: 2015-05-10 10:15:26

فكر - المحرر الثقافي

الذكاء الاصطناعي كان لعقود كثيرة من نسج الخيال العلمي، لكنه الآن بات حقيقة، إذ أصبحت برامج الكومبيوتر التي تحاول تطوير الذكاء الاصطناعي لتجاوز الذكاء البشري مثار قلق.

وهل ستصبح سيناريوهات هوليوود الكارثية واقعًا في المستقبل؟ أم أن الذكاء الاصطناعي سيظل محصورًا في إطار خدمة الإنسانية؟.

في شهر آذار/مارس 2014 في أحد أكبر معارض التكنولوجيا في مدينة هامبورغ الألمانية تم الكشف عن القرد (تشارلي) وهو عبارة عن روبوت شكله يشبهُ القرد، حيث يمكن لتشارلي أن يمشي على أطرافه الأربعة، التي تتيحُ له التنقل في التضاريس الوعرة كتلكَ الموجودة على سطح القمر، كما يمكن له أيضًا أن يكونَ خطوة نحو الأمام في تدمير البشرية!

تستخدم شركة غوغل هذا الاختبار في عمليات التصفح والبحث الذكية التي تتيحها على موقعها، كما تستخدمه ألعاب الفيديو لابتكار عوالم من الألعاب الإليكترونية ذاتية الديمومة، وتستخدمه أيضًا المتاجر الإليكترونية لبث نغمات موسيقية وأفلام تصنع وفقًا لأذواق الزبائن، وفي أوائل العام 2014 تمكن برنامج إليكتروني روسي من إقناع العلماء بأنه صبي يبلغ من العمر 13عامًا اسمه يوجين.

في الحقيقة ما زالت تفصلنا عقودٌ عن القدرةِ على تطويرِ حاسبٍ فائقٍ يمكن له أن يكونَ معتلاً نفسيًّا بحيث يملكُ تلك الشخصية العدائية التي يمكن لها أن تستعبدَ الجنس البشري، ومع ذلك فإن خبراءَ الذكاءِ الاصطناعي يعملون بالفعل لتجنب ما هو أسوأ، عندما تصبح الآلات أكثر ذكاءً من البشر.

دفعت هذه المخاوف خبراءَ الذكاءِ الاصطناعي في مختلف أنحاء العالم للتوقيع على رسالة مفتوحة تمَّ إطلاقُها مع بدايةِ هذا العام من خلال معهد مستقبل الحياة، يتعاهدون فيها على أن يتمَّ التطويرُ في مجال الذكاء الاصطناعي بشكلٍ آمنٍ وبحذر شديدٍ لضمانِ عدمِ خروج التطور في هذا المجال عن السيطرة البشرية، ومن أبرزِ الموقِّـعين على هذه الرسالة مؤسسي شركة أعماق العقل "Deep Mind"، وهي شركةٌ بريطانية متخصصة في الذكاء الاصطناعي قامت جوجل بشرائها في أوائل عام 2014 الذي كان يمتلكها العالم ديميس هاسابيس، وفرض ديميس هاسابيس على غوغل وثيقة أخلاقية تحدد طريقة استخدامها لاكتشافاته في هذا المجال. إضافةً إلى أساتذةِ معهد ماساتشوستس للتكنولوجيا "MIT"، وخبراء بعض أكبر الشركات التقنية، كفريق واتسن للحواسب الفائقة التابع لشركة IBM، وقسم البحوث في شركة مايكروسوفت.

تأتي هذه الرسالة بعد أن أصدرَ العديدُ من الخبراء تحذيراتٍ حول أخطار الآلاتِ فائقةِ الذكاء، فقبل سنتين مضت، دعا ممثلُ الأمم المتحدة إلى فرضِ حظرٍ على إنتاجِ واستخدام أو حتى إجراءِ الاختبارات على ما يُسمَّى بأسلحةِ التحكمِ الذاتي التي يمكن لها تحديد الأهداف وتنفيذ الهجوم عليها من غير التدخل البشري، كما ثارت العديدُ من الانتقاداتِ الأخلاقية لاستخدامات أخرى للآلات الذكية، فعلى سبيل المثال إذا احتاجت مركبةٌ ذاتيةُ القيادةِ لأن تنحرف لتفادي الاصطدام فهل سيكون من المقبول أخلاقيًّا أن تقومَ الآلة باتخاذِ القرار فيما إذا كانت ستضحي بحياة مشاة أو راكبي دراجات متواجدين في الطريق لإنقاذ حياة الموجودين ضمن المركبة أم لا؟

بشكلٍ مماثل، أعرب كلٌّ من الفيزيائي الشهير (ستيفن هوكينغ) ورجل الأعمال والمخترع والمدير التنفيذي لشركة تسلا موتورز "Tesla Motors" (إيلون ماسك) عن مخاوفهم إزاءَ السماحِ للذكاء الاصطناعي بأن يعيث في الأرض فسادًا، ففي مقال كتبه لصحيفة الإندبندنت صرح هوكينغ بأنه: "يمكن للمرء أن يتصورَ أنه بإمكانِ مثل تلك التقنيات أن تسيطرَ بذكائها على الأسواق المالية، وأن تتفوق في اختراعاتها على الباحثين من البشر، وأن تتمكنَ من معالجةِ القضايا بمعزل عن القيادات البشرية، وأن تقومَ بتطوير أسلحة لا يمكن لنا حتى أن نفهمها". وأضاف قائلاً: "حيث يعتمدُ أثر الذكاء الاصطناعي على المدى القصير على من الذي يتحكم به، فإن أثره على المدى البعيد سيعتمد على ما إذا كان سيتاح لنا التحكم به أصلاً"، بمعنى أن تصبح الآلة الذكية خارجة تمامًا عن السيطرة البشرية.

وقال البروفيسور هوكينغ لمحطة (بي.بي.سي): إن "النجاح في تطوير ذكاء اصطناعي كامل قد يؤدي إلى فناء الجنس البشري".

جاء ذلك ردًّا على سؤال وجه إليه حول تحديث التقنية التي يستخدمها للتواصل مع الآخرين، والتي تحتوي على شكل بدائي من الذكاء الاصطناعي.

ويقول البروفيسور هوكينغ: إن الأشكال البدائية من الذكاء الاصطناعي التي طورت الى الآن أثبتت فائدتها، ولكنه يخشى النتائج المترتبة على تطوير تقنية تعادل ذكاء البشر أو تتفوق عليه.

وقال "قد تمضي في حال سبيلها، وتعيد تصميم نفسها بوتائر متسارعة. أما البشر المحكومون بعملية تطور بيولوجية بطيئة، فلن يتمكنوا من منافسة هذه التقنية التي ستتفوق عليهم".

أما إيلون ماسك فقد أطلق في شهر آب/أغسطس 2014 تغريدته على تويتر يقول فيها: "علينا أن نكون حذرين وبشدة مع الذكاء الاصطناعي فمن الممكن أن يكون أكثر خطورة من الأسلحة النووية»، وكان قد صرح أيضًا للجمهور في معهد ماساتشوستس للتكنولوجيا في تشرين الأول/أكتوبر 2014: "أميل بشكل متزايد إلى أنه ينبغي أن يكون هناك بعض الإشراف التنظيمي على المستوى الوطني والدولي، فقط للتأكد من أننا لا نفعل شيئًا شديد الحماقة".

وفي كانون الأول/ديسمبر 2014 في كلمة له بمؤتمر علمي: حذر فيه البشر من (استدعاء الشياطين) "يجب أن نتصرف بحذر شديد بما يتعلق بالذكاء الاصطناعي.. نحن قد نكون أمام أكبر خطر وجودي يتهددنا. نحن نقوم باستدعاء الشياطين من خلال الذكاء الاصطناعي، والبعض يعتقد أن بوسعه السيطرة على الشيطان بعد استدعائه.. لكن ذلك لن ينجح". بما يتعلق بتطوير قدرات الذكاء الاصطناعي، وذلك رغم مبادرات ماسك التكنولوجية المعروفة، والتي يعلن صراحة عزمه من خلالها على نقل البشر نحو أبعاد جديدة في علوم الفضاء والبطاريات.

ودعا في المؤتمر الذي تحدث خلاله إلى فرض قوانين محلية ودولية لمنع البشر من القيام بـ(تصرفات خرقاء) بما يتعلق بالتقنيات الذكية.

وتفترض النظريات أنه كلما ازدادت إمكانات جهاز الكمبيوتر في الذكاء الاصطناعي، كلما ازدادت قدرته على التعلم، وكلما زادت قدرته على التعلم كلما ازداد ذكاؤه. وطورت شركة (فيكاريوس) في عام 2013 برنامجًا للذكاء الاصطناعي يمكنه أن يجتاز اختبارًا يستخدم على نطاق واسع على الإنترنت، وتم تصميمه ليخاطب البشر والكمبيوتر كل على حده، ويطلب الاختبار الذي يعرف باسم " كابتشا " وهي الحروف الأولى من عبارة (اختبار تورينج العام الآلي تمامًا للتحدث إلى الكمبيوتر والبشر كل على حدة)، ويتطلب الاختبار من البشر إعادة كتابة مجموعة قصيرة من الأرقام أو الحروف السرية.

ونقلت صحيفة وول ستريت جورنال عن سكوت فونيكس المؤسس المشارك لشركة (فيكاريوس) قوله: إنه يريد الذهاب إلى أبعد من ذلك، وابتكار أجهزة كمبيوتر يمكنها إن تتعلم كيف تعالج الأمراض، وأن تنتج طاقة متجددة، وأن تقوم بمعظم الوظائف التي يؤديها البشر. والهدف هو ابتكار "جهاز كمبيوتر يفكر مثل الإنسان، باستثناء أنه لا يتعين عليه أن يتناول الطعام أو ينام"، وذلك وفقًا لما نقلته الصحيفة عنه.

وهذا العام 2014 أسس العلماء بجامعة كامبريدج التي يعمل هوكينج مديرًا للأبحاث فيها (مركز دراسات الأخطار على الوجود البشري)، ومن بين أهدافه دراسة كيفية تعظيم الفوائد التي يجنيها الإنسان من الذكاء الاصطناعي، وتجنب حدوث كارثة على غرار ما نراه في روايات الخيال العلمي.

غير أن كلا الهدفين لا يزالان بعيدين عن التحقيق، فقد أجرى الفيلسوف والمؤلف نيك بوستروم استطلاعًا للرأي بين مجموعة من خبراء الذكاء الاصطناعي حول الموعد الذي يثقون أن العلم سيحقق فيه "مستوى رفيعًا من ذكاء الآلات". وأعرب هؤلاء العلماء عن اعتقادهم بأن ذلك سيتحقق في المتوسط عام 2075، وبعد ذلك بثلاثين عامًا يمكن ابتكار الآلات ذات الذكاء الفائق، والتي يمكن أن تتفوق على تفكير الإنسان، ولكن ما نسبته 21 في المئة منهم قالوا: إن ذلك لن يتحقق على الإطلاق.

مما يجدر ذكره أن معهدَ مستقبل الحياة هو منظمة بحثية من المتطوعين فقط، أسَّسها العشرات من علماء الرياضيات وخبراء علوم الحاسب في جميع أنحاء العالم، هدفها الأساسي هو التخفيف من الأخطار المحتملة لذكاء صناعي بمستوى الذكاء البشري، والذي يمكنُ له أن يتطورَ بشكلٍ مخيف، أما خطتها طويلة الأمد فهي وقف التعاملِ مع خطرِ الذكاء الصناعي على أنه ضرب من الخيال، والبدء سريعًا بمعالجة احتمال أن يتفوق على حدود إمكانياتنا، وأنه يومًا ما سوف يبدأ بالعمل بشكل يتضارب مع البرمجة الخاصة به.


عدد القراء: 1384

اقرأ لهذا الكاتب أيضا

اكتب تعليقك

شروط التعليق: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.
-