٢٨ فبراير ٢٠١٨
المترجم : أبو طه/ عدنان أحمد الحاجي
المقالة رقم ١١٥ لسنة ٢٠١٨
التصنيف : ابحاث الذكاء الإصطناعي
28 Feb 2018
لقد مر عقد على الذكاء الاصطناعي ، من إنجاز مذهل الى الآخر. ذكاء اصطناعي لاعب للشطرنج يمكن أن يهزم ليس فقط جميع لاعبي الشطرنج من البشر، ولكن أيضا جميع آلات الشطرنج السابقة التي برمجها البشر ، بعد ان تعلم اللعبة في أربع ساعات فقط؟ هذه أخبار الأمس ، ما هو الآتي؟
صحيح أن هذه الإنجازات المذهلة كلها في ما يسمى بالذكاء الاصطناعي الضيق ، حيث تؤدي الآلات مهامًا عالية التخصص. لكن العديد من الخبراء يعتقدون أن هذا التقييد مؤقت للغاية. بحلول منتصف القرن، قد يكون لدينا ذكاء اصطناعيعام (AGI) - آلات قادرة على الأداء على المستوى البشري في مجموعة كاملة من المهام التي نتمكن نحن من معالجتها.
إذا كان الأمر كذلك ، إذاً هناك سبب صغير للاعتقاد بأنها ستتوقف عند هذا الحد. ستكون الآلات خالية من العديد من القيود المادية على الذكاء البشري. تعمل أدمغتنا على سرعات معالجة كيميائية بيولوجية بطيئة على طاقة المصباح الكهربائي ، وتحتاج إلى ان تكون ملاءمة لتخرج عبر قناة الولادة البشرية. رائع ما تنجزه هذه الأدمغة ، بالنظر إلى هذه المعوقات. لكنها قد تكون بعيدة عن حدود المادية للفكر كبعد أعيننا عن تلسكوب الويب الفضائي.
وبمجرد أن تصبح الآلات أفضل منا في تصميم آلات أكثر ذكاءً ، فإن التقدم نحو هذه الحدود يمكن أن يتسارع. ماذا يعني هذا بالنسبة لنا؟ هل يمكننا ضمان تعايش آمن وجدير بالاهتمام مع هذه الآلات؟
على الجانب الإيجابي ، الذكاء الاصطناعي مفيد بالفعل ومربح للعديد من الأشياء ، ومن المتوقع أن يكون الذكاء الاصطناعي الفائق فائق الإفادة وفائق للراحة . ولكن كلما أصبح الذكاء الاصطناعي أكثر قوة ، كلما زاد طلبنا عملاً منه أكثر ، كلما كان تحديد أهدافه بعناية كبيرة أكثر أهمية. الفلكلور الشعبي مليء بحكايات الناس الذين يطلبون الشيء الخطأ ، مصحوباً بعواقب وخيمة - الملك ميداس ، على سبيل المثال ، الذي لم يرد فعلاً أن يتحول إفطاره إلى ذهب حين يضعه على شفتيه.
لذلك نحن بحاجة للتأكد من إن أجهزة الذكاء الاصطناعي القوية هي "صديقة للإنسان" - ولديها أهداف تتماشى بشكل موثوق مع قيمنا الخاصة. الشيء الوحيد الذي يجعل هذه المهمة صعبة هو أنه وفقاً للمعايير التي نرغب في الآلات أن تستهدفها، والتي يكون أداؤنا نحن بلا ريب ضعيف فيها . البشر بعيدون كل البعد عن أن يكونوا متوافقين مع البشر. نقوم بالعديد من الأشياء الفظيعة لبعضنا البعض وإلى العديد من المخلوقات الواعية الأخرى التي نشارك معها الكوكب. إذا لم تكن الأجهزة فائقة الأداء أفضل بكثير منا ، فسنواجه مشكلة عميقة. سيكون لدينا ذكاء جديد قوي يضخم الجوانب المظلمة للطبيعة الغير معصومة.
من أجل السلامة ، إذن ، نريد أن تكون الآلات من الناحية.الأخلاقية بالإضافة إلى الإدراكية فوق قدرة البشر superhuman. نريدها ان تستهدف المستوى الأخلاقي العالي ، وليس الحضيض التي يقضي الكثيرون منا بعضًا من وقتهم فيه. لحسن الحظ سيكون لديها الذكاء للمهمة. لو كانت هناك طرقات إلى المرتفعات ، فستكون هذه الألات أفضل منا في العثور عليها ، وتوجيهنا في الاتجاه الصحيح. قد تكون مرشدتنا الى عالم أفضل بكثير.
ومع ذلك ، هناك مشكلتان كبيرتان في هذه الرؤية الطوباوية. أحدهما هو كيف نجعل الألات تبدأ الرحلة ، والآخر هو ما الذي يعنيه الوصول إلى هذه الوجهة. تتمثل مشكلة "الشروع في البدء" في أننا بحاجة إلى إخبار الألات بما تبحث عنه بوضوح ودقة كافيين ، بحيث يمكننا الوثوق في أنها ستجدها [ الوجهة] - بغض النظر عما "سيكون" بالفعل. هذا تحدٍ صعب ، نظراً لأننا مرتبكون ومتناقضون حول المثل العليا أنفسنا ، والمجتمعات المختلفة قد يكون لها وجهات نظر مختلفة.
تتمثل مشكلة "الوجهة" في أننا لو وضعنا أنفسنا في أيدي هؤلاء الموجهين الأخلاقيين وحراس البوابات [يعني آلات الذكاء الإصطناعي] ، فقد نضحي باستقلالنا الذاتي - وهو جزء هام مما يجعلنا بشرًا.
فقط للتركيز على جانب واحد من هذه الصعوبات ، نحن كائنات عشائرية عميقة. ونجد أنه من السهل للغاية تجاهل معاناة الغرباء ، وحتى المساهمة في معاناتهم ، على الأقل بشكل غير مباشر. من أجل مصلحتنا الخاصة ، ينبغي أن نأمل في أن يكون اداء الذكاء الإصطناعي أفضل. ولا يقتصر الأمر على أننا قد نجد أنفسنا تحت رحمة الذكاء الاصطناعي لقبيلة أخرى ، ولكننا لا نستطيع أن نثق بذكائنا الاصطناعي ، او علمنا الذكاء الاصطناعي أنه ليس كل معاناة هي امر مهم. هذا يعني أننا كمخلوقات قَبَليّة غير معصومة من الناحية الأخلاقية ، نحتاج أن نوجه الآلات في اتجاه ما هو أفضل. كيف نفعل ذلك؟ هذه هي مشكلة البداية.
أما بالنسبة لمشكلة الوجهة ، افترض أننا نجحنا. الآلات التي هي أفضل منا في التمسك بالأرضية العالية الأخلاقية قد يُوتقع لها أن تردعنا عن بعض الهفوات التي نعتبرها حاليا أمرا مفروغا منه. قد نفقد حريتنا على المحاباة لصالح قبائلنا ، على سبيل المثال.
إن فقدان الحرية في التصرف بشكل سيئ لا يكون دائمًا أمرًا سيئًا ، بالطبع: حرماننا أنفسنا من حرية إبقاء العبيد ، أو ترك الأطفال يعملون في المصانع ، أو التدخين في المطاعم هي علامات على التقدم. ولكن هل نحن مستعدون للسيادة الأخلاقية - قد تكونآلات الذكاء الأصطناعي جيدة في فعل ذلك لدرجة أننا لا نلاحظ الجدران ؛ ولكن هل هذا هو المستقبل الذي نريده ، حياة في حديقة حيوانات أخلاقية جيدة التنسيق؟
قد تبدو هذه القضايا بعيدة المنال ، لكنها بالفعل على اعتاب أبوابنا. تخيل أننا نريد من الذكاء الاصطناعي التعامل مع قرارات تخصيص الموارد في نظامنا الصحي ، على سبيل المثال. قد يقوم بعمل االكثير بشكل لائق وبكفاءة مما يتمكن البشر من عمله ، بما يعود بالفائدة على المرضى ودافعي الضرائب. ولكن يتعين علينا ان نحدد أهدافه بشكل صحيح (على سبيل المثال لتجنب الممارسات التمييزية) ، وسنحرم بعض الأشخاص (مثل الأطباء الكبار) من بعض التقدير الذي يتمتعون به حاليًا. لذلك نحن نواجه بالفعل مشاكل البداية والوجهة . وسوف يصبحان أكثر صعوبة.
هذه ليست المرة الأولى التي يكون فيها للتكنولوجيا الجديدة القوية تأثيرات أخلاقية. وفي معرض حديثه عن مخاطر الأسلحة النووية الحرارية في عام ١٩٥٤ ، جادل برتراند راسل بأنه لتجنب إبادة أنفسنا "علينا أن نتعلم ان نفكر بطريقة جديدة". وحث مستمعه على ان ينحي الولاءات القبلية جانبا و "يعتبر نفسه فقط كعضو من أعضاء النوع البيولوجي ... حيث لا يستطيع أحد منا أن يرغب في اختفائه".
لقد نجونا من الخطر النووي حتى الآن ، ولكن لدينا الآن تكنولوجيا قوية جديدة للتعامل معها - وهي نفسها حرفياً - طريقة جديدة للتفكير. من أجل سلامتنا ، نحتاج إلى توجيه هؤلاء المفكرين الجدد [ بعني آلات الذكاء الإصطناعي] في الاتجاه الصحيح ، وجعلهم يتصرفون بشكل جيد من اجلنا. ليس من الواضح بعد ما إذا كان هذا ممكنًا ، لكن إذا كان الأمر كذلك ، فإنه سيتطلب نفس الروح التعاونية ، والرغبة نفسها في تنحية القبلية جانباً ، وهذا ما كان في ذهن راسيل.
ولكن هذا ما يتوقف عنده المتزحلق على الثلج ( تعليق من خارج النص: كما في لعبة الهوكي ويسمونها وقفة الهوكي وهي كما يقولون من أكفأ الوقوفات كما فهمت من معنى where the parallel stops) . إن تجنب الحرب النووية يعني الأمور جارية كالمعتاد. إن تحقيق مستقبل الحياة على المدى الطويل بحق الذكاء الإصطناعي يعني عالماً مختلفاً للغاية. غالباً ما يُعتقد أن الذكاء العام والتفكير الأخلاقي هما قدرات بشرية فريدة. لكن يبدو أن السلامة تتطلب أن نفكر بها كحزمة: إذا أردنا إعطاء معلومات عامة للآلات ، فسوف نحتاج إلى منحها سلطة أخلاقية أيضًا. وهذا يعني نهاية جذرية للاستثنائية البشرية. هذا سبب إضافي للتفكير في الوجهة الآن ، وأن نكون حذرين بشأن ما نتمناه.
المصدر:
http://www.cam.ac.uk/research/discussion/living-with-artificial-intelligence-how-do-we-get-it-right
للمواضيع المترجمة السابقة يرجى زيارة المدونة على هذا العنوان؛
https://adnan-alhajji.blogspot.com/?m=1
ليست هناك تعليقات:
إرسال تعليق