الخميس، 9 نوفمبر 2017

ما الذي ينبغي على الحكومات فعله بخصوص تصاعد الذكاء الإصطناعي



٣١ اكتوبر ٢٠١٧

الكاتب: ديفيد غلانك
مدير مركز التمرين  على البرامج في جامعة ويسترن استراليا

المترجم: ابو طه/ عدنان احمد الحاجي

المقالة رقم ٤٩٤ لسنة ٢٠١٧


October 31, 2017 1.12am AEDT

 David Glanc
Director of UWA Centre for Software Practice, University of Western Australia


ليس هناك شك في أن الذكاء الاصطناعي (AI))  قد حول  كل جانب من جوانب الحياة البشرية. إلى أي مدى سيصل  هذا التحول وما ستترتب عليه من آثار  كاملة على المجتمع، ما زال هذا غير معروف، ولكن هذا لم يمنع الناس من وضع تنبؤات متفائلة ووخيمة أيضاً .

وقد قوبلت دعوة إيلون موسك لتنظيم الذكاء الاصطناعي  بدعوات متساوية للحكومات بعدم القيام بذلك.

استراتيجيات حكومية

مشكلة الذكاء الاصطناعي  مع التعريف
واحدة من المشاكل الرئيسية  للذكاء الإصطناعي  كانت البلبلة  التي  احاطت بما يعنيه  بالضبط، وما يمكنه ان يقوم به  وما لا يمكنه  القيام به في الواقع. المشكلة الوحيدة الأكبر في فهم الذكاء الاصطناعي  كانت في توضيح  مدى اختلاف   تقنيات الذكاء الاصطناعي  الحالية  (مثل التعلم العميق)  عن الذكاء البشري.

الوصول إلى الحقائق
ومن أجل الإجابة على بعض هذه الأسئلة، عقدت منظمة التعاون الإقتصادي والتنمية  مؤتمراً في الأسبوع الماضي بشأن الذكاء الاصطناعي . اجتمع ممثلون عن الحكومة والصناعة، وأكاديميو الذكاء الاصطناعي وغيرهم لمراجعة  حالة الذكاء الاصطناعي، وطُرح سؤال عما يمكن للحكومات، بل وما ينبغي عليها أن تفعله، في وضع سياسة للاستفادة من  الذكاء الاصطناعي مع تقليل مخاطره.

أول ما أصبح واضحاً هو أن محور النقاش كان في الأساس على التعلم الآلي وعلى وجه الخصوص، التعلم العميق. برنامج التعلم العميق يتعلم ليكون قادراً على التعرف على أنماط من البيانات. غوغل، على سبيل المثال، يستخدمه للتعرف على الحيوانات الأليفة من وجوهها. شركة أخرى، ديبلDeepL، تستخدم التعلم العميق للقيام بالترجمة  عالية الجودة.
وأكد المتحدثون أن التعلم العميق يعمل فقط لأنه يستخدم قدراً كبيراً من البيانات التي تتم معالجتها على أجهزة كمبيوتر قوية. وقد أصبح ناجحاً كطريقة لأن الشركات لديها إمكانية الوصول إلى كميات كبيرة من البيانات، وفي الوقت نفسه، الى مقادير  كبيرة من قوة المعالجة الكومبيوترية الرخيصة.

المخاوف بشأن البيانات المستخدمة لتطبيقات الذكاء الاصطناعى

باستخدام كميات كبيرة من البيانات، بدأت  الأسئلة بالظهور على الفور ، مثلاً،  من اين يتم جمع البيانات، وما عي الأشياء التي تُستخدم  لها بالضبط.

 استخدام كميات كبيرة من البيانات الشخصية المحتملة يؤدي إلى إثارة المخاوف المتعلقة بالخصوصية، ومخاوف   بشأن كيف تستخدم  هذه البيانات بالضبط في تحديد النتائج  وما يترتب  عليها من آثار  في العالم الحقيقي.

في الولایات المتحدة علی سبیل المثال، یستخدم التعلم العمیق بالفعل لحساب شروط إصدار الحکم في قضایا المحکمة. لا توجد  هناك طريقة لأحد أن يعرف كيف توصل البرنامج إلى قرار معين، وخاصة ما هي العوامل في البيانات التي كانت أكثر أهمية في اتخاذ هذا القرار. في حالة واحدة خاصة في الولايات المتحدة، تم تحدي الحكم بمساعدة التعلم الآلي في وقت لاحق. بيد أن هذا التحدي لم يفلح لأن المحاكم رأت أن نواتج نظام إصدار الأحكام على التعلم الآلي تتسم بالشفافية الكافية، ولا ينبغي الكشف عن مزيد من التفاصيل عن كيفية عمل النظام.

مخاطر البيانات المنحازة

وقد أظهرت باحثة  الذكاء الآصطناعي جوانا برايسون في وقت سابق أن البيانات المستخدمة لتدريب آلة التعلم تحتوي على مجموعة من التحيزات بما في ذلك تلك التي عن  العِرق ونوع الجنس. ويترتب على ذلك عواقب وخيمة مع القرارات التي تتخذ عند تدريب نظم الذكاء الاصطناعى على هذا النوع من البيانات. وستعزز البيانات المتحيزة التحيز في قرارات هذه النظم.

وقد أظهر باحثون آخرون أنه من الممكن أن تفسد البيانات المستخدمة تدريب آلة التعلم مما يجعل،على سبيل المثال، خداع السيارات  ممكناً ،  عن طريق وضع  شريط فضي على يافطات الطريق، مما قد يؤدي بالسيارة للعمل بشكل غير ملائم.

في حين أن فوائد التعلم الآلي قد لا يتحقق بالكامل دون الوصول إلى قدر كبير من البيانات، يجب أن يكون هناك توازن بين مخاطر تركيز  مجموعة البيانات الشخصية الدائم التي  في أيدي عدد قليل من الشركات أو الحكومات .

ورأى العديد من المشاركين في المؤتمر أن البيانات هي المحرك الرئيسي للذكاء الإصطناعي  الأكثر حاجة إلى اللاوائح الحكومية.

المسؤلية ( العامة)  والمسؤولية القانونية في تطبيقات الذكاء الاصطناعى

هناك مجموعة أخرى هامة من الأسئلة  التي تنشأ عن مسألة المسؤولية القانونية  للمنتج ومسؤولية الشركات. لو تسببت سيارة ذاتية القيادة في وقوع حادث، فمن الذي يجب أن يلقى عليه اللوم؟ الشركة المصنعة للسيارة، او مطور البرمجيات لجزئية  الذكاء الإصطناعي  الذي  فشل، أو صاحب السيارة؟ مرة أخرى، كان هناك الكثير من النقاش حول هذا الموضوع ولكن لا توجد استنتاجات حقيقية، على الرغم من أن هناك توقع بأن المسؤولية سوف تقع على مصنعي السيارات.

 ليست مجرد  دعاية
احد المخاوف  التي أعرب عنها في المناقشة بشأن الذكاء الاصطناعي إمكانية أن يكون تأثيره مبالغاً فيه. التطبيقات التي تحقق أكبر قدر اً من التأثير اليوم هي أمثلة على التعرف على الأنماط . هذه القدرة لا تزال مفيدة جداً في مجموعة من المجالات  كالعلوم والطب والأمن السيبراني، فضلا عن مجموعة واسعة من المجالات الأخرى.

إذن، ما الذي ينبغي أن تفعله الحكومة بشأن الذكاء الإصطناعي؟
عندما يتعلق الأمر بما ينبغي أن تقوم به الحكومات، كان هناك اتفاق ضمني في المؤتمر على ضرورة تمكين الذكاء الإصطناعي  من لإستخدامه لفوائده  الواضحة للمجتمع. ويجب أن يكون متوازنا بتقليل  من مخاطر تصاعد جمع البيانات الشخصية إلى أدنى حد وكذلك مخاطر كيف يستخدم  الذكاء الاصطناعي لهذه البيانات.
هناك العديد من مجالات النقاش التي أصبحت مهمة للحكومات والنَّاس  عند اعتبار دور االذكاء الإصطناعي  في مجتمعاتهم. ما يجعل هذا الدور  شيئاً من التحدي هو أن الذكاء الإصطناعي يلامس كل جانب من جوانب الحياة إلى حد أكبر  أو الأق.    إلى أي مدى سيتطور الذكاء الإصطناعي وما مدى نجاحه  في أن يصبح  شبيه بالذكاء البشري ، هذا ما زلنا لا نعرفه حتى الآن.

https://theconversation.com/what-should-governments-be-doing-about-the-rise-of-artificial-intelligence-86561

ليست هناك تعليقات:

إرسال تعليق