هل يمكن للروبوت أن يفسر لماذا اتخذ قراراً؟

اقرأ في هذا المقال


الروبوت لا يمكن أن يفسر لماذا اتخذ قراراً

في الواقع قد تتمثل المشكلة في الذكاء الاصطناعي في أننا لا ندرك بالتحديد كيف تتم عملية التعلم في أدمغتنا نحن البشر، ليتم محاكاتها في الآلة، حيث تطلب عمل الروبوتات اتخاذ قرارات مثلما يفعل البشر، ويتطلب هذا تقييم العديد من الخيارات ومئات من النتائج المحتملة، حيث قد قام الخبراء بجعل الذكاء الاصطناعي يفكر مثل الإحصائيين، والمفارقة هي أننا نملك الآن فكرة محدودة جداً عمّا يجري داخل أدمغة الذكاء الاصطناعي، ونطلق على ذلك الوضع في العادة “مشكلة الصندوق الأسود”، لأنه على الرغم من معرفتنا بالمعلومات أو البيانات التي نغذيها للروبوت، ونرى النتائج التي تصدر عن ذلك، فإننا لا نعرف كيف يتوصل ذلك الصندوق الذي أمامنا لهذه النتائج.

حيث يوجد لدينا نوعان من الذكاء الذي لا ندركه بالكامل، فإنّ هذه الشبكات العصبية الاصطناعية الموجودة في الروبوتات تقتصر للمهارات اللغوية، فهي بذلك لن تتمكن من شرح ما الذي تفعله لنا كبشر، أو لماذا تتخذ قراراتها، وكما هو الحال في جميع أجهزة الذكاء الاصطناعي، فإنها ليس لديها القدرة على الفهم والمنطق المتوفرة لدى الإنسان، قبل عدة عقود قام الخبراء والمصممين بتطبيق برنامج للذكاء الاصطناعي على بعض البيانات الطبية، وشمل ذلك أشياء من قبيل الأعراض المرضية ونتائجها، وكان الهدف هو حساب مدى خطر الموت الذي قد يتعرض له المريض في يوم معين، بحيث يمكن للأطباء اتخاذ تدابير وقائية.

وكان يظهر أن الأمور تسير بشكل طبيعي وبصورة منطقية إلى أن واجه طالب في جامعة (Pittsburgh) أمراً غير متوقع، فقد لاحظ ذات ليلة شيء غريب، التي كان يعالج نفس البيانات سطراً بسطر عن طريق قواعد خوارزمية أكثر بساطة، لكي يتمكن من قراءة منطقها في عملية اتخاذ القرار، وكانت إحدى القراءات الآلة تقول “الربو جيد بالنسبة لك إذا كان لديك التهاب رئوي”. لكن الأطباء تعجبوا من مثل هذا الخطأ، وقالوا إنه يجب إصلاحه، فالربو في الواقع يشكل عاملاً خطيراً في الإصابة بالإلتهاب الرئوي، حيث أن كلاهما يؤثر على الرئتين. ولن يعرف الأطباء على وجه التأكيد لماذا تعلمت الآلة هذه القاعدة.

ومع زيادة الاهتمام بتقنيات الذكاء الاصطناعي في الكثير من القطاعات، فقد يراود العديد من الخبراء القلق في هذا المجال، فقد فرض الاتحاد الأوروبي تشريعات جديدة تعطي الأفراد الحق في الحصول على تفسير للمنطق الكامن وراء قرارات أجهزة الذكاء الاصطناعي، وفي غضون ذلك، تعكف الذراع البحثية للجيش الأمريكي، وهي وكالة مشاريع البحث الدفاعية المتقدمة (داربا) على استثمار 70 مليون دولار في برنامج جديد لتفسير وشرح قرارات أجهزة الذكاء الاصطناعي.

حيث أنّه في الآونة الأخيرة قد لاحظ الخبراء والمختصين تحسّن كبير في مدى دقة هذه الأنظمة، ولكن الثمن الذي ندفعه لذلك هو أن هذه الأنظمة في غاية التعقيد لدرجة أننا لا نعرف لماذا توصي بشيء معين أو لماذا تقوم بحركة معينة في لعبة من الألعاب؟


شارك المقالة: