عمليات غاوسين - Gaussian Process

اقرأ في هذا المقال


تعتبر العمليات الغاوسية أداة قوية في صندوق أدوات التعلم الآلي حيث إنّها تسمح لنا بعمل تنبؤات حول بياناتنا من خلال دمج المعرفة السابقة، وأكثر مجالات التطبيق وضوحا هو ملاءمة وظيفة للبيانات، حيث يُسمى هذا بالانحدار ويستخدم في علم الروبوتات أو التنبؤ بالسلاسل الزمنية، لكن العمليات الغاوسية لا تقتصر على الانحدار بل يمكن أيضاً توسيعها لتشمل مهام التصنيف والتكتل.

ما هي عمليات غاوسين – Gaussian Process؟

عمليات غاوسين (Gaussian Process): هي طريقة جديدة للتعلم الآلي تعتمد على نظرية بايز ونظرية التعلم الإحصائي حيث يوفر إطاراً مرناً للانحدار الاحتمالي ويستخدم على نطاق واسع لحل مشكلات الانحدار عالية الأبعاد أو العينات الصغيرة أو غير الخطية، ومن وجهة نظر مساحة الوظيفة يحدد (GP) التوزيع على الوظائف حيث أنّ (GPs) هي امتداد لنموذج (Gaussian) متعدد المتغيرات إلى المتجه اللانهائي للمتغيرات ذات القيمة الحقيقية حيث يتم تحديد (GP) تماماً بواسطة دالة متوسطة ودالة تغاير.

خصائص عمليات غاوسين – Gaussian Process:

  1. التطبيع (Normalization).
  2. التهميش (Marginalization).
  3. التجميع (Summation).
  4. التكييف (Conditioning).

تُستخدم العمليات الغاوسية عادةً لتوصيف مكون الضوضاء في أنظمة الاتصالات الرقمية، نظراً لأنّها ناتجة بشكل أساسي عن تقلبات الضوضاء الحرارية، تم وصفها على أنّها تقنية تقدير غير خطية في عام 1978م وتم نسيانها بسرعة بسبب تعقيدها الحسابي، أمّا في منتصف التسعينيات أعيد اكتشافها بشكل مستقل منذ ذلك الحين ثبت أنّها تناسب العديد من التطبيقات المختلفة.

أمّا في الوقت الحاضر لم يعد تعقيدها الحسابي مشكلة مقيدة، وهناك قدر كبير من الانتصاب على تقنيات التعلم الآلي لتصميم أنظمة الاتصالات الرقمية حيث تمت معالجة مشكلة معادلة القناة باستخدام أدوات مختلفة للتعلم الآلي، مثل: الإدراك متعدد الطبقات (MLPs) وشبكات الوظائف ذات الأساس الشعاعي (RBFNs) و(RBFNs) المتكررة وخرائط الميزات ذاتية التنظيم (SOFM) والمويجات الشبكات العصبية (GCMAC kernel adaline – KA) أو آلات ناقلات الدعم (SVMs)، لكن أنظمة الاتصالات الرقمية الأخرى التي استفادت من خوارزميات الكشف والتقدير غير الخطية هي الكشف متعدد المستخدمين وأنظمة المدخلات المتعددة والمخرجات المتعددة وتشكيل الحزمة والتشويه المسبق وتحديد المصنع.

بالنسبة لأساليب التعلم الآلي هذه فمن الضروري التحديد المسبق للمعلومات (البنية)، ونظراً لأنّ الطرق القياسية للبحث عن المعولمات الفائقة المثلى أي التحقق المتبادل تتطلب موارد حسابية هائلة، والتي لا تتوفر في معظم أجهزة استقبال الاتصالات، ونتيجةً لذلك يستخدمون بنية دون المستوى الأمثل تتطلب تسلسلات تدريب أطول لضمان الأداء الأمثل للمستقبل، وأيضاً فإنّه يجعل من الصعب التنبؤ بطول تسلسل التدريب لأنّه يعتمد على مدى ملاءمة البنية المختارة أو مقاييس الارتفاع مع المشكلة الحالية.

على سبيل المثال، يحتاج (SVM) مع نواة (Gaussian kernels) إلى ملاءمة عرضه والذي يتناسب مع مستوى الضوضاء، فإذا كان العرض كبيراً جدًا فيمكن تحسين (SVM) بتسلسلات تدريب قصيرة، لكن أداؤها ضعيف وإذا كان صغيراً جداً فإنّه يتطلب تسلسل تدريب أطول بكثير لتجنب فرط التجهيز، ولكل مثيل من المشكلة يوجد عرض أمثل.

لا يعتمد عرض النواة هذا فقط على قيم القناة ومستوى الضوضاء، ولكن أيضاً على القيم الفعلية للضوضاء نفسها فمن الناحية المثالية يجب اختيار عرض النواة في كل مرة نتلقى فيها تسلسل تدريب جديد، ولكن هذا قد ينطوي على تدريب (SVM) مختلف لكل عرض ممكن ثم اختيار جهاز الاستقبال الأمثل، بالإضافة إلى ذلك هذا العرض ليس هو المعلمة الفائقة الوحيدة لـ(SVM).

كما يجب علينا التحقق من صحة الهامش الناعم الذي يتعامل مع تقليل أخطاء التدريب وتعظيم الهامش، لذلك سيتعين علينا تدريب مجموعة من أجهزة الاستقبال ذات عرض مختلف ومعلومات تشعبية ذات هامش رقيق للعثور على الإعداد الأمثل في كل مشكلة، ومع ذلك يمكن فقط حل مشكلة تحسين واحدة في جهاز الاستقبال، وبالتالي فإنّ تحديد مسبق لأي معلومة فائقة (SVM) كما هو الحال مع الأدوات غير الخطية سيكون هو الحل الأنسب.

قدمت ​​عمليات (Gaussian) للتعلم الآلي كأداة غير خطية جديدة لتصميم مستقبلات الاتصالات الرقمية، كما يمكن تطبيق عمليات (Gaussian) على مشاكل الانحدار والتصنيف لضبط مستقبلات الاتصالات الرقمية بتسلسلات تدريب قصيرة، حيث يتم مقارنة عمليات غاوسين للانحدار (GPR) وعمليات غاوسين للتصنيف (GPC) بأحدث المستقبِلات الخطية وغير الخطية لإظهار قوتها في حل هذه المشكال.

وحتى يتم استخدامه لاكتشاف تعدد المستخدمين في أنظمة (CDMA) ومعادلة القنوات حيث ترجع جذور العمليات الغاوسية للتعلم الآلي إلى إحصائيات بايز، وبالتالي بناء دالة احتمالية لمعاملتها الفائقة، كما يمكن تحسين هذا الاحتمال لضبط المعلومة الفائقة ممّا تجعل هذه الخاصية (GPs) أداة جذابة لتصميم مستقبلات الاتصالات الرقمية غير الخطية، مقارنةً بأدوات التعلم الآلي غير الخطية الأخرى، لأنّه يمكن ضبط المعلومة الفائقة على النحو الأمثل لكل مثيل لمشكلتنا من خلال إجراء تحسين واحد.

عمليات غاوس للانحدار – Gaussian Processes for Regression:

تم تطوير أداة بايزية جديدة للتعلم الآلي تعتمد على العمليات الغاوسية (GPs) لتقدير الانحدار غير الخطي، حيث تفترض عمليات غاوس للانحدار (GPR) على أنّ (GP) يتحكم في مجموعة الانحدارات المحتملة، وبالتالي يتم إعطاء التوزيع المشترك لبيانات التدريب والاختبار بواسطة دالة كثافة (multidimensional Gaussian) ويتم تقدير التوزيع المتوقع لكل نقطة اختبار عن طريق التكييف على بيانات التدريب، تقدم (GPR) من وجهة نظر الانحدار الخطي المعمم بايزي، وعلى الرغم من أنّه يتم فقد من هذا الافتتاح تفسير (GPs) ولا يمكن العمل إلّا مع نماذج الاحتمالية الغاوسية، إلّا إنّها طريقة أبسط لفهم (GPR).

يحاكي هذا النهج الطريقة التي تقدم بها معظم الكتب المدرسية للتعلم الآلي الانحدار غير الخطي ويساعد في فهم (GPR) باعتباره تقديراً غير خطي لـ(MMSE)، لذلك يمكن للممارسين في معالجة الإشارات للاتصالات الرقمية الارتباط بسهولة بهذه الأداة الجديدة للتقدير والكشف، يكون كلا التفسيرين موصوفان حيث يظهران أنّهما متطابقان مع نماذج الاحتمالية الغاوسية.

عمليات غاوسية للتصنيف – Gaussian process for classification:

عملية غاوسي للتصنيف أصعب قليلاً من نظير الانحدار، لأنّه لا يتم الاعتماد على دالة الاحتمال الغاوسي للتنبؤ بتسميات كل فئة ولأنّ النتائج تأتي من مجموعة منفصلة، وبالتالي للتنبؤ بالتسميات نحتاج إلى اللجوء إلى التكامل العددي أو التقريب.

نواة عملية غاوسين – Gaussian process kernels:

دالة النواة (Kernel function): تصف النواة أو “دالة التغاير” التغاير في المتغيرات العشوائية لعملية غاوسي جنباً إلى جنب مع الوظيفة المتوسطة حيث تحدد النواة تماماً العملية الغاوسية.

نظرية الحد المركزي عند Gaussian:

نظرية الحدود المركزية (Central Limit Theorem): هي نتيجة مهمة وركيزة في مجالات الإحصاء والاحتمالات، وتنص النظرية على أنّه كلما زاد حجم العينة فإنّ توزيع المتوسط ​​عبر عينات متعددة سيقارب التوزيع الغوسي.

آلية أخذ العينات في نظرية الحد المركزي عند Gaussian:

تُعد نظرية الحد المركزي مثيرة للإعجاب، خاصةً وأنّ هذا سيحدث بغض النظر عن شكل التوزيع الذي نستمد منه العينات حيث إنّه يوضح أنّ توزيع الأخطاء من تقدير المجموعة يعني أنّه يتناسب مع التوزيع الذي يعرفه مجال الإحصاء كثيراً.

سيكون تقدير التوزيع الغاوسي أكثر دقة مع زيادة حجم العينات المأخوذة من المجموعة، وهذا يعني أنّه إذا استخدمنا معرفتنا بالتوزيع الغاوسي بشكل عام للبدء في إجراء استنتاجات حول وسائل العينات المأخوذة من المجموعات، فإنّ هذه الاستنتاجات ستصبح أكثر فائدة مع زيادة حجم العينة.

أحد التداعيات المثيرة للاهتمام لنظرية الحد المركزي المركزية هو أنّه يمكن استخدامها لتوليد أرقام عشوائية غاوسية، كما يمكن إنشاء أعداد صحيحة عشوائية بشكل منتظم ومجموعات مجموع منها معاً حيث ستكون نتائج المجاميع غاوسية، وأنّ المتوسط ​​هو مجرد المجموع الطبيعي للعينة وتُعد هذه الطريقة بإنّها طريقة أبطأ لتوليد متغيرات جاوس العشوائية مقارنة بالطرق الأخرى مثل طريقة (Box – Muller)، ولكنّها تطبيق واضح وذكي للنظرية.

تقترح عمليات (Gaussian) كجهاز استقبال غير خطي جديد لأنظمة الاتصالات الرقمية، كما يمكن استخدام إطار عمل (GPs) لحل مشاكل التصنيف (GPC) والانحدار (GPR)، وكذلك الحد الأدنى لمتوسط ​​حل الخطأ التربيعي وهو توقع الرمز المرسل في ضوء المعلومات الموجودة في المستقبل، وهي وظيفة غير خطية للرموز المستقبلة للمدخلات المنفصلة، كما يمكن تقديم (GPR) كمقدر (MMSE) غير خطي وبالتالي قادر على تحقيق الأداء الأمثل من وجهة نظر (MMSE).

ويمكن النظر إلى تصميم مستقبلات الاتصالات الرقمية على أنّه مشكلة اكتشاف، تناسب (GPC) بشكل خاص لأنّها تعين الاحتمالات اللاحقة لكل رمز مرسل، وعمليات (Gaussian) هي أدوات التعلم الآلي (Bayesian) التي تصوغ دالة الاحتمال لمعلماتها الفائقة والتي يمكن بعد ذلك ضبطها على النحو الأمثل.

وبالنسبة لمجموعة معينة من نقاط التدريب من المحتمل أن يكون هناك عدد لا نهائي من الوظائف التي تناسب البيانات حيث تقدم عمليات (Gaussian) حلاً أنيقاً لهذه المشكلة عن طريق تعيين احتمال لكل من هذه الوظائف ثم يمثل متوسط ​​توزيع الاحتمالات هذا التوصيف الأكثر احتمالية للبيانات، علاوة على ذلك يتيح لنا استخدام نهج احتمالي لدمج ثقة التنبؤ في نتيجة الانحدار.

المصدر: A Visual Exploration of Gaussian ProcessesGaussian Process Regression Plus Method for Localization Reliability ImprovementLecture 15: Gaussian ProcessesCentral Limit Theorem


شارك المقالة: