الهندسةهندسة الاتصالات

أخطاء الشبكة ذات الانتشار العكسي في الاتصالات Backpropagation Neural Network  

اقرأ في هذا المقال
  • ما هي شبكات neural الاصطناعية؟
  • ما هو الانتشار العكسي؟
  • مزايا Backpropagation
  • أنواع شبكة الانتشار العكسي
  • عيوب التكاثر العكسي
  • تطبيقات Backpropagation

إنّ “backpropagation” هو خوارزمية تقوم بإعادة نشر الأخطاء من عقد الناتج إلى عقد الإدخال، لذلك يُطلق عليها “الانتشار العكسي للأخطاء”، ويُعرف ناقل الإدخال الذي ينتقل من خلال شبكة ناقل الإنتاج كما يتم التحقق من متجه الإنتاج هذا مقابل الإنتاج المطلوب، حيث إذا كانت النتيجة لا تتشابه مع متجه الإنتاج، يتم تقديم تقرير خطأ، وعند إنتاج تقرير الخطأ يتم تغيير الأوزان للانتقال إلى المخرجات المناسبة.

 

ما هي شبكات neural الاصطناعية؟

 

شبكة “neural”: هي عبارة عن مجموعة من وحدات الإدخال أو الإخراج المتصلة، حيث يكون لكل اتصال وزن مرتبط ببرامج الكمبيوتر الخاصة به، كما يساعدك على بناء نماذج تنبؤية من قواعد البيانات الكبيرة كما يساعدك على فهم الصور والتعلم البشري وخطاب الكمبيوتر وما إلى ذلك.

 

تستخدم الشبكة “neural” الاصطناعية قاعدة تعلم معروضة للإشراف لتصبح فعالة وقوية، كما تتدفق المعلومات في الشبكات “neural” بطريقتين مختلفتين، حيث عندما يتم تدريب النموذج أو التعلم وعندما يعمل النموذج بشكل طبيعي، إمّا للاختبار أو استخدامه لأداء أي مهمة، يتم إدخال المعلومات بأشكال متنوعة في النموذج من خلال “neural” المدخلة، وممّا يعمل على إنتاج عدة طبقات من “neural” المخفية والانتقال إلى “neural” الناتجة، والتي يُطلق عليها شبكة التغذية الأمامية.

 

ونظراً لأنّ جميع “neural” لا يتم تشغيلها في نفس الوقت، فإنّ “neural” التي تتلقى المدخلات من اليسار تتضاعف مع الأوزان أثناء انتقالها عبر الطبقات المخفية، وعند جمع جميع المدخلات من كل “neural” وعندما يتجاوز المجموع مستوى عتبة معيناً، فإنّ “neural” التي بقية صامتة ستطلق وتتصل.

 

الأسلوب الذي تتعلم بها شبكة “neural” الاصطناعية هي أنّها تتدرب ممّا قامت به بشكل سيء وتعمل بالصواب وهذا ما يُعرف باسم التغذية الراجعة، كما تُستخدم شبكات “neural” الاصطناعية التغذية الراجعة لمعرفة الصواب والخطأ، حيث تمثل شبكات “neural” التعلم العميق باستخدام الذكاء الاصطناعي.

 

وبعض سيناريوهات التطبيق ثقيلة جداً أو خارج نطاق التعامل مع خوارزميات التعلم الآلي التقليدية، كما هو معروف فإنّ شبكة “neural” تقدم مثل هذه السيناريوهات وتملأ الفجوة، والشبكات “neural” الاصطناعية مستوحاة من “neural” داخل جسم الإنسان والتي تنشط في ظل ظروف معينة، ممّا يؤدي إلى عمل ذي صلة يقوم به الجسم استجابة لذلك.

 

تتكون شبكات “neural” الاصطناعية من طبقات متنوعة من “neural” الاصطناعية المتصلة التي تعمل بوظائف التنشيط التي تساعد في تفعيل أو إيقاف تفعيلها، ومثل خوارزميات الآلة التقليدية هناك قيم محددة تتعلمها شبكات “neural” في مرحلة التدريب، وهناك الكثير من وظائف التنشيط المتوفرة وفقاً لطبيعة قيم الإدخال.

 

بمجرد إنشاء الناتج من طبقة شبكة “neural” النهائية، ويتم حساب وظيفة الخسارة أي المدخلات مقابل المخرجات ويتم تنفيذ “backpropagation”، حيث يتم تعديل الأوزان لجعل الحد الأدنى من الخسارة، كما إنّ العثور على القيم المثلى للأوزان هو ما تركز عليه العملية الكلية، حيث في backpropagation” يتم تعديلها لخفض الخسارة، والأوزان هي قيم تم تعلمها آلياً من شبكات “neural”، ويضبطون تلقائياً اعتماداً على الاختلاف بين المخرجات المتوقعة مقابل مدخلات التدريب.

 

ما هو الانتشار العكسي؟

 

الانتشار العكسي “Backpropagation”: هو آلية أساسية يتم من خلالها تدريب “neural”، كما إنّها آلية مستخدمة لضبط أوزان شبكة “neural”، وفيما يتعلق بمعدل الخطأ الناتج في التكرار السابق، كما إنّه مشابه لوسيط يخبر النموذج إذا كانت الشبكة قد ارتكبت خطأ أم لا بمجرد توقعها.

 

يتعلق الانتشار العكسي في شبكات “neural” بنقل المعلومات وربط هذه المعلومات بالخطأ الناتج عن النموذج عند إجراء التخمين، كما تعمل هذه الطريقة على تقليل الخطأ والذي يشار إليه بعكس ذلك باسم وظيفة الخسارة، والطريقة التي تقوم بها “Backpropagation” هو أنّه في البداية، وعندما يتم تصميم شبكة “neural”، يتم وضع قيم عشوائية كأوزان، ويكون المستعمل غير متأكد ممّا إذا كانت قيم الوزن المعينة صحيحة أو تناسب النموذج، ونتيجةً لذلك يُخرج النموذج القيمة التي تختلف عن المخرجات الفعلية أو المتوقعة، وهي قيمة خطأ.

 

للوصول إلى المخرجات المناسبة بأقل قدر من الخطأ، لا بد من تدريب النموذج على العديد من البيانات والمعلمات المرتبطة بها والذات الصلة، ومراقبة تقدمه في كل مرة يتنبأ فيها، وشبكة “neural” لها علاقة بالخطأ، وبالتالي كلما تبدلت المعلمات، يتغير الخطأ أيضاً، ويستعمل “backpropagation” تقنية تعرف باسم قاعدة دلتا أو نزول التدرج لتعديل المعلمات في النموذج.

 

 

  • تصل “X” عند المدخلات من المسار المتصل مسبقاً.

 

  • في “W”، يتم استعمال الأوزان الحقيقية لعرض المدخلات، كما يتم تعيين قيم “W” بشكل عشوائي.

 

  • يتم حساب الناتج لكل “neural” عن طريق إرجاع توجيه الانتشار، أي طبقة الإدخال والطبقة المخفية وطبقة الناتج.

 

  • يتم إيجاد الخطأ عند النواتج باستعمال معادلة الانتشار للخلف مرة أخرى من خلال طبقات الناتج والمخفية، ويتم ضبط الأوزان لتقليل الخطأ.

 

  • نشر مرة أخرى إلى الأمام لحساب الناتج والخطأ، حيث إذا تم تقليل الخطأ إلى الحد الأدنى وتنتهي هذه العملية، أو تنتشر للخلف وتقوم بضبط قيم الوزن.

 

  • تتكرر هذه العملية حتى ينخفض الخطأ إلى الحد الأدنى ويتم الحصول على المخرجات المرغوبة.

 

تقوم خوارزمية الانتشار العكسي من خلال إيجاد التدرج اللوني لوظيفة الخسارة فيما يرتبط بكل وزن بواسطة قاعدة السلسلة، وإيجاد تدرج طبقة واحدة في كل مرة والتكرار للخلف من الطبقة الأخيرة لابتعاد عن الحسابات الإضافية للمصطلحات الوسيطة في قاعدة السلسلة، كما يساعد على ضبط أوزان الشبكة “neural” بحيث تكون النتيجة أقرب وأقرب إلى المعلوم، والهدف من خوارزمية الانتشار العكسي هو تحسين الأوزان، بحيث يمكن للشبكة “neural” أن تتعلم كيفية تحديد المدخلات التعسفية للمخرجات بشكل صحيح.

 

مزايا Backpropagation:

 

  • إنّه بسيط وسريع وسهل البرمجة.

 

  • يتم ضبط أرقام المدخلات فقط وليس أي معلمة أخرى.

 

  • لا حاجة إلى معرفة مسبقة عن الشبكة.

 

  • إنّه مرن.

 

  • نهج قياسي ويعمل بكفاءة.

 

  • لا يتطلب من المستخدم تعلم وظائف خاصة.

 

أنواع شبكة الانتشار العكسي:

 

أولاً: الانتشار المتكرر ثابت:

 

الانتشار العكسي الثابت: هو أحد أنواع الشبكات التي تهدف إلى إنتاج تعيين لمدخل ثابت للناتج الثابت، وهذه الأنواع من الشبكات قادرة على حل مشاكل التصنيف الثابت مثل التعرف الضوئي على الحروف (OCR).

 

ثانياً: الانتشار المتكرر الدوري:

 

الانتشار المتكرر الدوري: هو نوع آخر من الشبكات المستخدمة في التعلم بنقطة ثابتة، حيث يتم تغذية عمليات التنشيط في التكاثر العكسي المتكرر إلى الأمام حتى تصل إلى قيمة ثابتة، وبعد ذلك يتم حساب الخطأ ونشره للخلف.

 

عيوب التكاثر العكسي:

 

  • قد يكون الانتشار العكسي حساساً للبيانات الصاخبة وعدم الانتظام.

 

  • أداءه يعتمد بشكل كبير على بيانات الإدخال.

 

  • يحتاج إلى وقت طويل للتدريب.

 

  • الحاجة إلى طريقة تعتمد على المصفوفة للتوزيع العكسي بدلاً من الدُفعة المصغرة.

 

تطبيقات Backpropagation:

 

  • يتم تدريب شبكة “neural” على قول كل حرف من كلمة وجملة.

 

  • يتم استخدامه في مجال التعرف على الكلام.

 

  • يتم استخدامه في مجال التعرف على الشخصيات والوجه.

 

المصدر
Introduction to Analog and Digital Communications/ Simon HaykinData Communication and Computer NetworkWIRELESS COMMUNICATIONS/ Andreas F. MolischTheory and Problems of Signals and Systems/ Hwei P. Hsu, Ph.D./ JOHN M. SENIOR Optical Fiber Communications Principles and Practice Third Edition

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى