خوارزميات التعلم الآلي التي عليك معرفتها

اقرأ في هذا المقال


في التعلم الآلي، هناك ما يسمى نظرية “لا غداء مجاني”. باختصار، تنص على أنه لا يوجد خوارزمية واحدة للتعلم الآلي تعمل بشكل أفضل مع كل مشكلة، وهي ذات صلة بشكل خاص بالتعلم الخاضع للإشراف (أي النمذجة التنبؤية). على سبيل المثال، لا يمكنك القول أن الشبكات العصبية دائمًا ما تكون أفضل من أشجار القرار أو العكس. هناك العديد من العوامل المؤثرة، مثل حجم مجموعة البيانات وبنيتها. نتيجة لذلك، يجب أن تجرب العديد من الخوارزميات المختلفة لمشكلتك، أثناء استخدام “مجموعة اختبار” من البيانات لتقييم الأداء واختيار الأفضل، كما يجب أن تكون الخوارزميات التي تجربها مناسبة لمشكلتك، وهنا يأتي دور مهمة اختيار خوارزمية التعلم الآلي الصحيحة.

خوارزميات تعلم الآلة يجب أن تعرفها:

1. الانحدار الخطي Linear regression

ربما تكون خوارزمية الانحدار الخطي أحد أكثر الخوارزميات شهرة وفهمًا في الإحصاء والتعلم الآلي. الانحدار الخطي هو نموذج خطي، على سبيل المثال، نموذج يفترض وجود علاقة خطية بين متغيرات الإدخال (x) ومتغير إخراج واحد (y) مما يعني أنه يمكن حساب (y) بسهولة باستخدام العلاقة الخطية، فعندما يكون هناك متغير إدخال واحد (x)، يشار إلى المعادلة باسم الانحدار الخطي البسيط، وعندما يكون هناك أكثر من متغير إدخال، يشار إلى المعادلة على أنها انحدار خطي متعدد.

المعادلة: “y = B0 + B1 * x” (حيث أن “x” متغير إدخال، “y” هو متغير الإخراج و “B0 و B1” معاملات)

2. الانحدار اللوجستي Logistic Regression

الانحدار اللوجستي هو خوارزمية تصنيف تعتمد على الدالة المستخدمة في الوظيفة اللوجستية أو الوظيفة السينية، وتكون منحنى على شكل حرف (S) يُستخدم للتنبؤ بنتيجة ثنائية مثل (1/0) أو (نعم/لا)، بالنظر إلى مجموعة من المتغيرات المستقلة. ويمكن اعتبارها أيضًا حالة خاصة من الانحدار الخطي عندما يكون متغير الإخراج محدد، حيث نستخدم سجل الاحتمالات كمتغير تابع. يتنبأ باحتمالية حدوث الحدث عن طريق ملاءمة البيانات لوظيفة تسجيل الدخول.

المعادلة: “p(X) = e^(b0 + b1*X) / (1 + e^(b0 + b1*X))”

3. “K” أقرب الجيران K-Nearest Neighbours

خوارزمية “K” الأقرب للجيران أو (KNN) للاختصار، هي خوارزمية تعلم آلي خاضعة للإشراف يمكن استخدامها لحل مشاكل التصنيف والانحدار. تعمل الخوارزمية من خلال إيجاد المسافات بين نقطة البيانات الجديدة المضافة والنقاط الموجودة بالفعل في الفئتين المنفصلتين.

المعادلة: “EuclideanDistance(x, xi) = sqrt( sum( (xj — xij)² ) )”

4. دعم آلات المتجهات (SVM)

وهي خوارزمية تعلم آلي خاضعة للإشراف يمكن استخدامها أيضًا لكلتا المهمتين التصنيف والانحدار. مع ذلك، فإنها تُستخدم في الغالب في مشاكل التصنيف. تقوم الخوارزمية بإيجاد الحدّ بين فئتي البيانات اللذين يتم تكبيرها، وهناك مستويات أخرى أيضًا يمكنها فصل الفئتين، لكن الـ (hyperplane) في خوارزمية دعم آلات المتجهات يمكنها زيادة الهامش بين الفئات فقط.

المعادلة: “B0 + (B1 * X1) + (B2 * X2) = 0” حيث يحدد “B1 و B2” ميل الخط و “B0” (التقاطع) الذي وجدته خوارزمية التعلم. “X1 و X2” هما متغيرا الإدخال.

5. أشجار القرار Decision Trees

يشار إلى خوارزميات شجرة القرار باسم (CART) أو أشجار التصنيف والانحدار، وهو مخطط انسيابي مثل هيكل الشجرة، حيث تشير كل عقدة داخلية إلى اختبار السمة، ويمثل كل فرع نتيجة للاختبار، وكل عقدة طرفية (عقدة نهائية) تحمل تسمية فئة. تعطي “درجة جيني” فكرة عن مدى جودة التقسيم من خلال مدى اختلاط فئات الاستجابة في المجموعات التي تم إنشاؤها بواسطة التقسيم.

6. الغابة العشوائية Random Forest

الغابات العشوائية هي أسلوب تعلم جماعي يُبني من أشجار القرار، حيث تتضمن خوارزمية الغابات العشوائية إنشاء أشجار قرارات متعددة باستخدام مجموعات بيانات تمهيدية من البيانات الأصلية واختيار عشوائي لمجموعة فرعية من المتغيرات في كل خطوة من خطوات شجرة القرار، ثم يختار النموذج وضع جميع تنبؤات كل شجرة قرار.

7. خوارزمية التعزيز التكيفي AdaBoost

التعزيز التكيفي هي أيضًا خوارزمية تستفيد من طرق التعبئة والتعزيز لتطوير مؤشر المُحسَّن. تقوم الخوارزمية  بإنشاء غابة من جذوع الأشجار بدلاً من الأشجار (الجذع هو شجرة مكونة من عقدة واحدة وعقدتين طرفيتين فقط)، تتخذ الخوارزمية نهجًا أكثر تكرارية بمعنى أنها تسعى إلى التحسين المتكرر من الأخطاء التي ارتكبها الجذع (الجذور) السابق.

8. دفعة التدرج Gradient Boost

تعد خوارزمية دفعة التدرج أيضًا خوارزمية مجموعة تستخدم طرق التعزيز لتطوير متنبئ محسّن. على عكس خوارزمية التعزيز التكيفي الذي يبني جذوعًا، تقوم الخوارزمية ببناء أشجارًا عادةً تتراوح ما بين (8 و 32) عقد طرفية، ترى الخوارزمية أن مشكلة التعزيز هي مشكلة تحسين، حيث تستخدم دالة الخسارة (وهي الدالة التي تحسب المسافة بين المخرجات الحالية للخوارزمية والمخرجات المتوقعة) وتحاول تقليل الخطأ، لهذا يطلق عليها تعزيز التدرج؛ لأنها مستوحى من نزول المنحدر.

9. دفعة (XG)  XGBoost

هي واحدة من أكثر الخوارزميات شيوعًا والمستخدمة على نطاق واسع اليوم؛ لأنها ببساطة قوية جدًا، وهي مشابه لخوارزمية دفعة التدرج، ولكنها تحتوي على بعض الميزات الإضافية التي تجعله أقوى بكثير. حيث توفر طريق مباشرًا إلى الحدود الدنيا بدلاً من هبوط التدريجي، مما يجعله أسرع بكثير، والخوارزمية تقلل من الارتباط بين الأشجار، مما يؤدي في النهاية إلى تحسين قوة المجموعة.

10. خوارزمية Light GBM

إنه نوع آخر من خوارزمية التعزيز التي أظهرت أنها أسرع وأحيانًا أكثر دقة من “XGBoost”. تستخدم هذه الخوارزمية تقنية فريدة تسمى أخذ العينات من جانب واحد على أساس التدرج (GOSS) لتصفية مثيلات البيانات للعثور على قيمة مقسمة.

11. خوارزمية Naive Bayes

وهي خوارزمية تصنيف تستخدم لمشاكل التصنيف الثنائية (من فئتين) ومتعددة الفئات. يتم استخدامها عندما يكون متغير المخرجات منفصلًا. وكما يوحي الاسم، تعتمد هذه الخوارزمية بالكامل على نظرية “Bayes”، حيث تقول النظرية أنه يمكننا حساب احتمال جزء من البيانات ينتمي إلى فئة معينة إذا تم إعطاء معرفة مسبقة.

المصدر: 11 ML Algorithms You Should KnowTop 10 Machine Learning Algorithms For Beginners: Supervised, Unsupervised Learning and More


شارك المقالة: