تهديدات إلكترونية يسببها الذكاء الاصطناعي AI
تم عرض الذكاء الاصطناعي (AI) والتعلم الآلي (ML) بشكل شائع في أفلام الخيال العلمي وليس في الحياة اليومية، ولكن الكثير قد تغير خلال العقد الماضي مع زيادة وتيرة التطورات التكنولوجية بشكل كبير.
تم عرض الذكاء الاصطناعي (AI) والتعلم الآلي (ML) بشكل شائع في أفلام الخيال العلمي وليس في الحياة اليومية، ولكن الكثير قد تغير خلال العقد الماضي مع زيادة وتيرة التطورات التكنولوجية بشكل كبير.
هناك العديد من العوامل المؤثرة على اختيار خوارزمية التعلم الآلي، مثل حجم مجموعة البيانات وبنيتها. نتيجة لذلك، يجب أن تجرب العديد من الخوارزميات المختلفة لمشكلتك، أثناء استخدام مجموعة اختبار من البيانات لتقييم الأداء واختيار الأفضل
تجه المؤسسات المعنية بإدارة المدن والتخطيط الحضري بالاهتمام كثيراً بالتخطيط المستقبلي لنمو المدن والأحياء السكنية، بحيث تنمو هذه المدن والأحياء بوتيرة يمكن توقعها، ويمكن معها توفير الموارد والبنية التحتية اللازمة مثل خدمات مياه وكهرباء وتعليم
الحوسبة المعرفية مزيج من عدّة تقنيات غاية في الأهمية، وهي تحاول الاستفادة من هذه التقنيات على أفضل صورة، من هذه التقنيات
قد نشعر بالانزعاج نتيجة التطفّل على خصوصيتنا، من خلال التتبّع الجغرافي لتحرّكاتنا واتصالاتنا من قبل الجهات الرسمية، خاصة إذا تم استخدام واستغلال البيانات بطرق غير شرعية، لكن الاستفادة من بيانات الآثار الرقمية (Traces) قد يمنح السلطات الصحية رؤى مهمة حول سلوك وطرق انتشار فيروس كورونا.
شهد الذكاء الاصطناعي تطوّر كبير في السنوات القليلة السابقة، فهو بذاك أصبح يشكل رأس حربة في مواجهة التحديات والمخاوف على كوكب الأرض، ومن أهم وآخر هذه التحديات فيروس كورونا الذي أصبح الشغل الشاغل للعالم. سنتناول في هذه المقالة، كيف يتم توظيف البيانات مع تقنية الذكاء الاصطناعي في ظل أزمة فيروس كورونا، واستعراض عدد من الشواهد والأمثلة من أرض الواقع.
من الطبيعي أن يتوارد إلى الأذهان تساؤلات تتمحور حول الجهات المهتمة في التعلم الآلي، حيث يمكن توظيف ذلك في العديد من مجالات الحياة، ومن أهم الجهات المهتمة بالتعلم الآلي
لا يقتصر دور الذكاء الاصطناعي في المساعدة بشكل أساسي على تتبّع تفشي فيروس كورونا فقط، ولكن له دور كبير في الأبحاث القائمة حول إمكانية تطوير لقاح فعال لفيروس كورونا المستجد،
يمكن تعريف الذكاء الاصطناعي (Artificial Intelligence AI)، على أنه قدرة الكمبيوتر الرقمي أو الروبوت الذي يتحكم فيه الكمبيوتر على أداء المهام المرتبطة عادة بالكائنات الذكية.
(Machine Learning) ويشار له اختصار (ML)، يمكن تبسيط مفهوم تعلم الآلة بأنه أحد الفروع المنبثقة عن علم الذكاء الاصطناعي (AI) القائمة على برمجة الحواسيب بمختلف أشكالها لتصبح قادرةً على تنفيذ الأوامر وأداء المهام الموكولة إليها بالاعتماد على البيانات المتواجدة لديها وتحليلها مع تقييد التدخل البشري في توجيهها أو تغييبه تماماً. ويشار إلى أن مصطلح تعلم الآلة قد ظهر من قبل رائد الذكاء الاصطناعي آرثر صامويل في سنة 1959 ضمن نطاقِ عمل مختبرات (IBM)، ومن الجديرِ بالذكر فإن الآلة في هذه الحالة يجب أن تعتمد على تحليل البيانات المدخلة إليها مسبقاً لمواجهة الأوامر والمهام المطلوبة منها، فيكون دور العنصر البشري ضئيلاً جداً في نهاية المطاف.
لطالما كان الفرق الرئيسي بين الآلة والإنسان هو العقل البشري المتطور باستمرار من جهة، وصفات العاطفة الإنسانيَّة من جهة أخرى؛ فكل شخص يختلف عن الآخر بردات الفعل الطباع وقابلية التعلم، أما الآلات فهي مبرمجة بناءً على تعليمات محددة لا تخرج عنها،
استحوذ الذكاء الاصطناعي في الآونة الأخيرة على اهتمام العالمِ بأسره، فأصبح الحوار الأهم على طاولات النقاش حول ما يسعى العالم إلى بلوغه من تطور تكنولوجي وتقدم غير مسبوق، وبالفعل لم يكن ذلك الاهتمام عبثاً
تعددت التقنيات والمفاهيم الذكية الحديثة والتي أصبحت ثورة علمية مرغوبة ومفيدة، ولا تزال في تقدم مستمر لخلق منتجات أكثر ذكاء وقدرة على التواصل والتفاهم مع العالم الخارجي واتخاذ القرارات، وكثيراً ما نسمع مصطلحات ونألف سماعها إلا أننا لا نعلم بالضبط ما هي أو قد نحتاج لتعريف دقيق يوضح الفروقات، هل تعلم الآلة هو نفسه الذكاء الاصطناعي أم هما مجالان منفصلان؟ دعونا نعرف بشكل تفصيلي ما هو الفرق بين الذكاء الاصطناعي وتعلم الآلة.
لربما لن تستطيع معظم الشركات أن توظف عدد كبير من الموظفين، وتحمّل التكاليف الملقاة على عاتقها بما يخص ذلك فقط من أجل إدارة وتنسيق بياناتها الهائلة والمتغيرة باستمرار بين وهلةٍ وأخرى، لذلك تلجأ هذه الشركات إلى استخدام نمطية برمجية تتكفل بتحمل هذا الحمل لتوفر الكثير من المال، والوقت، بالإضافة إلى تحقيق السرعة في إنجاز هذه العمليات، وهذا ما يسمى تعلم الآلة.
تعلم الآلة أو Machine learning اختصار (ML) هي نوع من خوارزميات الحلول الحسابية التي تسمح للتطبيقات البرمجية بأن تصبح أكثر دقة في توقع النتائج أو الأحداث.