ما هي هجمات الذكاء الاصطناعي AI Attack

اقرأ في هذا المقال


على عكس الهجمات الإلكترونية التقليدية التي تسببها أخطاء بشرية في التعليمات البرمجية، يتم تمكين هجمات الذكاء الاصطناعي (AI Attack) من خلال قيود متأصلة في خوارزميات الذكاء الاصطناعي الأساسية التي لا يمكن إصلاحها، علاوة على ذلك، توسع هجمات الذكاء الاصطناعي بشكل أساسي مجموعة الكيانات التي يمكن استخدامها لتنفيذ الهجمات الإلكترونية، حيث يمكن الآن استخدام الأشياء المادية للهجمات الإلكترونية، كما يمكن أيضًا تسليح البيانات بطرق جديدة باستخدام هذه الهجمات، مما يتطلب تغييرات في طريقة جمع البيانات وتخزينها واستخدامها.

  • “AI Attack” اختصار لـ “Artificial Intelligence”.

مجالات تتأثر بشكل مباشر بهجمات الذكاء الاصطناعي:

هنالك الكثير من المجالات التي تتأثر بشكل فعال بهجمات الذكاء الاصطناعي منها، مرشحات المحتوى والجيش وإنفاذ القانون والمهام القائمة على الإنسان تقليديًا التي يتم استبدالها بالذكاء الاصطناعي، والمجتمع المدني، حيث تعد هذه المناطق أهدافًا جذابة للهجوم، وهي تزداد ضعفًا مع مرور الوقت بسبب اعتمادها المتزايد للذكاء الاصطناعي للمهام الحرجة.

أشكال هجمات الذكاء الاصطناعي التي تصيب الخوارزميات الأساسية:

  • هجمات الإدخال: معالجة ما يتم إدخاله في نظام الذكاء الاصطناعي من أجل تغيير إخراج النظام لخدمة هدف المهاجم، نظرًا لأن كل نظام ذكاء اصطناعي في جوهره عبارة عن آلة بسيطة فهو يأخذ مدخلات، ويقوم ببعض العمليات الحسابية، ويعيد مخرجات ويسمح التلاعب بالمدخلات للمهاجمين بالتأثير على مخرجات النظام، كما تؤدي هجمات الإدخال إلى تعطل نظام الذكاء الاصطناعي عن طريق تغيير المدخلات التي يتم تغذيتها في النظام، هذه الهجمات خطيرة بشكل خاص لأن أنماط الهجوم لا يجب أن تكون ملحوظة، بل ويمكن حتى أن تكون غير قابلة للكشف تمامًا.
  • هجمات التسمم: إفساد العملية التي يتم خلالها إنشاء نظام الذكاء الاصطناعي بحيث يتعطل النظام الناتج بالطريقة التي يريدها المهاجم، حيث تتمثل إحدى الطرق المباشرة لتنفيذ هجوم تسمم في إتلاف البيانات المستخدمة أثناء هذه العملية، وذلك لأن أحدث أساليب التعلم الآلي التي تدعم الذكاء الاصطناعي تعمل من خلال تعلم كيفية القيام بمهمة ما، لكنها تتعلم من مصدر واحد ومصدر واحد فقط وهو البيانات، تسمم البيانات وتسمم نظام الذكاء الاصطناعي، كما يمكن أن تؤدي هجمات التسمم أيضًا إلى تعريض عملية التعلم نفسها للخطر.

اضرار هجمات الذكاء الاصطناعي في المجالات التجارية والعسكرية

  • سبب الضرر: يريد المهاجم إحداث ضرر من خلال حدوث عطل في نظام الذكاء الاصطناعي، مثال على ذلك هو هجوم يتسبب في تجاهل مركبة ذاتية لإشارات التوقف، وذلك من خلال مهاجمة نظام الذكاء الاصطناعي بحيث يتعرف بشكل غير صحيح على علامة التوقف كعلامة أو رمز مختلف، كما يمكن للمهاجم أن يتسبب في تجاهل المركبة المستقلة لإشارة التوقف وتحطمها في المركبات والمشاة الآخرين.
  • إخفاء شيء ما: يريد المهاجم التهرب من الاكتشاف بواسطة نظام ذكاء اصطناعي، مثال على ذلك هو الهجوم الذي يتسبب في تعطيل عامل تصفية المحتوى المكلف بمنع الدعاية الإرهابية من النشر على شبكة اجتماعية، وبالتالي السماح بنشر المواد دون اي صعوبات او عوائق.
  • تحطيم الثقة في النظام: حيث يريد المهاجم أن يفقد المشغل الثقة في نظام الذكاء الاصطناعي، مما يؤدي إلى إغلاق النظام، ومن الأمثلة على ذلك الهجوم الذي يتسبب في خطأ إنذار أمان آلي في تصنيف الأحداث العادية على أنها تهديدات أمنية، مما يؤدي إلى إطلاق وابل من الإنذارات الكاذبة التي قد تؤدي إلى إيقاف تشغيل النظام، على سبيل المثال، قد تتسبب مهاجمة نظام أمان قائم على الفيديو لتصنيف قطة ضالة عابرة أو شجرة نفخ على أنها تهديد أمني في جعل نظام الأمان غير متصل بالإنترنت، وبالتالي السماح للتهديد الحقيقي بالتهرب من الاكتشاف.

لماذا توجد هجمات الذكاء الاصطناعي

توجد هجمات الذكاء الاصطناعي بسبب وجود قيود أساسية في خوارزميات الذكاء الاصطناعي الأساسية التي يمكن للخصوم استغلالها لإفشال النظام، على عكس هجمات الأمن السيبراني التقليدية، فإن نقاط الضعف هذه ليست بسبب الأخطاء التي يرتكبها المبرمجون أو المستخدمون، حيث  إنها مجرد عيوب في الأساليب الحديثة، وبوضوح اكثر فإن الخوارزميات التي تجعل أنظمة الذكاء الاصطناعي تعمل بشكل جيد غير كاملة، كما أن قيودها المنهجية تخلق فرصًا للخصوم للهجوم، على الأقل في المستقبل المنظور، هذه مجرد حقيقة من حقائق الحياة الرياضية، لمعرفة سبب ذلك، تتم الحاجة إلى فهم كيفية عمل الخوارزميات التي تدعم الذكاء الاصطناعي. 

يتم تشغيل العديد من أنظمة الذكاء الاصطناعي بواسطة التعلم الآلي، وهي مجموعة من التقنيات التي تستخرج المعلومات من البيانات من أجل تعلم كيفية القيام بمهمة معينة، حيث إن خوارزمية التعلم الآلي تتعلم بشكل مشابه لكيفية تعلم البشر، حيث يتعلم البشر من خلال رؤية العديد من الأمثلة على شيء أو مفهوم في العالم الحقيقي، ويخزنون ما تم تعلمه في الدماغ لاستخدامه لاحقًا، كما يتم تعلم خوارزميات التعلم الآلي من خلال رؤية العديد من الأمثلة على كائن أو مفهوم في مجموعة بيانات، وتخزين ما تم تعلمه في نموذج لاستخدامه لاحقًا، في العديد من تطبيقات الذكاء الاصطناعي التي تعتمد على التعلم الآلي، إن لم يكن معظمها، كما لا توجد أي معرفة خارجية مستخدمه في هذه العملية، فهي تعتمد كليًا على مجموعة البيانات ولا شيء آخر.

المفتاح الرئيسي لفهم هجمات الذكاء الاصطناعي

المفتاح لفهم هجمات الذكاء الاصطناعي هو فهم ما هو التعلم في التعلم الآلي، والأهم من ذلك، التذكر أن التعلم الآلي يتعلم من خلال النظر في العديد من الأمثلة لمفهوم أو كائن في مجموعة بيانات، وبشكل أكثر تحديدًا، يتم استخدام الخوارزميات التي تستخرج وتعمم الأنماط الشائعة في هذه الأمثلة، حيث يتم تخزين هذه الأنماط داخل النموذج، بأخذ مثال التعرف على علامة التوقف، ستحدد خوارزمية التعلم الأنماط في البكسل التي تشكل أمثلة الصور، مثل المساحات الكبيرة من اللون الأحمر.

حيث يتم استدعاء النموذج لاحقًا لاكتشاف علامة توقف في صورة جديدة، فسيبحث في تلك الصورة عن نفس أنماط البكسل، إذا تم العثور على أنماط تطابق تلك التي تم تعلم ربطها بعلامة يجب التوقف، اما إذا وجد بدلاً من ذلك أنماطًا تتطابق مع تلك التي تم تعلم ربطها بكائن مختلف، مثل الضوء الأخضر، فسوف ينتج عنه أنه عثر على ضوء أخضر، هذه الأنماط عامة بمعنى أنها يجب أن تعمل في أماكن جديدة، نظرًا للنجاح غير المسبوق للذكاء الاصطناعي على مدار العقد الماضي، فمن الغريب معرفة أن هذه الهجمات ممكنة، بل والأكثر من ذلك، أنه لم يتم إصلاحها بعد.

المصدر: AI-powered Cyber AttacksAI in Cyber Security: Is it Getting Harder to Stay Secure?How To Improve Cybersecurity for Artificial IntelligenceAttacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About It


شارك المقالة: