الأنظمة المتأثرة بهجمات الذكاء الاصطناعي

اقرأ في هذا المقال


هنالك العديد من الأنظمة وشرائح المجتمع التي من المرجح أن تتأثر بهجمات الذكاء الاصطناعي، حيث تم دمج أنظمة الذكاء الاصطناعي بالفعل في العديد من جوانب المجتمع، وبشكل متزايد كل يوم، بالنسبة لواضعي الصناعة والسياسات، فإن المجالات الأكثر ضعفًا إلحاحًا هي عوامل تصفية المحتوى والأنظمة العسكرية وأنظمة إنفاذ القانون والمهام القائمة على الإنسان والتي يتم استبدالها بالذكاء الاصطناعي والمجتمع المدني.

مرشحات المحتوى 

مرشحات المحتوى هي أنظمة المناعة الرقمية للمجتمع، تعمل من خلال إزالة الأصول الأجنبية الخطرة أو غير القانونية أو المخالفة لشروط الخدمة لتطبيق معين، كما إنها تحافظ على سلامة المنصات، كما تعتبر عوامل تصفية المحتوى أيضًا مؤهلة بشكل فريد لمراقبة المحتوى على النطاق الذي يتطلبه الإنترنت، حيث ان المحتوى الذي يتم تحميله على الإنترنت كل دقيقة هو مقدار هائل ينمو بمعدل مذهل، حيث يتم مشاركة أكثر من ثلاثة مليارات صورة كل يوم على الإنترنت، كما برزت مرشحات المحتوى القائمة على الذكاء الاصطناعي كأداة أساسية، إن لم يكن فقط، قادرة على العمل على هذا النطاق، وقد تم تبنيها على نطاق واسع من قبل الصناعة.

على سبيل المثال، أزال Facebook) 21) وهو اشهر وسائل التواصل الاجتماعي مليون قطعة من المحتوى الشاذ في الربع الأول من عام 2018 وحده، حيث تم وضع علامة على 96٪ منها بواسطة هذه الخوارزميات، إلى جانب هذه الأمور، يجب أن تستمر عوامل تصفية المحتوى في أن تكون فعالة مع المهام المهمة التي تقع بالفعل ضمن اختصاصها، مثل اكتشاف المواد الإباحية للأطفال، كما تسمح عوامل تصفية المحتوى القائمة على الذكاء الاصطناعي لمشغلي مواقع الويب والمنصات بإجراء مسح فعال لملايين الصور التي يتم تحميلها كل دقيقة بحثًا عن محتوى غير قانوني وتدمير الصور المسيئة على الفور، بالإضافة إلى الأدوات المخصصة للشركات المصممة لاستخدامها الخاص، تم توفير برنامج الكشف هذا في النهاية عبر نموذج توزيع البرنامج كخدمة (SaaS) وهي احد نماذج تقديم البرمجيات.

الجيش 

السطح الثاني للهجوم الرئيسي للذكاء الاصطناعي هو الجيش، من المتوقع أن تكون التطبيقات العسكرية للذكاء الاصطناعي عنصرًا حاسمًا في الحرب، حيث قد يستولي الأعداء على المعدات المادية، بما في ذلك الطائرات بدون طيار وأنظمة الأسلحة، التي ستعيش عليها أنظمة الذكاء الاصطناعي، حيث سيكون فقدان هذه المعدات والاستيلاء عليها أمرًا روتينيًا في النزاعات المستقبلية، وسيزداد التهديد الذي يمثله هذا لأنظمة الذكاء الاصطناعي مع نشر المزيد والمزيد من الأنظمة التي تدعم الذكاء الاصطناعي في الميدان أو على المعدات التي يمكن للخصم الاستيلاء عليها، سيزداد هذا الاتجاه مع انتشار الحوسبة المتطورة في السياقات العسكرية.

في الحوسبة المتطورة، بدلاً من إرسال البيانات إلى بنية أساسية سحابية مركزية للمعالجة، يتم تخزين البيانات وخوارزميات الذكاء الاصطناعي وتشغيلها مباشرة على الأجهزة المنتشرة في الميدان، حيث جعلت وزارة الدفاع تطوير الحوسبة المتطورة أولوية، حيث من غير المحتمل أن يكون النطاق الترددي اللازم لدعم نموذج الذكاء الاصطناعي المستند إلى السحابة متاحًا في بيئات ساحة المعركة، سيتطلب هذا الواقع معالجة هذه الأنظمة بعناية، تمامًا كما يدرك الجيش التهديد الناشئ عندما يتم الاستيلاء على طائرة بدون طيار أو نظام سلاح من قبل العدو، كما يجب التعرف على أنظمة الذكاء الاصطناعي هذه ومعاملتها كعضو من نفس الفئة المحمية حتى لا يتم اختراق الأنظمة إذا تم الاستيلاء عليها من قبل العدو.

تطبيق القانون 

يتمثل السطح الثالث للهجوم الرئيسي في تطبيق الذكاء الاصطناعي على أجهزة إنفاذ القانون، تم بالفعل نشر تطبيقات الذكاء الاصطناعي لإنفاذ القانون ويجري البحث عنها بنشاط، حيث أطلقت أمازون مؤخرًا نظام التعرف على الوجه الذي يتم تجريبه من قبل أقسام الشرطة في الولايات المتحدة، يسعى النظام إلى مطابقة صور الوجه المستهدفة بقاعدة بيانات كبيرة من الصور الجنائية، من المفهوم أن تطبيق القانون يتجه إلى تكنولوجيا الذكاء الاصطناعي، حيث خلقت التكنولوجيا تدفقات جديدة تمامًا من البيانات والمنصات التي يتم استدعاء أجهزة إنفاذ القانون للشرطة، مما يشكل تحديًا يتمثل في تحليل كمية لا حصر لها من المحتوى بكمية محدودة للغاية من الموارد البشرية.

نظرًا لأن أنظمة إنفاذ القانون القائمة على الذكاء الاصطناعي أصبحت أكثر انتشارًا، فإنها ستصبح بطبيعة الحال أهدافًا للهجوم للمجرمين، يمكن للمرء أن يتخيل هجمات الذكاء الاصطناعي على أنظمة التعرف على الوجه على أنها نسخة القرن 21 من الاستراتيجية العريقة لقص أو صبغ شعر المرء لتجنب الاعتراف بتطبيق القانون، كما أظهر الباحثون بالفعل أن ارتداء زوج من النظارات متعدد الألوان لديه القدرة على مهاجمة أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي، مما يقلل من دقتها بشكل كبير، على الرغم من أن تطبيق القانون والجيش يشتركان في العديد من تطبيقات الذكاء الاصطناعي المماثلة، إلا أن أجهزة إنفاذ القانون تواجه مجموعة فريدة من التحديات الخاصة بها في الحماية من هجمات الذكاء الاصطناعي.

تحديات تواجها اجهزة انفاذ القانون في الحماية من هجمات الذكاء الاصطناعي:

  • تكون أنظمة الذكاء الاصطناعي لإنفاذ القانون إلى حد كبير عمليات شراء جاهزة من شركات خاصة مختلفة، على عكس المؤسسة العسكرية، فإن معظم منظمات إنفاذ القانون صغيرة وتفتقر إلى الموارد اللازمة لتوسيع نطاق أنظمة الذكاء الاصطناعي هذه، لقد أظهرت الشركات الخاصة بالفعل عدم كفاءة في معالجة الثغرات الأمنية المعروفة والتي يسهل معالجتها، عدا عن الثغرات الناشئة والصعبة مثل هجمات الذكاء الاصطناعي، سيكون من غير الحكمة افتراض أن الشركات الخاصة قادرة على أخذ الخطوات اللازمة للتخفيف من الثغرات الأمنية لهجمات الذكاء الاصطناعي، علاوة على ذلك، من المحتمل ألا يكون لدى كل منظمة إنفاذ قانون بمفردها قوة سوقية كافية للمطالبة بحماية أمنية صارمة، بينما يمتلك الجيش ذلك.
  • تتمتع منظمات إنفاذ القانون بمستوى أقل بكثير من الاستعداد للأمن السيبراني مقارنة بالجيش، يخطط الجيش بحكم تعريفه للعمل في بيئات متنازع عليها مع خصوم متطورين، ونتيجة لذلك، يمتلك الجيش شبكات سرية، وبروتوكولات للأمن السيبراني، وخبرة داخلية لتحديد ومعالجة أي انتهاكات أو هجمات، كما ان العديد من منظمات إنفاذ القانون المحلية ليس لديها أي من هذه الحماية، لا يتم الحفاظ على أنظمة بيانات إنفاذ القانون التي يمكن الحصول على بيانات التدريب منها بنفس مستوى الأمان مثل نظرائهم العسكريين، في حين لا تزال هناك مخاطر متأصلة في البنى والشبكات السحابية الآمنة للجيش، فإن هذا الخطر أكبر بكثير بالنسبة للأنظمة المخصصة غير الآمنة التي تستخدمها مؤسسات إنفاذ القانون.

المصدر: Attacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About ItThe Use of Artificial Intelligence in Cybersecurity: A ReviewAI Cyberattacks & How They Work, ExplainedData Poisoning: When Attackers Turn AI and ML Against You


شارك المقالة: