طرق الذكاء الاصطناعي التي يستخدمها المخترقون في هجمات الأمن السيبراني

اقرأ في هذا المقال


أهمية الذكاء الاصطناعي في هجمات الأمن السيبراني:

أوضح خبراء في الأمن السيبراني طرق يمكن استخدام الذكاء الاصطناعي وتعلم الآلة فيها، وذلك بهدف التهرب من دفاعات الأمن السيبراني لتكون بذلك الاختراقات أسرع وأكثر فعالية في اختراق الهدف، وذلك خلال قمة الأمن السيبراني (NCSA) و(Nasdaq).
واستضاف المدير التنفيذي للتحالف الوطني للأمن الإلكتروني، المحادثة كجزء من الأمن القابل للاستخدام بعنوان إحداث التغيير وقياسه في السلوك البشري. حيث يمكن للمخترقين استخدام الذكاء الاصطناعي لتفادي الاكتشافات، والإخفاء في الأماكن التي لا يمكن العثور عليها، والتكيف تلقائياً مع الإجراءات المضادة.

ما هي الطرق التي يمكن من خلالها استخدام الذكاء الاصطناعي وتعلم الألة في هجمات الأمن السيبراني؟

قد أشار كبير مسؤولي أمن المعلومات في شركة (DigitalGuardian) إلى أن الأمن السيبراني سيحتاج دائماً إلى عقول بشرية لبناء دفاعات قوية ووقف الهجمات. حيث أن الذكاء الاصطناعي هو الوسيلة وأن الخبراء من محللين أمن المعلومات وصائدين التهديدات هم الأبطال الحقيقيون. وفيما يلي ثلاث طرق يمكن من خلالها استخدام الذكاء الاصطناعي والتعلم الآلي في هجمات الأمن السيبراني:

1- تسمم البيانات:

إن الجمهات الأمنية السيئة تستهدف أحيانًا البيانات المستخدمة لتدريب نماذج التعلم الآلي. حيث تم تصميم تسمم البيانات للتلاعب بمجموعة بيانات التدريب، وذلك بهدف التحكم في سلوك التنبؤ لنموذج مدرب لخداع النموذج، ليؤدي بذلك إلى أداء غير صحيح، مثل تصنيف رسائل البريد الإلكتروني العشوائية على أنها محتوى آمن.

أنواع تسمم البيانات:

هناك نوعان من تسمم البيانات: الهجمات التي تستهدف توفر خوارزمية (Machine learning)، والهجمات التي تستهدف سلامتها، وتشير الأبحاث إلى أن تسمم مجموعة بيانات التدريب بنسبة 3% يؤدي إلى انخفاض الدقة بنسبة 11%، ومع هجمات الباب الخلفي (Backdoor Attack)، يمكن للمخترق إضافة مدخلات إلى خوارزمية لا يعرفها مصمم النموذج. يستخدم المخترق هذا الباب الخلفي لجعل نظام (Machine learning) يخطئ في تصنيف سلسلة معينة على أنها حميدة في حين أنها قد تحمل بيانات سيئة.

حيث أنّ تقنيات بيانات التسمم يمكن نقلها من نموذج إلى آخر، فالبيانات هي الدم والوقود لأنظمة (Machine learning)، ويجب توجيه قدر كبير من الاهتمام للبيانات التي نستخدمها لتدريب النماذج كنماذج. وتتأثر ثقة المستخدم بالنموذج وجودة التدريب والبيانات التي تدخل فيه. وأشارت إلى أنالصناعة تحتاج إلى معايير وإرشادات لضمان جودة البيانات، وأن (NIST) تعمل على إرشادات وطنية للذكاء الاصطناعي الجدير بالثقة، بما في ذلك الإرشادات عالية المستوى والمتطلبات الفنية لمعالجة الدقة والأمان والتحيز والخصوصية وإمكانية الشرح.

2- شبكات الخصومة التوليدية (Generative adversarial networks):

ما هي شبكات الخصومة التوليدية (GANs)؟

هي أساسًا نظامان للذكاء الاصطناعي يتنافسان مع بعضهما البعض، حيث أنّ أحدهما يحاكي المحتوى الأصلي والآخر يكتشف أخطائه، فهي فئة من أطر التعلم الآلي التي صممها إيان جودفيلو وزملاؤه في 2014. تتنافس شبكتان عصبيتان مع بعضهما البعض في لعبة. بالنظر إلى مجموعة التدريب، تتعلم هذه التقنية إنشاء بيانات جديدة بنفس الإحصائيات مثل مجموعة التدريب. ومن خلال التنافس ضد بعضهما البعض، يقومان بشكل مشترك بإنشاء محتوى مقنع بما يكفي لتمرير المحتوى الأصلي. درب باحثو (Nvidia) نموذج فريد للذكاء الاصطناعي لإعادة إنشاء (PAC-MAN) ببساطة عن طريق مراقبة ساعات من اللعب، بدون محرك اللعبة، كما أوضحت ستيفاني كوندون على (ZDNet).

ما الهدف من استخدام المخترقين شبكات الخصومة التوليدية (GAN)؟

حيث إن الهاكر والمخترقين يستخدمون شبكات (GAN) وذلك لتقليد أنماط حركة المرور العادية، وتحويل الانتباه بعيدًا عن الهجمات، والعثور على البيانات الحساسة وتسللها بسرعة. إنهم يدخلون ويخرجون في غضون 30-40 دقيقة بفضل هذه القدرات، وبمجرد أن يبدأ المهاجمون في الاستفادة من الذكاء الاصطناعي والتعلم الآلي، يمكنهم أتمتة هذه المهام. يمكن أيضًا استخدام شبكات (GAN) لتكسير كلمات المرور، والتهرب من اكتشاف البرامج الضارة، وخداع التعرف على الوجه.

نظام (PassGAN):

وتم تدريب نظام (PassGAN) الذي أنشأه باحثو التعلم الآلي على قائمة كلمات مرور قياسية في الصناعة، حيث استطاع النطام في النهاية القيام بتخمين كلمات مرور أكثر من العديد من الأدوات الأخرى التي تم تدريبها على نفس مجموعة البيانات. وبالإضافة إلى إنشاء البيانات، وكما يمكن لشبكات (GAN) إنشاء برامج ضارة يمكنها التهرب من أنظمة الكشف القائمة على التعلم الآلي.

حيث إن خوارزميات الذكاء الاصطناعي المستخدمة في الأمن السيبراني يجب إعادة تدريبها بشكل مستمر، وذلك بهدف التعرف على أساليب الهجوم الجديدة والمتطورة باستمرار. ومع تطور الخصوم، لا بد أن نكون مستعدين لهذا التطور في الهجمات. ويمكن التشويش كمثال: عندما يتم إنشاء جزء من البرامج الضارة في الغالب باستخدام رمز شرعي، يجب أن تكون خوارزمية تعلم الألة والقادرة على تحديد الشفرة الضارة بداخلها.

3- التلاعب بالروبوتات:

لقد أشار كبير استراتيجيات الأمن السيبراني في (VMware Carbon Black)، إنه إذا كانت خوارزميات الذكاء الاصطناعي تتخذ قرارات، فيمكن التلاعب بها لاتخاذ قرار خاطئ. وإذا فهم المخترقين هذه النماذج، فيمكنهم استغلالها وإساءة استخدام هذه النماذج في الهجمات، لافتًا إلى الهجوم الأخير على نظام تداول العملات المشفرة (Cryptocurrencies) الذي تديره الروبوتات. حيث دخل المهاجمون واكتشفوا كيفية قيام الروبوتات بخداع الخوارزمية، وكما يمكن تطبيق هذا عبر تطبيقات أخرى. فإن هذه التقنية ليست جديدة ولكن هذه الخوارزميات تتخذ الآن قرارات أكثر ذكاءً؛ ما يزيد من خطر اتخاذ قرارسيئ.

المصدر: 3 ways criminals use artificial intelligence in cybersecurity attacksHow Criminals Use Artificial Intelligence To Fuel Cyber AttacksARTIFICIAL INTELLIGENCE AND CYBER CRIME: FACING NEW THREATS


شارك المقالة: