عيوب البيانات الضخمة Big Data

اقرأ في هذا المقال


البيانات الضخمة Big Data:

البيانات الضخمة: هو مصطلح يستخدم للإشارة إلى مجموعات البيانات الكبيرة جدًا أو المعقدة؛ بحيث يتعذر على برامج تطبيقات المعالجة التقليدية التعامل معها بشكل مناسب، وتوفر البيانات التي تحتوي على العديد من الحالات قوة إحصائية أكبر، بينما قد تؤدي البيانات ذات التعقيد العالي إلى معدل اكتشاف خاطئ أعلى، هناك العديد من المزايا والعيوب سنناقشها على النحو التالي.

ما هي التحديات التي تواجه البيانات الضخمة؟

على الرغم من مزايا البيانات الضخمة، إلا أنها تأتي مع بعض التحديات الخطيرة التي تجعل تنفيذها صعبًا وقد تكون محفوفًا بالمخاطر، وإليك أبرز هذه العيوب:

مخاوف الخصوصية والأمان:

مخاوف تتعلق بالأمان والخصوصية على الرغم من أن الأمر قد يبدو غريباً؛ نظرًا لأن من الميزات المهمة بالفعل السلامة والأمن فهي من إيجابيات البيانات الضخمة، لكن من المهم أن ندرك أنه على الرغم من أن تحليلات البيانات الضخمة تسمح لك بالكشف عن العديد من محاولات الاحتيال أو الاختراق لتحمي بياناتك، فإن إطار العمل نفسه عرضة لخرق البيانات كما هو الحال في العديد من التقنيات الحديثة.

ربما يكون أكبر عيب للبيانات الضخمة هو أنها يمكن أن تجعل الشركات هدفًا أكثر سلاسة للمهاجمين عبر الإنترنت. حتى الشركات العملاقة شهدت حالات من الانتهاكات الهائلة للبيانات. ومع ذلك، مع تنفيذ القانون العام لحماية البيانات (GDPR)، تحاول الشركات بشكل متزايد الاستثمار في العمليات والبروتوكولات والبنية التحتية لتكون قادرة على الحفاظ على البيانات الضخمة.

الحاجة إلى الخبرة الفنية:

العمل مع البيانات الضخمة يحتاج إلى قدر كبير من الكفاءة التقنية، وهذا أحد العناصر الأساسية والأسباب التي تجعل خبراء البيانات الضخمة وعلماء البيانات ينتمون إلى المجموعة ذات الأجور المرتفعة والمطلوبة للغاية في تكنولوجيا المعلومات. كما يمكن أن يؤدي تدريب الموظفين الحاليين أو تعيين الخبراء للتعامل مع البيانات الضخمة إلى زيادة تكلفة الأعمال إلى حد كبير بسهولة.

فإن المختصين بالبيانات الضخمة هم من بين أكثر العاملين كفاءة وذوي الأجور العالية في مجال تكنولوجيا المعلومات، وصنف المختصين المهارات والموظفين على أنهم ثاني أكبر تحد عند إنشاء بحيرة البيانات، ويمكن أن يؤدي تعيين الموظفين أو تدريبهم إلى زيادة التكاليف بشكل كبير، وقد تستغرق عملية اكتساب المهارات وقتًا طويلاً.

الأدوات الغير المتوافقة:

حيث أنّ أدة (Hadoop) هي الأداة الأكثر استخدامًا للتحليلات، من بين أدوات تحليل البيانات الضخمة ومع ذلك، فإن الإصدار القياسي من (Hadoop) غير قادر حاليًا على التعامل مع التحليل في الوقت الفعلي.

من الأخطاء ربط البيانات المتعلقة ببعضها، حيث أن من الأساليب الشائعة المستخدمة في تحليل البيانات الضخمة رسم الارتباطات عن طريق ربط متغير بآخر لتكوين الأنماط (pattern). قد لا تمثل ارتباطاتهم دائمًا أي شيء جوهري أو مفيد. وفي الواقع، لمجرد أن متغيرين مرتبطين لا يعني أن هناك علاقة آلية بينهما.

التكاليف:

تعتمد العديد من أدوات اليوم على التقنيات المفتوحة المصدر(Open source)، ممّا يقلل بشكل كبير من تكاليف البرامج، ولكن لا تزال الشركات تواجه نفقات كبيرة تتعلق بالتوظيف والأجهزة والصيانة والخدمات ذات الصلة ببهضها البعض، فإنه من المتوقع أن تتجاوز مبادرات تحليلات البيانات الضخمة الميزانية بشكل كبير وتستغرق وقتًا أطول للنشر ممّا توقعه مديرو تقنية المعلومات في الأصل.


شارك المقالة: