كيف نحدد الذكاء الاصطناعي في علم الاجتماع الرقمي

اقرأ في هذا المقال


في سباق المنافسة على الشركات الاجتماعية يفتقر تصميم الذكاء الاصطناعي إلى فهم عميق لما تعنيه البيانات المتعلقة بالبشر وعلاقتها بالإنصاف، حيث يولي العديد من العلماء اهتمامًا أكبر للتأثير المجتمعي للذكاء الاصطناعي، حيث إنه يظهر بشكل متكرر أكثر من أي وقت مضى، وأن فهم علم الاجتماع للعلاقة بين البيانات البشرية والتفاوتات طويلة الأمد ضروري لصنع أنظمة ذكاء اصطناعي تعزز المساواة.

كيف نحدد الذكاء الاصطناعي في علم الاجتماع الرقمي

تم استخدام مصطلح الذكاء الاصطناعي بعدة طرق مختلفة، كما أن التفسيرات المبكرة تربط المصطلح بالبرمجيات القادرة على التعلم والعمل من تلقاء نفسها.

للذكاء الاصطناعي نطاق تعريف مرن يساعد في تفسير جاذبيته، وإن معناه الواسع ولكن غير المحدد، يمكّن المروجين من تقديم ادعاءات موجهة نحو المستقبل وغير مثبتة تجريبياً لتأثيرها على المجتمع الإيجابي المحتمل.

ركزت مجتمعات البرمجة بشكل كبير على تطوير التعلم الآلي كشكل من أشكال الذكاء الاصطناعي، يستخدم مصطلح الذكاء الاصطناعي بشكل أكثر شيوعًا بين الباحثين، على الرغم من أن الذكاء الاصطناعي لا يزال هو المصطلح العام الذي تستخدمه الشركات والمعاهد والمبادرات، يؤكد تعلم الآلة على تدريب أنظمة الكمبيوتر للتعرف على نتائج تحليل مجموعات البيانات الموجودة وفرزها والتنبؤ بها.

ممارسو الذكاء الاصطناعي وعلماء الكمبيوتر وعلماء البيانات والمهندسون هم أنظمة تدريب للتعرف على نتائج تحليل مجموعات البيانات الموجودة وفرزها والتنبؤ بها، ويقوم البشر بإدخال البيانات الموجودة للمساعدة في تدريب أنظمة الذكاء الاصطناعي على اتخاذ قرارات مستقلة، تكمن المشكلة هنا في أن ممارسي الذكاء الاصطناعي لا يفهمون عادةً كيف أن البيانات المتعلقة بالبشر تكون دائمًا أيضًا بيانات حول عدم المساواة.

من خلال تحديد الارتباطات بين الفئات الضعيفة وفرص الحياة، تقبل أنظمة الذكاء الاصطناعي هذه الارتباطات كعلاقة سببية وتستخدمها لاتخاذ قرارات بشأن التدخلات في المستقبل، وبهذه الطريقة لا تخلق أنظمة الذكاء الاصطناعي مستقبلًا جديدًا، بل تكرر عدم المساواة الدائمة الموجودة في عالم اجتماعي معين.

هل يتعرض الذكاء الاصطناعي للخطر بسبب العنصرية النظامية والتحيز البشري

هناك سياسة مرتبطة بالخوارزميات والبيانات والرموز، النظر في محرك البحث جوجل على الرغم من أن نتائج بحث (Google) قد تبدو محايدة أو فردية، إلا أن عمليات البحث على محرك بحث (Google) يعيد إنشاء التمييز الجنسي والعنصرية الموجود في الحياة اليومية.

فقد تعكس نتائج البحث القرارات التي تدخل في صنع الخوارزميات والرموز، والتي تعكس وجهة نظر العاملين أو الباحثين في (Google) على وجه التحديد، تعكس قراراتهم بشأن ما يمكن وصفه بأنه متحيز جنسيًا أو عنصريًا للهياكل الاجتماعية الأوسع انتشارًا للعنصرية والتمييز على أساس الجنس، في المقابل فإن القرارات المتعلقة بما يمكن وصفه بأنه متحيز جنسيًا أو عنصريًا، على الرغم من أن (Google) تلوم المستخدمين على المساهمة في نتائج البحث المتحيزة جنسيًا وعنصريًا، إلا أن المصدر يكمن في الإدخال، وعلى النقيض من الحياد الملحوظ لنتائج بحث (Google) فإن الاضطهاد المجتمعي وعدم المساواة مدمجان في هذه النتائج ومضخمان.

إن أنظمة الذكاء الاصطناعي التي تستخدم البيانات من السجلات الصحية الإلكترونية للمرضى لعمل تنبؤات حول توصيات العلاج المناسبة، على الرغم من أن علماء ومهندسي الكمبيوتر غالبًا ما يأخذون في الاعتبار الخصوصية عند تصميم أنظمة الذكاء الاصطناعي، إلا أن فهم الأبعاد متعددة التكافؤ للبيانات البشرية لا يمثل عادةً جزءًا من تدريبهم، في ضوء ذلك قد يفترضون أن بيانات السجلات الصحية الإلكترونية تمثل معرفة موضوعية حول العلاج والنتائج، بدلاً من مشاهدتها من خلال عدسة اجتماعية تدرك كيف تكون بيانات السجلات الصحية الإلكترونية جزئية وموضوعية.

عند استخدام نهج اجتماعي يدرك  الفرد أن نتائج المرضى ليست محايدة أو موضوعية، فهي مرتبطة بالحالة الاجتماعية والاقتصادية للمرضى، وغالبًا ما تخبر المزيد عن الفروق الطبقية والعنصرية وأنواع أخرى من عدم المساواة أكثر من الفعالية من علاجات معينة.

حيث إن الفهم الاجتماعي للبيانات مهم، بالنظر إلى أن الاستخدام غير النقدي للبيانات البشرية في أنظمة الذكاء الاصطناعي الاجتماعية سوف يميل إلى إعادة إنتاج، وربما حتى تفاقم وعدم المساواة الاجتماعية الموجودة مسبقًا، وعلى الرغم من أن الشركات الاجتماعية التي تنتج أنظمة الذكاء الاصطناعي تختبئ وراء الادعاء بأن الخوارزميات أو مستخدمي النظام الأساسي يخلقون نتائج عنصرية ومتحيزة جنسيًا، إلا أن الدراسات الاجتماعية توضح كيف يحدث صنع القرار البشري في كل خطوة من عملية الترميز.

يمكن ضم المنح الدراسية لعلم الاجتماع الرقمي مع أبحاث العلوم الاجتماعية الأخرى لتجنب بعض مخاطر تطبيقات الذكاء الاصطناعي، من خلال دراسة تصميم وتنفيذ أنظمة الذكاء الاصطناعي الاجتماعية، يبرز العمل الاجتماعي العمل البشري والسياقات الاجتماعية، بناءً على إدراك علم الاجتماع لأهمية السياقات التنظيمية في تشكيل النتائج، أن كلاً من مصادر التمويل والسياقات المؤسسة  الاجتماعية هي محركات رئيسية لكيفية تطوير أنظمة الذكاء الاصطناعي واستخدامها.

هل يتطلب الذكاء الاصطناعي إرشاد علم الاجتماع الرقمي

على الرغم من الجهود الحسنة النية من أجل القيام على دمج المعرفة حول العوالم الاجتماعية في الأنظمة الاجتماعية التقنية، يواصل علماء الذكاء الاصطناعي إظهار فهم محدود للمجتمع، مع إعطاء الأولوية لما قد يكون مفيدًا  من أجل تنفيذ مهام هندسة الذكاء الاصطناعي، ولكن محو تعقيد ودمج اللامساواة الاجتماعية.

إن النهج البنيوي العميق لعلم الاجتماع الرقمي يقف أيضًا على النقيض من الأساليب التي تسلط الضوء على الاختيار الفردي، وأحد أكثر المجازات السياسية انتشارًا هو أن التغيير الاجتماعي مدفوع بالاختيار الفردي، كأفراد كما يقول المنطق يمكن إنشاء مستقبل أكثر إنصافًا من خلال صنع واختيار أفضل المنتجات والممارسات والممثلين السياسيين، حيث يميل عالم التكنولوجيا إلى الحفاظ على منظور فردي مشابه عندما يؤكد المهندسون وعلماء الأخلاق على القضاء على التحيز البشري على المستوى الفردي وتحسين التدريب على الحساسية كطريقة من أجل القيام على معالجة عدم المساواة في أنظمة الذكاء الاصطناعي.

يدعو مجموعة متعددة من علماء الاجتماع الرقمي إلى اللجوء لإستخدام الأدوات النظرية والمنهجية للتخصص لتحليل متى وكيف تصبح عدم المساواة أكثر ديمومة بواسطة أنظمة الذكاء الاصطناعي، يؤكد الباحثون أن إنشاء أنظمة اجتماعية تقنية الذكاء الاصطناعي ليس مجرد مسألة تصميم تكنولوجي، ولكنه يثير أيضًا أسئلة أساسية حول السلطة والنظام الاجتماعي، حيث يتم  العمل على تدريب علماء الاجتماع الرقمي على تحديد كيفية دمج عدم المساواة في جميع جوانب المجتمع والإشارة إلى سبل التغيير الاجتماعي الهيكلي، لذلك يجب على علماء الاجتماع أن يلعبوا دورًا رائدًا في تخيل وتشكيل مستقبل الذكاء الاصطناعي.

المصدر: التفاعل الاجتماعي في المجتمعات الافتراضيه، للباحث عبد الله احمد القرني.علم الاجتماع الآلي، الدكتور علي محمد رحومة.الراي العام في الواقع الافتراضي وقوه التعبئه الافتراضيه، د محمد مصطفى رفعت.الثورة الافتراضية "دور وسائل التواصل الإجتماعي في الثورات"، د، نسرين عجب.


شارك المقالة: