كيفية عمل نظام الواقع الافتراضي للتحكم بالروبوتات

اقرأ في هذا المقال


كيفية عمل نظام الواقع الافتراضي للتحكم بالروبوتات

استطاع الباحثون بابتكار نظام واقع افتراضي (Virtual-reality) وهي اختصار(VR)، حيث يُمكّننا هذا النظام من القيام بالتحكم بالروبوتات عن بعد، وذلك من خلال نظارات مخصصة للواقع الافتراضي،بحيث هذا النظام قائم على أن المُستخدم سيتواجد ضمن غرفة تحكم افتراضية تحوي واجهات متعددة للحساسات، وكل هذا سيمكن المستخدم من الشعور وكأنه داخل رأس الروبوت، حيث يمكن للمستخدمين مطابقة حركتهم مع حركة الروبوت عن طريق إيماءات معينة لإنجاز مهام متعددة

في الواقع كان هناك طريقتين أساسيتين لاستخدام الواقع الافتراضي في مجال التحكم عن بعد. في النموذج المباشر(direct model)، بحيث تُربط رؤية المستخدم مباشرةً بحالة الروبوت، إلّا أنّ هناك احتمال لحدوث آثار جانبية ناتجة عن تأخر الإشارات الحاصل يمكن أن تسبب بحدوث بعض من الشعور بالغثيان وصداع للمستخدمين، كما يكون مجال رؤية المستخدم محدوداً بنقطة واحدة، أمّا في النموذج الإفتراضي الفيزيائي (Cyber-physical) يكون المستخدم منفصلاً عن الروبوت، حيث أنه يتفاعل مع نسخة افتراضية من الروبوت والبيئة. هذا النموذج يتطلب كميات أكبر بكثير من البيانات بالإضافة إلى مساحات عمل مخصصة

يدمج النظام الخاص بفريق مختبر علوم الحاسوب والذكاء الاصطناعي (CSAIL) بين النموذجين السابقين من النموذج الإفتراضي الفيزيائي والنموذج المباشر، حيث يتميز هذا النظام بقيامه بحل مشكلة التأخير، حيث أن المستخدم يستقبل بشكل مستمر استجابة مرئية من العالم الافتراضي، كما أنه يحل المشكلة الافتراضية الفيزيائية المتمثلة في الانفصال عن الروبوت، حيث أن المستخدم بمجرد ارتدائه لنظارات الواقع الافتراضي سيشعر وكأنه داخل رأس باكستر

حيث أنّ هذا النظام قد تم ابتكره ليشابه في أدائه نموذجاً مصغراً محاكيا لعقل الإنسان، فهو بذلك يتمثّل وكأن هناك إنسان مصغر داخل عقولنا، بحيث يتحكم بكافة حركاتنا ويرى المشاهد التي نراها ويفهمها بالنيابة عنا. مع أن هذه الفكرة تعد غريبة بالنسبة للبشر، إلا أنها مناسبة جداً للروبوتات، فيوجد إنسانٌ في غرفة تحكم داخل كل روبوت يرى من خلال عينيه ويتحكم بحركاته، باستخدام متحكمات نظارات أوكيولوس يمكن للمستخدم التفاعل مع أدوات التحكم التي تظهر في المساحة الافتراضية لفتح وإغلاق يد الروبوت حتى تقوم برفع وتحريك وجلب الأشياء.

بحيث سيكون بإمكان المستخدم التخطيط للحركات بناءً على المسافة بين مؤشر موقع الذراع ويده، وذلك من خلال النظر إلى العرض المباشر للذراع، وليتم القيام بذلك بهذه الدقة قد تم إجراء ربطٌ بين مساحة المستخدم والمساحة الافتراضية، ومن ثم ربطٌ بين المساحة الافتراضية ومساحة الروبوت مما يؤمن إحساساً بتشارك المكان، بالإضافة إلى ذلك، يعد هذا النظام أكثر مرونة بالمقارنة مع الأنظمة السابقة التي تتطلب الكثير من المصادر، حيث قد يتوجب على أنظمة أخرى استخراج معلومات ثنائية الأبعاد من كل كاميرا وبناء نموذج كامل ثلاثي الأبعاد للبيئة، ومن ثم معالجة وإعادة عرض البيانات.

في المقابل، بإمكان النظام الذي بناه فريق مختبر علوم الحاسوب والذكاء الاصطناعي (CSAIL) تجاوز كل ذلك من خلال عرض الصور ثنائية الأبعاد على كل عين، بحيث يتكفّل العقل البشري بالباقي، حيث يستنتج المعلومات ثلاثية الأبعاد بشكل تلقائي، قام الفريق في البداية بالتحكم بباكستر عن بعد وجعله يقوم بمهام بسيطة كحمل البراغي أو شبك الأسلاك بهدف اختبار النظام، ومن ثم حمل الكتل الثقيلة وصفها فوق بعضها. وتمكن المستخدمين من إنجاز المهام بمعدل أعلى بكثير بالمقارنة مع النموذج “المباشر”، وقد استطاع المستخدمين ذوي الخبرة في ألعاب الفيديو التعامل مع النظام بأريحية أكثر بكثير من غيرهم، وهو أمر ليس بالمفاجئ.

وبعد اختبار نظام CSAIL ومقارنته بأنظمة متطورة وعالية المستوى تبين أنه إستطاع أن يتفوق في مجال رفع الأغراض بنسبة تصل إلى 95 بالمئة، وكما أنه أسرع بنسبة 57 بالمئة في قدرته على إنجاز المهام. كما برهن الفريق أن بإمكان النظام التحكم بالروبوت على بعد مئات الأميال، وذلك من خلال اختباره على الشبكة اللاسلكية الخاصة بأحد الفنادق في مدينة واشنطن وجعله يتحكم بباكستر المتواجد في معهد MIT (في مدينة ماساتشوسيتس).

حيث أن هذه المساهمة قد خطت خطوة كبيرة ومهمة في نطاق ربط المستخدم مع مساحة الروبوت بطريقة ذكية، و بسلاسة أكبر ومرونة عالية، حيث يعمل الفريق على التركيز في جعل النظام أكثر تأقلماً بالسماح بتعدد المستخدمين ودعم أنواع مختلفة من الروبوتات المتوافقة مع تكنولوجيا التحكم المتوفرة حالياً.


شارك المقالة: