روشی جدید برای آموزش حرکات انسان و حیوانات به روبات ها


فرارو-در سال های اخیر، دانشمندان ربات های زیادی طراحی کرده اند که می توانند در محیط های مختلف به خوبی کار کنند. ساختار بدن بسیاری از این ربات ها از حیوانات و انسان الهام گرفته شده است.

به گزارش فرارو، اگرچه بسیاری از روبات‌های موجود بدنی مشابه بدن انسان یا دیگر گونه‌های جانوری دارند، اما برنامه‌ریزی آن‌ها به گونه‌ای که شبیه یک موجود الهام گرفته از آن‌ها به نظر برسند، کار ساده‌ای نیست. انجام این کار مستلزم توسعه کنترل کننده های حرکتی پیشرفته است و به منابع و تلاش قابل توجهی نیاز دارد.

محققان DeepMind اخیرا روش جدیدی را برای آموزش حرکات انسان و حیوانات به روبات ها ارائه کرده اند. این ابزار جدید که در مقاله ای در وب سایت arXiv معرفی شده است، الهام گرفته از رویکرد معرفی شده قبلی است. در این روش از ثبت حرکات انسان و حیوان در دنیای واقعی نیز استفاده می شود. تیم DeepMind در مقاله خود نوشت: “ما از حرکات انسان و حیوانات برای یادگیری مهارت های حرکتی در ربات های پای واقعی استفاده می کنیم. رویکرد ما مبتنی بر تقلید از داده های حرکت انسان یا سگ (MoCap) برای یادگیری یک ماژول مهارت حرکتی است. “پس از مطالعه این موضوع. ماژول مهارت، ربات را می توان دوباره برای کارهای پیچیده استفاده کرد.”

بسیاری از کنترل‌کننده‌های حرکتی روباتی که در آن زمان استفاده می‌شد، دارای طرح‌های مدولار بودند که در آن یک سیستم به بخش‌های مختلف (چند ماژول) تقسیم می‌شد که با یکدیگر تعامل داشتند. توسعه این کنترلرها نیازمند تلاش مهندسی قابل توجهی است. برخی از آنها به نتایج خوبی دست یافته اند. طرح‌های مدولار اغلب به خوبی به انواع وظایف، موقعیت‌ها و محیط‌ها تعمیم نمی‌یابند.

برخی از محققان روشی به نام “بهینه سازی مسیر” را به عنوان جایگزینی برای این کنترل کننده ها پیشنهاد کرده اند. در این روش، یک برنامه ریز حرکت را با یک کنترل کننده ردیابی ترکیب می کند. این روش ها به مهندسی کمتری نسبت به کنترلرهای مدولار نیاز دارند. با این حال، بسیاری از آنها نیاز به محاسبات گسترده دارند و ممکن است استفاده از آنها بسیار کند باشد.

استیون بوهز و همکارانش در DeepMind رویکرد جایگزینی را برای آموزش حرکت انسان و حیوانات به روبات ها معرفی کردند. این روش با ثبت حرکات انسان و حیوانات داده ها را جمع آوری می کند و سپس از داده ها برای آموزش ربات ها در دنیای واقعی استفاده می کند. این روش در چند مرحله انجام می شود: در مرحله اول، ربات ها به داده های حرکتی ثبت شده هدایت می شوند. پس از یادگیری این سیاست، محققان مجدداً از یک سیاست وظیفه جدید برای مقابله با اقدامات کنترلی پنهان و سطح پایین برای تقلید از مسیرهای مرجع استفاده کردند. این به کنترل کننده ها اجازه می دهد تا حرکات پیچیده انسان یا حیوان را به روبات ها کپی کنند. مثل دریبل زدن توپ. در نهایت آنها کنترلرهایی را که ساخته بودند از شبیه سازی به سخت افزار واقعی منتقل کردند.

ربات

تا کنون، تیم DeepMind رویکرد خود را در محیط های شبیه سازی و دنیای واقعی ارزیابی کرده است. در این آزمایش ها، آنها با موفقیت از این تکنیک برای آموزش کنترل کننده برای تکرار دو عادت اساسی مانند راه رفتن و دریبل کردن توپ استفاده کردند. آنها همچنین کیفیت حرکات به دست آمده با استفاده از این تکنیک را روی دو ربات دنیای واقعی ارزیابی کردند. یکی ربات چهار پا ANYmal و دیگری ربات انسان نما OP3. نتایج به‌دست‌آمده از این دو ربات بسیار امیدوارکننده است و نشان می‌دهد که این رویکرد به توسعه روبات‌هایی که بیشتر شبیه انسان و حیوان هستند کمک خواهد کرد. محققان قصد دارند در مرحله بعدی رفتارهای جدیدی از انسان و حیوان را به روبات ها آموزش دهند.

منبع: techxplore


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم