به گزارش باشگاه خبرنگاران جوان به نقل از news.mit.edu، مدل جدید یادگیری ماشینی، رباتها را قادر میسازد تا تعاملات جهان را به روش انسانها درک کنند. انسانها روابط بین اشیا را میبینند. بسیاری از مدلهای یادگیری، روابط درهم تنیده بین اشیا و افراد را درک نمیکنند. بدون آگاهی از این روابط، رباتها در پیروی از دستورات مشکل خواهند داشت.
محققان MIT مدلی را توسعه داده اند که روابط زیربنایی بین اشیای یک صحنه را درک میکند. مدل آنها روابط فردی را یکی یکی نشان میدهد، سپس این بازنماییها را برای توصیف صحنه کلی ترکیب میکند. این راه، مدل را قادر میسازد تا تصویر دقیقتری از صحنه تولید کند. این مدل در موقعیتهای پیچیده مثل تعامل ماشین و انسان کاربرد دارد.
ییلون دو، دانشجوی دکترای علوم کامپیوتر و هوش مصنوعی CSAIL میگوید:" ما فکر میکنیم که با ساختن این سیستم میتوانیم از آن برای دستکاری و تغییر موثرتر محیطمان استفاده کنیم. این چارچوب میتواند تصویری از یک صحنه براساس توصیف متنی اشیا و روابط آنها را ایجاد کند."
محققان از تکنیک مدلهای مبتنی بر انرژی برای نشان دادن روابط استفاده کردند. این تکنیک آنها را قادر میسازد تا با رمزگذاری هر توصیف همه اشیا و روابط را استنتاج کنند. سیستمهای دیگر همه روابط را به طور کلی در نظر میگیرند. این سیستم به صورت معکوس کار میکند. از این مدل میتوان برای ویرایش یک تصویر با مرتب کردن مجدد اشیا در صحنه استفاده کرد. مدل جدید از دادههای کمتری برای نشان دادن صحنههای پیچیدهتر به ربات استفاده میکند. در نهایت قرار است تا مدل جدید در رباتها گنجانده شود. مدلسازی روابط چندگانه بین اشیا پیشرفت چشمگیری در بینایی کامپیوتر است.
بیشتر بخوانید
انتهای پیام/