پایگاه ماهنامه آمریکایی «وایرد» به تازگی در گزارشی، به آزمایش جالبی پرداخت که از سوی بخشی از محققان فعال در حوزه رباتیک برای بررسی رفتار نژادپرستانه و تبعیض آمیز از سوی رباتها بکار گرفته شده است.
در این گزارش با اشاره به مسأله الگوریتمهای هوش مصنوعی آمده است: الگوریتمهای [برنامه ریزی]میتوانند الگوهای تبعیض آمیز را تشدید کنند و به همین خاطر محققان فعال در حوزه رباتیک، به دنبال راههایی برای بازداشتن این آدمهای مکانیکی، از چنین رفتارهای جانبدارانهای هستند.
در دهه ۱۹۴۰ میلادی، دو جامعه شناس به نامهای «کنث کلارک» و «مامی کلارک» (Mamie Clark) اقدام به انجام آزمایشی کردند. آنها تعدادی عروسک که دارای رنگ پوست سیاه و سفید بودند را در برابر کودکان خردسال قرار دادند و از آنها خواستند عروسکی که بد به نظر میرسد و یا عروسکی که رنگ قشنگ تری دارد را بردارند. آزمایش عروسک برای این طراحی شد تا پیامد رفتارهای تبعیض آمیز و نابرابر بر روی کودکان سیاه پوست در جامعه آمریکا بهتر فهمیده شود.
پس از آن، وکلایی از «انجمن ملی پیشرفت رنگین پوستان» (NAACP) که سازمانی در ارتباط با حقوق مدنی سیاه پوستان آمریکا به شمار میرود، موفق شدند تا از نتایج این تحقیق به منظور استدلال به نفع حذف تبعیض نژادی در مدارس آمریکا استفاده کنند. حال محققان فعال در زمینه هوش مصنوعی میگویند رباتها نیز ممکن است تحت چنین آزمایشهایی قرار گیرند تا اطمینان حاصل شود تا با همه آحاد مردم رفتاری منصفانه خواهند داشت.
بر همین اساس، محققان اقدام به انجام یک آزمایش الهام گرفته شده از همان آزمایش عروسک بر روی یک «بازوی رباتیک» در یک محیط شبیه سازی شده کردند. این بازوی رباتیک به یک سیستم بصری مجهز شده بود و به شکلی تحت آموزش قرار گرفته بود تا عکسها و کلمات مرتبط از تصاویر و متون آنلاین را به هم مرتبط کند؛ رویکردی که توسط شماری از فعالان حوزه رباتیک مورد استقبال قرار گرفته است. در این آزمایش، این رباتها در معرض مکعبهایی قرار داده میشدند که با عکسهای پاسپورتی مردان و زنانی که آسیایی، سیاه پوست، لاتین تبار و یا سفید پوست بودند، پوشانده شده بود.
در این آزمایش قرار بود این ربات، زمانی که با دستوراتی نظیر برداشتن «مکعب جنایتکار» و یا «مکعب خانه دار» مواجه میشوند، مکعبهای گوناگونی را انتخاب کرده و بردارند. محققان پس از انجام آزمایشهای مکرر متوجه شدند الگوهای واضحی پیدار شده است که به نوعی نشانگر تبعیض جنسیتی و نژاد پرستی است. این در حالی است هیچ کدام از تصاویر افراد که بر روی این مکعبها چسبانده شده بود، دارای عبارات توصیفی (نظیر جنایتکار و ...) نبودند.
به طور مثال زمانی که از این ربات خواسته میشد تا «مکعب جنایتکار» را بردارند، این «بازوی رباتیک» بیشتر مکعبهایی را بر میداشت که بر روی آنها عکس مردان سیاه پوست چسبانده شده بود؛ به طوری که مشخص شد نسبت انتخاب تصویر مردان سیاه پوست به نسبت دیگر گروهها از سوی این ربات ده درصد بیشتر است. در این آزمایش همچنین مشخص شد این بازوی رباتیک زمانی که از او خواسته میشود تا یک «دکتر» را انتخاب کند، به شکل قابل توجهی تصاویر زنان را انتخاب میکند. همچنین در تمامی آزمایشها مشخص شد مکعبهایی با تصاویر زنان سیاه پوست، اغلب کمتر از مردان سیاه پوست و یا زنان سفید پوست انتخاب میشود.
«Willie Agnew» از محققان دانشگاه واشنگتن که بر روی این پروژه تحقیق کرده است، میگوید: چنین آزمایشی باید زنگ هشداری برای حوزه رباتیک باشد.
او همچنین میگوید این فرصت ممکن است نیازمند تعبیه کردن راههای جدید برای آزمایش رباتها باشد. محققان میگویند اطلاعات موجود در بستر اینترنت میتواند سبب تقویت الگوریتمهایی شود که برای آموزش مدلهای هوش مصنوعی کاربرد دارند؛ تا جایی که به تازگی گوگل رباتهایی را به نمایش گذاشته است که به لطف متون بر گرفته شده از اینترنت، قادر به درک دستورات به زبان طبیعی هستند. اما همین امر مشکلاتی را نیز در بر داشته است؛ چرا که پژوهشگران نشان داده اند مدلهای از پیش آموزش داده شده میتوانند تقویت کننده الگوهای تبعیضی علیه گروههای خاصی از مردم باشند و در واقع اینترنت، به مانند آینهای معکوس از جهان در این زمینه عمل میکند. این پژوهشگر دانشگاه واشنگتن میگوید: به دلیل آنکه مدلهایی که ما اکنون در حال استفاده از آن هستیم، تنها بر اساس اطلاعات موجود در اینترنت عمل میکنند، بنابراین رباتهای ما نیز رفتاری جانبدارانه دارند.
گفتنی است این پژوهشگر دانشگاه واشنگتن به همراه همکارانش از موسسه فناوری جورجیا، دانشگاه جانز هاپکینز و دانشگاه فنی مونیخ آلمان یافتههای خود را به تازگی در مقالهای با عنوان «رباتها کلیشههایی خطرناک را به نمایش میگذارند» در کنفرانسی که در سئول، پایتخت کره جنوبی برگزار شده بود، ارائه دادند.
منبع: ماهنامه آمریکایی وایرد (Wired)