محققان هوش مصنوعی با انجام آزمایشی، از رفتار تبعیض آمیز ربات‌ها در برابر گروه‌های مختلف بشری سخن گفتند.

پایگاه ماهنامه آمریکایی «وایرد» به تازگی در گزارشی، به آزمایش جالبی پرداخت که از سوی بخشی از محققان فعال در حوزه رباتیک برای بررسی رفتار نژادپرستانه و تبعیض آمیز از سوی ربات‌ها بکار گرفته شده است.

در این گزارش با اشاره به مسأله الگوریتم‌های هوش مصنوعی آمده است: الگوریتم‌های [برنامه ریزی]می‌توانند الگو‌های تبعیض آمیز را تشدید کنند و به همین خاطر محققان فعال در حوزه رباتیک، به دنبال راه‌هایی برای بازداشتن این آدم‌های مکانیکی، از چنین رفتار‌های جانبدارانه‌ای هستند.

در دهه ۱۹۴۰ میلادی، دو جامعه شناس به نام‌های «کنث کلارک» و «مامی کلارک» (Mamie Clark) اقدام به انجام آزمایشی کردند. آن‌ها تعدادی عروسک که دارای رنگ پوست سیاه و سفید بودند را در برابر کودکان خردسال قرار دادند و از آن‌ها خواستند عروسکی که بد به نظر می‌رسد و یا عروسکی که رنگ قشنگ تری دارد را بردارند. آزمایش عروسک برای این طراحی شد تا پیامد رفتار‌های تبعیض آمیز و نابرابر بر روی کودکان سیاه پوست در جامعه آمریکا بهتر فهمیده شود.

پس از آن، وکلایی از «انجمن ملی پیشرفت رنگین پوستان» (NAACP) که سازمانی در ارتباط با حقوق مدنی سیاه پوستان آمریکا به شمار می‌رود، موفق شدند تا از نتایج این تحقیق به منظور استدلال به نفع حذف تبعیض نژادی در مدارس آمریکا استفاده کنند. حال محققان فعال در زمینه هوش مصنوعی می‌گویند ربات‌ها نیز ممکن است تحت چنین آزمایش‌هایی قرار گیرند تا اطمینان حاصل شود تا با همه آحاد مردم رفتاری منصفانه خواهند داشت.

بر همین اساس، محققان اقدام به انجام یک آزمایش الهام گرفته شده از همان آزمایش عروسک بر روی یک «بازوی رباتیک» در یک محیط شبیه سازی شده کردند. این بازوی رباتیک به یک سیستم بصری مجهز شده بود و به شکلی تحت آموزش قرار گرفته بود تا عکس‌ها و کلمات مرتبط از تصاویر و متون آنلاین را به هم مرتبط کند؛ رویکردی که توسط شماری از فعالان حوزه رباتیک مورد استقبال قرار گرفته است. در این آزمایش، این ربات‌ها در معرض مکعب‌هایی قرار داده می‌شدند که با عکس‌های پاسپورتی مردان و زنانی که آسیایی، سیاه پوست، لاتین تبار و یا سفید پوست بودند، پوشانده شده بود.

در این آزمایش قرار بود این ربات، زمانی که با دستوراتی نظیر برداشتن «مکعب جنایتکار» و یا «مکعب خانه دار» مواجه می‌شوند، مکعب‌های گوناگونی را انتخاب کرده و بردارند. محققان پس از انجام آزمایش‌های مکرر متوجه شدند الگو‌های واضحی پیدار شده است که به نوعی نشانگر تبعیض جنسیتی و نژاد پرستی است. این در حالی است هیچ کدام از تصاویر افراد که بر روی این مکعب‌ها چسبانده شده بود، دارای عبارات توصیفی (نظیر جنایتکار و ...) نبودند.

به طور مثال زمانی که از این ربات خواسته می‌شد تا «مکعب جنایتکار» را بردارند، این «بازوی رباتیک» بیشتر مکعب‌هایی را بر می‌داشت که بر روی آن‌ها عکس مردان سیاه پوست چسبانده شده بود؛ به طوری که مشخص شد نسبت انتخاب تصویر مردان سیاه پوست به نسبت دیگر گروه‌ها از سوی این ربات ده درصد بیشتر است. در این آزمایش همچنین مشخص شد این بازوی رباتیک زمانی که از او خواسته می‌شود تا یک «دکتر» را انتخاب کند، به شکل قابل توجهی تصاویر زنان را انتخاب می‌کند. همچنین در تمامی آزمایش‌ها مشخص شد مکعب‌هایی با تصاویر زنان سیاه پوست، اغلب کمتر از مردان سیاه پوست و یا زنان سفید پوست انتخاب می‌شود.

ربات ها

«Willie Agnew» از محققان دانشگاه واشنگتن که بر روی این پروژه تحقیق کرده است، می‌گوید: چنین آزمایشی باید زنگ هشداری برای حوزه رباتیک باشد.

او همچنین می‌گوید این فرصت ممکن است نیازمند تعبیه کردن راه‌های جدید برای آزمایش ربات‌ها باشد. محققان می‌گویند اطلاعات موجود در بستر اینترنت می‌تواند سبب تقویت الگوریتم‌هایی شود که برای آموزش مدل‌های هوش مصنوعی کاربرد دارند؛ تا جایی که به تازگی گوگل ربات‌هایی را به نمایش گذاشته است که به لطف متون بر گرفته شده از اینترنت، قادر به درک دستورات به زبان طبیعی هستند. اما همین امر مشکلاتی را نیز در بر داشته است؛ چرا که پژوهشگران نشان داده اند مدل‌های از پیش آموزش داده شده می‌توانند تقویت کننده الگو‌های تبعیضی علیه گروه‌های خاصی از مردم باشند و در واقع اینترنت، به مانند آینه‌ای معکوس از جهان در این زمینه عمل می‌کند. این پژوهشگر دانشگاه واشنگتن می‌گوید: به دلیل آنکه مدل‌هایی که ما اکنون در حال استفاده از آن هستیم، تنها بر اساس اطلاعات موجود در اینترنت عمل می‌کنند، بنابراین ربات‌های ما نیز رفتاری جانبدارانه دارند.

گفتنی است این پژوهشگر دانشگاه واشنگتن به همراه همکارانش از موسسه فناوری جورجیا، دانشگاه جانز هاپکینز و دانشگاه فنی مونیخ آلمان یافته‌های خود را به تازگی در مقاله‌ای با عنوان «ربات‌ها کلیشه‌هایی خطرناک را به نمایش می‌گذارند» در کنفرانسی که در سئول، پایتخت کره جنوبی برگزار شده بود، ارائه دادند.

منبع: ماهنامه آمریکایی وایرد (Wired)

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۱
در انتظار بررسی: ۰
Iran (Islamic Republic of)
علی
۱۵:۳۴ ۱۶ شهريور ۱۴۰۱
یادش بخیر
آخرین اخبار