به گزارش باشگاه خبرنگاران جوان، به نقل از insights.som.yale.edu، نرمافزارهای خودکارسازی تصمیمگیری اغلب در مورد گروههای محروم تبعیض قائل میشوند. رویکرد جدید محققان Yale SOM میتواند بهطور قابلتوجهی سوگیری را کاهش دهد. سازمانها برای اطلاعرسانی تصمیمگیریها، معلوم شدن متقاضیان وام یا ارزیابی احتمال ارتکاب جرم به این الگوریتمها تکیه میکنند. تحقیقات اخیر The Markup نشان میدهد وام دهندگان ۸۰ درصد تقاضای سیاهپوستان را رد میکنند. این کار تا حد زیادی به الگوریتمهای رایج تایید وام مسکن نسبت داده میشود.
استادیار بازاریابی Yale SOM و همکارانش مدل جدیدی را ابداع کردند. در سیستم پیشنهادی آنها، ویژگیهای حساس مانند جنسیت یا نژاد گنجانده شده اما هنگام ارزیابی موارد جدید، آن ویژگیها پوشانده میشوند. این رویکرد بدون تغییر در دقت، تبعیض را به میزان قابل توجهی کاهش میدهد. فرآیند پیشبینی در الگوریتمهای یادگیری ماشینی در دو مرحله انجام میشود. ابتدا آموزشهایی به الگوریتم داده میشود. محققان باید رویکردهای جایگزینی برای کاهش تعصب در این سیستمها بیابند. برای مثال افزایش امتیاز افراد گروههای محروم یا تلاش برای به حداکثر رساندن دقت پیش بینیها. امین کرباسی دانشیار مهندسی برق و علوم کامپیوتر دانشگاه ییل و احسان کاظمی از گوگل در این پروژه همکاری کردند.
در مرحله دوم الگوریتم مجبور است هنگام مقایسه افراد فراتر از نژاد عمل کند. محققان این روش جلوگیری از سوگیری الگوریتمها را Train then mask نامیدند. برخلاف بسیاری از روشها، Train then mask روی گروههای محروم تاکید دارد. در عین حال تاکید میکند که با افراد جدا از ویژگیهای شخصیتی یکسان رفتار شود. دانشمندان الگوریتم خود را در زمینه پیشبینی وضعیت درآمد یک فرد آزمایش کردند. نرمافزار ۸۲.۵ درصد وضعیت درآمد را به درستی پیشبینی کرد. از مزایای این رویکرد این است که از بیانصافی و تبعیض پنهان جلوگیری میکند.
بیشتر بخوانید
انتهای پیام/