به گزارش گروه وبگردی باشگاه خبرنگاران جوان، هرچند شرکت های فناوری برای ایجاد پس زمینه اخلاقی مناسب درباره کاربردهای هوش مصنوعی با چالش هایی روبرو هستند اما وزارت دفاع آمریکا در این زمینه پیشقدم شده است.
هیات نوآوری دفاعی آمریکا به تازگی پیش نویس دستورالعملی اخلاقی هوش مصنوعی در وزارت دفاع را منتشر کرده که هدف آن کنترل فناوری های نوین است. برخی از این دستورالعمل ها قابل اجرا هستند مانند بررسی اعتبار فناوری یا آنکه ریشه در سیاست های قدیمی دارند مانند لزوم مسئولیت پذیری انسانی در هر مرحله. اما بقیه موارد دستورالعمل های نوینی در حوزه عمومی و خصوصی هستند.
طبق این پیش نویس سیستم هوش مصنوعی اخلاق مدار باید از تعصب ناخواسته در الگوریتم ها مانند نژاد پرستی جلوگیری کند. گاهی اوقات سیستم های هوش مصنوعی سبب می شوند که با افراد ناعادلانه رفتار شود. این هیئت از ارتش خواست که اطمینان حاصل کند نه فقط کد ها بلکه منابع اطلاعاتی نیز خنثی هستند.
همچنین در این پیش نویس هیئت پنتاگون خواستار آن شده سیستم هوش مصنوعی قابل کنترل باشد و چنانچه تشخیص دهد که عملکرد آن خسارتی غیرضروری به بار می آورد، خود را متوقف کند یا یک اپراتور انسانی بتواند آن را متوقف کند.
این امر اجازه تولید اسلحه های تمام خودکار را نمی دهد و احتمال چالش زا شدن هوش مصنوعی را نیز می کاهد. بر این اساس پیش نویس شامل فراخوانی برای خروجی هوش مصنوعی قابل ردیابی است که به مردم اجازه می دهد ببینند چگونه یک سیستم به نتیجه خود رسیده است.
منبع: مهر
انتهای پیام/