به گزارش گروه وبگردی باشگاه خبرنگاران جوان، با توجه به اینکه استفاده از هوش مصنوعی برای تولید انواع تسلیحات میتواند به ابداع سلاحهای مرگباری منجر شود که خارج از کنترل انسان دست به کشتارهای مرگبار و بی ضابطه بزنند، برخی کشورهای جهان در تلاش هستند تا قوانینی را برای استفاده اخلاقی از هوش مصنوعی در صحنههای نبرد وضع کنند و پنتاگون هم در این زمینه وارد عمل شد.
بیشتربخوانید : هوش مصنوعی به فرد معلول اجازه داد با ذهنش بنویسد
در همین راستا وزارت دفاع آمریکا، پیش نویس دستورالعملی را با موضوع اخلاق هوش مصنوعی به نگارش درآورده که کنترل و مدیریت این فناوری نوظهور را تسهیل میکند. در این دستورالعمل به مسؤولیتهای انسانها برای کنترل هوش مصنوعی اشاره شده و پیشنهادهایی برای مهار آن در حین حفظ کارآیی و قابلیتهای خاص هوش مصنوعی ارائه شده است.
در بخشی از این پیش نویس تصریح شده الگوریتمهای هوش مصنوعی باید به گونهای تدوین شوند که از رفتار متعصبانه ناخواسته محصولات مبتنی بر هوش مصنوعی جلوگیری شود و جلوی نژادپرستی یا رفتار جنسیت زده آنها گرفته شود، همچنین نباید محصولات هوش مصنوعی به گونهای طراحی شوند که با مردم مختلف به دلایل گوناگون ناعادلانه رفتار شود، همچنین ارتش آمریکا باید تضمین کند که علاوه بر کدهای برنامه نویسی، منابع داده آن هم بی طرف و بدون غرض ورزی باقی بمانند تا از سلاحهای هوش مصنوعی برای کشتار طیفها و گروههایی خاص از غیرنظامیان سواستفاده نشود.
در ادامه این پیش نویس چنین آمده که هوش مصنوعی باید به گونهای قابل مدیریت و کنترل طراحی شود تا اگر از آن برای وارد آوردن آسیبهای غیرضروری سواستفاده شد، امکان متوقف کردن این روند وجود داشته باشد. همچنین باید امکان کنترل محصولات هوش مصنوعی توسط اپراتور انسانی و با استفاده از ابزار یا سوئیچ خاص وجود داشته باشد.
منبع: فارس
انتهای پیام/