گاهی اوقات هوش مصنوعی، افراد و شرکتها را در معرض مجموعهای از خطراتی قرار میدهد که در ابتدا کار، مهندسان میتوانستند با ارزیابی آنها را بر طرف کنند.
به گزارش سایت venturebea؛ در این مواقع پای هوش مصنوعی مسئول به فرایند کاری باز میشود. یعنی یک چارچوب حاکمیتی که نحوه رسیدگی یک سازمان خاص به چالشهای اخلاقی و قانونی پیرامون هوش مصنوعی را مستند میکند. اما سوال اینجاست که اگر به واسطه هوش مصنوعی مشکلی پیش بیاید چه کسی پاسخگو است؟
براساس گزارشها، تنها ۳۵ درصد از مصرف کنندگان جهانی به نحوه پیاده سازی هوش مصنوعی اعتماد دارند و ۷۷ درصد فکر میکنند که شرکتها باید مسئول سوء استفاده از هوش مصنوعی باشند.
اما توسعه استانداردهای اخلاقی و قابل اعتماد هوش مصنوعی تا حد زیادی به صلاحدید کسانی است که مدلهای الگوریتمی این هوش را برای یک شرکت مینویسند و استفاده میکنند. بدون خط مشی و فرآیند تعریف شده ای، هیچ راهی برای ایجاد پاسخگویی و تصمیم گیری آگاهانه در مورد نحوه سازگار نگه داشتن برنامههای کاربردی هوش مصنوعی و سودآوری برندها وجود ندارد.
یکی دیگر از چالشهای اصلی یادگیری ماشینی، شکاف عظیم تخصص هوش مصنوعی است که بین سیاست گذاران، دانشمندان و توسعه دهندگان وجود دارد. ذینفعانی که مدیریت ریسک را درک میکنند، لزوماً ابزار لازم برای به کارگیری مجموعه مهارتها را در عملیات یادگیری ماشین و اعمال حاکمیت و کنترلهای صحیح ندارند.
گفته شده، این مشکلات به عنوان الهام بخش Credo AI مستقر در پالو آلتو بود که در سال ۲۰۲۰ برای پر کردن شکاف بین دانش فنی سیاست گذاران و دانش اخلاقی دانشمندان داده به منظور اطمینان از توسعه پایدار هوش مصنوعی تأسیس شد.
عملی کردن هوش مصنوعی مسئول
ناورینا سینگ، مدیر عامل یک شرکت هوش مصنوعی، گفت: "ما اولین پلتفرم مدیریت هوش مصنوعی مسئولانه را ایجاد کردیم، زیرا فرصتی را دیدیم تا به شرکتها کمک کنیم تا سیستمهای هوش مصنوعی و مدلهای یادگیری ماشین خود را با ارزشهای انسانی هماهنگ کنند. "
سینگ پس از پایان دور مالی ۱۲.۸ میلیون دلاری سری A به رهبری ساندز کپیتال، امیدوار است بتواند مدیریت مسئول هوش مصنوعی را به شرکتهای بیشتری در سراسر جهان برساند. این بودجه برای تسریع توسعه محصول، ایجاد یک تیم قوی برای عرضه به بازار برای پیشبرد رهبری مسئولیتپذیر در بخش هوش مصنوعی Credo AI و تقویت عملکرد سیاست فناوری برای پشتیبانی از استانداردها و مقررات در حال ظهور استفاده میشود.
آینده حکمرانی هوش مصنوعی
سینگ خاطرنشان میکند که او آیندهای را متصور است که در آن شرکتها هوش مصنوعی مسئول را به روشی که امنیت سایبری انجام میدهند در اولویت قرار میدهند. او میگوید: همانند آنچه که در زمینه تغییرات آب و هوایی و امنیت سایبری میبینیم، قرار است شاهد افشای اطلاعات بیشتر در مورد دادهها و سیستمهای هوش مصنوعی باشیم.
بیشتر بخوانید