به گزارش گروه وبگردی باشگاه خبرنگاران جوان، امروزه الگوریتمهای هوش مصنوعی هدایت بسیاری از جنبههای زندگی را در کنترل خود گرفته اند؛ از انتخاب اینکه چه مسیری را باید در رفت و آمدهای هر روزه به محل کار درپیش گرفت تا تصمیم گیری در ابن باره که با چه کسی باید قرار دوستانه بگذارید تا مسائل قانونی و قضایی و حقوقی پیچیدهای نظیر پیش بینی مجرمان پر خطر.
بیشتربخوانید : صدای هوش مصنوعی زنانه است یا مردانه؟
شرکتهای بزرگ فناوری همچون گوگل و فیس بوک از هوش مصنوعی برای شناخت بیشتر مشتریانشان از طریق گنجینه عظیم و همراه با جزئیات دادههای آنها استفاده میکنند. این کار به آنها اجازه میدهد تا عملکردهای جمعی کاربران را از طریق اقداماتی، چون هدف قرار دادن محدود به پول تبدیل کنند؛ راهبردی که آگهی دهندگان برای هدف قرار دادن دقیق مجموعهای از کاربران به کار میگیرند.
به این ترتیب است که هم اکنون بسیاری از افراد بیشتر به پلتفرمها و الگوریتمها اعتماد دارند تا دولتها و جامعه مدنی خودشان. مطالعهای که در اکتبر سال ۲۰۱۸ انجام گردید نشان داد که مردم آنقدر الگوریتمها را مرجع شناخت خود قرار داده اند که بیشتر به تجهیزات تکنولوژیک اتکا میکنند، تا جایی که فکر میکنند آنها به شکلی از الگوریتم اتکا دارند نه انسان.
در گذشته متخصصان فناوری از به وجود آمدن یک «شکاف دیجیتال» بین کسانی که میتوانستند به رایانهها و اینترنت دسترسی داشته باشند و کسانی که نمیتوانستند نگران بودند. در نتیجه خانوارهایی که دسترسی کمتر به فناوریهای دیجیتال داشتند، در توانایی خود برای کسب پول و انباشت مهارتها به نوعی فاقد امتیاز لازم بودند.
اما با توجه به تکثیر سریع وسایل دیجیتال، این شکاف دیگر تنها درباره دسترسی نیست. مردم با بیش انباشتی اطلاعات و انبوه تصمیمات الگوریتمی که تک تک جنبههای زندگی شان را به تصرف خود در میآورد چگونه باید برخورد کنند؟
کاربران زیرکتر در حال فاصله گرفتن از وسایل خود و کسب آگاهیهای بیشتر در مورد نحوه اثرگذاری الگوریتمها بر زندگی خود هستند. در عین حال مشتریانی که اطلاعات کمتری دارند، حتی بیشتر از قبل در حال اتکا بر الگوریتمها در نحوه تصمیم گیریهای خود هستند.
من هم مثل بسیاری افراد دیگری که درمورد سیستمهای اطلاعات مطالعه میکند، دلیل اصلی شکاف دیجیتال جدید را این میدانم که عده بسیار اندکی از مردم از نحوه کار الگوریتمها خبر دارند. اکثریت کاربران الگوریتمها را به چشم یک جعبه سیاه میبینند.
الگوریتمهای هوش مصنوعی دادهها را میگیرند، آنها را در یک مدل ریاضی جا میدهند و درباره طیفی از مسائل دست به یک پیش بینی میزنند؛ از اینکه شما از چه ترانهای ممکن است خوشتان بیاید گرفته تا اینکه یک نفر چند سال را باید در زندان بگذراند. این مدلها بر اساس دادههای گذشته و دسترسی به مدلهای پیشین توسعه پیدا کرده و بهبود یافته اند. بیشتر مردم - حتی در مواقعی خود طراحان الگوریتمها – واقعا نمیدانند که در درون یک مدل چه میگذرد.
پژوهشگران مدت هاست که نسبت به انصاف الگوریتمی ابراز نگرانی میکنند. برای مثال معلوم شده است که ابزار استخدامی مبتنی بر هوش مصنوعی آمازون نامزدهای زن را نادیده میگیرد. این سیستم آمازون به طور گزینشی کلمات به وضوح جنسیتی را استخراج میکند، کلماتی که احتمال استفاده مردان از آنها در مکالمات روزمره شان بیشتر است، کلماتی از قبیل «انجام شد» و «دستگیر شد.»
سایر مطالعات نیز نشان داده اند که الگوریتمهای قضایی دارای سوگیری نژادی هستند و متهمان سیاه پوست فقیر را بیشتر از دیگران برای مدت طولانی تری محکوم میکنند.
در قالب «قانونگذاری صیانت از دادههای عمومی در اتحادیه اروپا» که به تازگی به تصویب رسیده، افراد این حق را پیدا کرده اند تا پیرامون معیاری که الگوریتمها برای اتخاذ تصمیمات خود در مورد آنها به کار برده اند، توضیح بخواهند. این قانون با روند تصمیم گیری الگوریتمی همچون یک کتاب آشپزی برخورد میکند. فکر پشت تدوین این قانون این بوده که اگر شما دستور پخت را درک کنید، میتوانید درک کنید که الگوریتم چگونه بر زندگی شما تاثیر میگذارد.
در عین حال برخی از پژوهشگران هوش مصنوعی برای به کار گرفته شدن الگوریتمهایی فشار آورده اند که عادل، پاسخگو و شفاف و همچنین قابل تفسیر باشند، به این معنا که آنها باید تصمیمات خود را از طریق روندهایی اتخاذ کنند که انسانها بتوانند آن روندها را بفهمند و به آنها اعتماد کنند.
در این میان شفافیت چه تاثیری خواهد داشت؟ در یک مطالعه دانشجویان بر اساس الگوریتم کلاس بندی شدند و در این باره که نمرات همکلاسی هایشان چگونه تنظیم شده تا بتوانند به کلاس آخر راه پیدا کنند، سطوح مختلفی از توضیحات به آنها ارائه شد. دانشجویانی که توضیحات شفاف تری به آنها داده شد عملا کمتر به الگوریتم اعتماد کردند. این باز هم نشان از یک شکاف دیجیتال میدهد: آگاهی از الگوریتمها به اطمینان بیشتر به سیستم منجر نمیشود.
اما شفافیت نوشدارو نیست. حتی وقتی که روند کلی یک الگوریتم توضیح داده میشود، جزئیات ممکن است همچنان بسیار پیچیدهتر از آن باشد که کاربران بتوانند آن را درک کنند. شفافیت فقط به کاربرانی کمک خواهد کرد که به قدر کافی پیچیدگی دارند تا ظرافتها و پیچیدگیهای الگوریتمها را درک کند.
برای مثال در سال ۲۰۱۴ بن برنانکی رئیس پیشین بانک مرکزی آمریکا در ابتدا فاینانس دوباره وثیقهها توسط یک سیستم خودکا را انکار کرده بود. بیشتر افراد ثبت نام کننده برای این نوع فاینانس دوباره وثیقه ها، درک نمیکنند که الگوریتمها چگونه ارزش اعتباری آنها را تعیین میکنند.
خارج شدن از اکوسیستم اطلاعاتی جدید
در حالی که الگوریتمها تاثیر بسیار زیادی بر زندگی مردم دارند، تنها بخش بسیار کوچکی از مشارکت کنندگان آنقدر پییچیدگی دارند تا بتوانند به طور کامل سردربیاورند که الگوریتمها چگونه بر زندگی شان تاثیر میگذارند.
آمار زیادی در این باره وجود ندارد که چه تعداد از مردم نسبت به الگوریتمها شناخت دارند. مطالعات شواهدی از نگرانی از الگوریتمها را یافته اند که به عدم توازن عمیق قدرت بین پلتفرمهایی که الگوریتمها را به کار میگیرند و کاربرانی که به آنها متکی هستند منجر میشود.
یک مطالعه درمورد استفاده فیس بوک از الگوریتمها دریافته است که وقتی مشارکت کنندگان از الگوریتم فیس بوک برای انتخاب فیدهای خبری آگاه شدند، حدود ۸۳ درصد آنها در تلاش برای برخوردار شدن از امتیاز الگوریتم رفتار خود را تنظیم کردند، در حالی که حدود ۱۰ درصد استفاده خود از فیس بوک را کاهش دادند.
گزارش نوامبر ۲۰۱۸ مرکز تحقیقاتی پیو نشان میداد که اکثریت غالبی از جامعه نگرانیهای جدی درباره استفاده از الگوریتمها برای کاربردهای ویژه دارند. این گزارش دریافته بود که ۶۶ درصد مردم فکر میکردند که محاسبه امتیازات مالی شخصی توسط الگوریتمها کار منصفانهای نیست، در حالی که ۵۷ درصد همین حرف را در مورد بررسی خودکار درخواستهای شغلی زده بودند.
بخش کوچکی از افراد میتوانند چگونگی استفاده الگوریتمها از دادههای شخصی شان را به نوعی کنترل کنند. برای مثال پلتفرم هو- مینتی به کاربرانش اجازه میدهد که با انتخاب یک گزینه، میزان گردآوری دادههای شخصی خود توسط این پلتفرم را کنترل کنند. دایره المعارف آنلاین اوریپدیا به کاربران خود این امکان را میدهد تا در روند گردآوری و تنظیم دادهها یک ذینفع باشند، یعنی کاربران میتوانند نحوه جمع آوری اطلاعات و عرضه آنها را نیز کنترل کنند.
با این حال اکثریت غالب پلتفرمها این انعطاف پذیری را برای کاربران نهایی خود فراهم نمیکنند یا اینکه الگوریتمها از ترجیحات آنها در تنظیم فیدهای خبری شان چگونه استفاده کنند حق انتخاب یا توضیحی به آنها نمیدهند. اگر هم گزینههایی در این مورد وجود داشته باشد، ممکن است کاربران از آنها خبر نداشته باشند. حدود ۷۴ درصد از کاربران فیس بوک در یک بررسی گفته اند که آنها اطلاع ندارند چگونه مختصات این پلتفرم را منطبق بر منافع شخصی خود تنظیم کنند.
به نظر من سواد دیجیتال جدید دیگر به معنای اطلاع از چگونگی استفاده از یک رایانه یا متصل بودن به اینترنت نیست، بلکه به معنای فهم و ارزیابی پیامدهای یک سبک زندگی همراه با شکلی از همیشه متصل بودن است.
این سبک زندگی تاثیر معناداری بر نحوه تعامل افراد با یکدیگر، بر توانایی آنها به توجه کردن به اطلاعات جدید و به پیچیدگی روندهای تصمیم گیری آنها دارد.
نگرانی فزاینده از الگوریتمها را در تغییرات مشابهی در اقتصاد نیز میتوان مشاهده کرد. گروه کوچکی از افراد در حال بهره مندی از مزایای خودکارسازی هستند، در حالی که کارگران زیادی در جایگاه خطرناکی قرار دارند.
خارج شدن از سازوکارهای الگوریتمی یک تجمل است و ممکن است روزی به نمادی از رفاه و دولتمندی تبدیل شود که تنها برای گروه منتخب محدودی دردسترس قرار دارد. پس مسئله این است که چه آسیبهای قابل سنجشی برای کسانی وجود خواهد داشت که در طرف نادرست شکاف دیجیتال قرار دارند.
منبع: فارس
انتهای پیام/