به گفته کارشناسان، اطلاعات نادرستی که بعضا ChatGPT به کاربران ارائه می‌دهد، ممکن است مایکروسافت را مشمول جریمه‌های سنگین کند.

مدل‌های هوش مصنوعی ممکن است به روشی شبیه به انسان پاسخ دهند و بنویسند، اما همیشه ۱۰۰ درصد درست نیستند. ابزار‌های محاوره‌ای مبتنی بر هوش مصنوعی در حال تبدیل شدن به جریان اصلی هستند که برای بسیاری از محققان اطلاعات نادرست، دلیل اصلی نگرانی است.

این هفته گوگل بارد را معرفی کرد، پاسخ خود به Open AI’s ChatGPT، و عرضه ویژگی‌های تقویت‌شده هوش مصنوعی را برای بسیاری از محصولات اصلی خود در رویدادی در پاریس دوچندان کرد. به طور مشابه، مایکروسافت اعلام کرد که ChatGPT به زودی با Bing، موتور جستجوی بسیار بداخلاق خود، یکپارچه خواهد شد. در ماه‌های آینده این ابزار‌های مکالمه به طور گسترده در دسترس خواهند بود، اما در حال حاضر، برخی از مشکلات شروع به ظاهر شدن کرده‌اند.

هوش مصنوعی مکالمه‌ای با استفاده از یک چارچوب شبکه عصبی به نام «مدل‌های زبان بزرگ» (LLM) ساخته شده و در تولید متنی که از نظر گرامری منسجم است و قابل قبول و شبیه انسان به نظر می‌رسد بسیار خوب است. آن‌ها می‌توانند این کار را انجام دهند، زیرا آن‌ها بر روی صد‌ها گیگابایت متن انسانی آموزش دیده‌اند که بیشتر آن از اینترنت گرفته شده است.

برای تولید متن جدید، این مدل با پیش‌بینی «ژتون» بعدی (اصولا یک کلمه یا قطعه از یک کلمه پیچیده) با توجه به دنباله‌ای از نشانه‌ها کار می‌کند بسیاری از محققان این را با تمرین‌های «پر کردن جای خالی» در مدرسه مقایسه کرده‌اند.

متاسفانه، این روش برای پیش‌بینی کلمات و جملات قابل قبول بعدی به این معنی است که هوش مصنوعی مکالمه اغلب ممکن است از نظر واقعی اشتباه باشد، و اگر قبلاً اطلاعات را نمی‌دانید، به راحتی می‌توانید گمراه شوید، زیرا به نظر می‌رسد که آن‌ها می‌دانند درباره چه چیزی صحبت می‌کنند.

یکی از سوالات نمایشی در اعلامیه گوگل این بود که «چه اکتشافات جدیدی از تلسکوپ فضایی جیمز وب را می‌توانم به کودک ۹ ساله خود بگویم؟ در پاسخ، بارد گفت: JWST اولین عکس‌های سیاره‌ای خارج از منظومه شمسی را گرفت.

در حالی که به نظر می‌رسد آن چیزی است که انتظار دارید بزرگترین تلسکوپ فضایی ساخته شده انجام دهد و JWST در واقع سیارات فراخورشیدی را شناسایی می‌کند، اما اولین تلسکوپ فضایی را نیافت؛  رویترز و ناسا اعلام کردند که این افتخار به تلسکوپ بسیار بزرگ رصدخانه جنوبی اروپا (VLT) تعلق می‌گیرد که در سال ۲۰۰۴ یکی از آن‌ها را یافت.

مایکروسافت رویکرد پیشروتری را در پیش گرفته است. پرسش‌های متداول جدید بینگ بیان می‌کند «هوش مصنوعی می‌تواند اشتباه کند» و «بینگ گاهی اطلاعاتی را که پیدا می‌کند اشتباه نشان می‌دهد و ممکن است پاسخ‌هایی را ببینید که قانع‌کننده به نظر می‌رسند، اما ناقص، نادرست یا نامناسب هستند». همچنان از کاربران می‌خواهد تا قضاوت خود را به کار گیرند و حقایقی را که هوش مصنوعی ارائه می‌دهد دوباره بررسی کنند؛ همچنین می‌گوید که می‌توانید از بینگ بپرسید: این اطلاعات را از کجا به دست آورده‌اید؟ تا بدانید از چه منابعی برای ایجاد پاسخ استفاده کرده است.

با این حال این به نظر سیاست مایکروسافت است. بله، مردم باید نسبت به اطلاعاتی که آنلاین می‌خوانند شک داشته باشند، اما وظیفه مایکروسافت نیز این است که مطمئن شود ابزار‌هایی که در اختیار میلیون‌ها کاربر قرار می‌دهد صرفا چیز‌هایی را درست نمی‌کنند و آن‌ها را به‌گونه‌ای ارائه نمی‌کنند که گویی درست است. موتور‌های جست و جو مانند بینگ یکی از بهترین ابزار‌هایی هستند که مردم برای تایید حقایق دارند، آن‌ها نباید به حجم اطلاعات نادرست در آن جا اضافه کنند و این مسئولیت ممکن است از نظر قانونی قابل اجرا باشد.

قانون خدمات دیجیتال اتحادیه اروپا که مدتی در سال ۲۰۲۴ لازم الاجرا خواهد شد، مقرراتی برای جلوگیری از انتشار اطلاعات نادرست دارد. عدم رعایت قانون جدید می‌تواند منجر به جریمه‌هایی تا ۶ درصد از گردش مالی سالانه شرکت شود. با توجه به جریمه‌های هنگفت اخیر اتحادیه اروپا برای شرکت‌های فناوری آمریکا و مقررات موجود مبنی بر اینکه موتور‌های جست و جو باید انواع خاصی از اطلاعات را که می‌توان ثابت کرد نادرست هستند، حذف کنند، به نظر می‌رسد که این بلوک ۲۷ کشوری ممکن است موضع سختی در مورد ایجاد هوش مصنوعی اتخاذ کند.

اطلاعات نادرست به طور برجسته در گوگل یا بینگ نمایش داده می‌شود. آن‌ها در حال حاضر مجبور شده‌اند موضع سخت‌تری در قبال سایر اشکال اطلاعات نادرست تولید شده، مانند دیپ‌فیک‌ها و حساب‌های جعلی رسانه‌های اجتماعی اتخاذ کنند.

با توجه به این که این هوش‌های مصنوعی مکالمه‌ای به زودی به طور گسترده و رایگان در دسترس قرار می‌گیرند، احتمالا شاهد بحث‌های بیشتری در مورد میزان مناسب بودن استفاده از آن‌ها خواهیم بود، به خصوص که ادعا می‌کنند منبع معتبری از اطلاعات هستند. در ضمن بیایید به خاطر داشته باشیم برای این نوع هوش مصنوعی ایجاد مزخرفات منسجم گرامری بسیار ساده‌تر از نوشتن یک پاسخ بررسی شده واقعی به یک پرس و جو است.

منبع: popsci

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار