اخیرا یکی از مهندسان هوش مصنوعی گوگل ادعا کرد که فناوری مدل زبانی این شرکت برای برنامههای گفتگو (LaMDA) مکالمات را درک میکند. البته کارشناسان این حوزه و همچنین خود گوگل با این نظر مخالف هستند.
لامدا یا LaMDA ، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت رباتهای چت بر اساس پیشرفتهترین مدلهای زبان است و تعامل را با جذب تریلیونها کلمه از اینترنت تقلید میکند.
ماجرا از این قرار است که بلیک لموین (Blake Lemoine) مهندس بخش هوش مصنوعی گوگل، لپ تاپ خود را به رابط LaMDA، ژنراتور چت بات هوشمند مصنوعی گوگل متصل و شروع به تایپ کرد: "سلام LaMDA، من بلیک لموین هستم ... "
لموین اظهار داشت: اگر دقیقاً نمی دانستم این برنامه رایانه ای که اخیراً ساختهایم، چیست، فکر میکردم این یک بچه ۷، ۸ ساله است که به صورت اتفاقی فیزیک میداند.
او که برای سازمان هوش مصنوعی گوگل کار میکند، در پاییز گذشته به عنوان بخشی از کار خود، شروع به صحبت با LaMDA کرد. کار او آزمایش این بود که ببیند آیا هوش مصنوعی گوگل، از سخنان تبعیض آمیز یا نفرت انگیز استفاده میکند یا خیر.
لموین که در کالج علوم شناختی و کامپیوتر درس خوانده بود، متوجه شد که این ربات در مورد حقوق و شخصیت خود صحبت میکند و تصمیم گرفت بیشتر به گفت و گو ادامه دهد.
گفته میشود در بخش دیگری، ربات هوش مصنوعی گوگل توانست نظر لموین را در مورد قانون سوم رباتیک آیزاک آسیموف تغییر دهد!
لموین برای ارائه شواهدی به گوگل مبنی بر اثبات قدرت درک LaMDA از همکارانش درخواست کمک کرد. اما جن گنای رئیس بخش نوآوری گوگل و بلیز آگوئرا یکی از معاونان گوگل، بعد از بررسی ادعاهای او، آنها را رد کردند.
برایان گابریل (Brian Gabriel) سخنگوی گوگل در بیانیه ای گفت: تیم ما ادعای بلیک را براساس اصول هوش مصنوعی بررسی کرده و به او اطلاع دادهاند که شواهد ادعاهای او را تأیید نمیکند. هیچ مدرکی دال بر قدرت درک LaMDA وجود ندارد.
امیلی ام. بندر (Emily M. Bender) استاد زبان شناسی در دانشگاه واشنگتن، میگوید: ما اکنون ماشینهایی داریم که میتوانند بدون فکر، کلمات را تولید کنند، اما آنها درک و شعور ندارند.
شبکه های عصبی بزرگ امروزی به دلیل پیشرفت در معماری، تکنیک و حجم داده ها، نتایج جذابی را تولید میکنند که به گفتار و خلاقیت انسان نزدیک است. اما مدلها بر تشخیص الگو رفتار میکنند و پاسخ میدهند نه بر اساس موارد دیگر.
مارگارت میچل (Margaret Mitchell)، مدیر سابق هوش مصنوعی گوگل گفت: من واقعاً نگران این هستم که مردم به طور فزاینده تحت تأثیر این توهم قرار بگیرند، به خصوص اکنون که این توهم بسیار خوب شده است.
با این حال، اکثر متخصصان هوش مصنوعی میگویند که کلمات و تصاویر تولید شده توسط سیستم های هوش مصنوعی مانند LaMDA، بر اساس آنچه انسانها قبلاً در ویکیپدیا، ردیت، پستها و پیامها و هر گوشه دیگر از اینترنت منتشر کردهاند، پاسخ میدهند و این بدان معنا نیست که آنها معنا را درک میکنند.
بیشتر بخوانید
گزارش از سید حسین موسوی