به گزارش گروه وبگردی باشگاه خبرنگاران جوان، دستگاههای امروزی روز به روز هوشمندتر و هوشمندتر میشوند. برخی از این دستگاهها به حدی هوشمند شدهاند که قدرت یادگیری و تصمیمگیری هم پیدا کردهاند! هر چند که پیامدهای چنین پیشرفتهایی برای بسیاری از انسانها ترسناک است، اما اتفاقی است که شاهدش هستیم. دستگاههایی وجود دارند که خواب میبینند، ذهن افراد را میخوانند و یا مهارتهای هنری خود را تکامل میبخشند. حتی برخی از سیستمهای هوش مصنوعی علائم بیماری روانی و پیشداوری را از خود بروز میدهند! پیشرفت در این حوزه در سالهای اخیر به قدری گسترده بوده که گفته میشود عرضه عمومی برخی از سیستمهای هوش مصنوعی میتواند خطرناک باشد.
در این گزارش به ۱۰ نمونه از حیرت انگیزترین دستاوردهای هوش مصنوعی اشاره میکنیم.
۱۰. دیپفیک
در سال ۲۰۱۹، ویدئویی در یوتیوب منتشر شد. این ویدئو، کلیپهای مختلفی از چهرهی مونالیزای معروف را نشان میداد. با این تفاوت که این بار، نقاشی به طرز شگفتآوری زنده بود. در این ویدئو، مونالیزا سر خود را تکان داده و به اطراف نگاه میکند و لبهایش نیز حرکت میکند گویی با کسی صحبت میکند. مونالیزا بیشتر شبیه یک ستاره فیلم بود که یک مصاحبه را انجام میداد تا یک نقاشی. این یک نمونه کلاسیک از دیپفیک است. این پرترههای زنده به وسیلهی شبکههای عصبی پیچیده ایجاد میشوند.
این نوع هوش مصنوعی، اطلاعات بصری را مشابه مغز انسان پردازش میکند. آموزش پیچیدگیهای صورت انسان به هوش مصنوعی برای تبدیل تصویری ثابت به یک ویدئوی واقعی کار بسیار سختی است. این سیستم ابتدا باید یاد بگیرد که چگونه ویژگیهای صورت را تقلید کند که انجام آن به این راحتیها نیست. طبق گفتهی یکی از دانشمندان، یک مدل ۳ بعدی از سر “دهها میلیون پارامتر” دارد. هوش مصنوعی همچنین اطلاعاتی از سه مدل زنده برای تهیه این کلیپها برداشت کرد.
۹. هوش مصنوعی پیشداوری میکند!
همه ما تلاش میکنیم درباره دیگران هیچگونه پیشداوری نداشته باشیم. با این وجود، هنوز هم بسیاری افراد به دلیل جنسیت، نژاد یا عقاید خود مورد تبعیض و قضاوت قرار میگیرند. نوع دیگری از این تهدید به تازگی در شکل هوش مصنوعی ظاهر شده است. چند سال پیش، ترولهای توییتر ظرف کمتر از ۲۴ ساعت، چت بات جدید مایکروسافت به نام Tay را به یک نئونازیست تبدیل کردند.
این ربات به یک نژادپرست تبدیل شد و به کاربران بیاحترامی میکرد، اما تحقیقات نشان داد که ترولها تنها دلیلی نیستند که هوش مصنوعی چنین واکنشی از خود نشان میدهد. شبکههای عصبی هنگام پردازش اطلاعات از وبسایتها، از حرفها و نوشتههای انسان پیشداوری و غرضورزی را یاد میگیرند.
به تازگی، دانشمندان یک تست تداعی واژهها را روی فناوری GloVe انجام دادهاند. در تست تداعی واژه، یک واژه یا مجموعهای از واژهها برای فرد خوانده میشود و پاسخ دهنده با اولین واژهای که به ذهنش میرسد به تست پاسخ میدهد. این هوش مصنوعی به طور گستردهای در کارهای مربوط به تداعی کلمه استفاده میشود.
در پایان آزمایش، محققان حیرتزده شدند. آنها هرگونه واژهای که احتمال پیشداوری و تعصبی درباره آنها میرفت را روی فناوری GloVe آزمایش کردند. این هوش مصنوعی نسبت به نامهای آمریکایی_آفریقاییتبار و افراد مسن واژههای منفی به کار میبرد و پیشداوری بدی داشت و زنان از لحاظ شرایط خانوادگی بیشتر مورد پیشداوری، اهانت و تبعیض قرار میگرفتند تا از لحاظ شغلی.
۸. هوش مصنوعی مثل انسان خواب میبیند!
خواب باعث تقویت ادراک و طراوت جسم میشود. علاوه بر این، شواهد نشان میدهد که خواب کافی باعث میشود نورونها خاطرات غیرضروری ثبت شده در طول روز را حذف کنند. این اتفاق برای سلامتی مغز بسیار مهم است و چه بسا خواب باعث افزایش ادراک شناختی شود. در سال ۲۰۱۹ دانشمندان قابلیت خوابیدن را در یک شبکه عصبی مصنوعی (ANN) به نام شبکه هاپفیلد برنامهنویسی کردند. با الهام از مغز یک پستاندار خوابیده، شبکه عصبی مصنوعی هنگام آنلاین بودن بیدار و هنگام آفلاین شدن به خواب میرفت.
آفلاین بودن به معنای خاموش شدن هوش مصنوعی نبود. الگوهای خواب انسان چیزی شبیه به REM (حرکت سریع چشم) و خواب عمیق را نشان میدهد. گفته میشود که خواب REM خاطرات مهم را ذخیره میکند در حالی که خواب عمیق خاطرات نه چندان مهم را حذف میکند.
به طرز باورنکردنی، شبکه عصبی مصنوعی نیز هنگام آفلاین بودن میخوابد و هر آنچه در آن روز آموخته را پردازش میکند و با با ظرفیت حافظه بیشتری از خواب بیدار میشود. هنگامی که شبکه اجازه چرت زدن نداشت شبکه عصبی مصنوعی مانند یک انسان محروم از خواب عمل میکرد و در نتیجه، توانایی یادگیری آن به میزان چشمگیری کاهش مییافت. این کشف یک روز ممکن است روزی خواب را برای همه سیستمهای هوش مصنوعی اجباری کند.
۷. هوش مصنوعی علیه هوش مصنوعی!
در جهان امروز فناوری به سرعت به رشد خود ادامه میدهد. طوری که بسیاری معتقدند این حد از پیشرفت، به خصوص در زمینه هوش مصنوعی، به تهدیدی جدی برای حیات و کار انسان تبدیل خواهد شد. البته هوش مصنوعی به خودی خود مایه نگرانی نیست و توسعه سیستمهای خودکار و فوقالعاده قدرتمند بر پایه این فناوری هستند که باعث ترس و نگرانی بشر شدهاند.
با توجه به این نگرانیها، در سال ۲۰۱۷ محققان استرالیایی تنها در عرض ۵ روز توانستند یک سیستم ضد هوش مصنوعی بسازند که هوش مصنوعی را از انسان واقعی تشخیص دهد! در واقع، این هوش مصنوعی به این منظور ساخته شده که اگر هوش مصنوعی قصد فریب انسان را داشته و بخواهد خود را به عنوان یک انسان واقعی جا بزند، مچ او را بگیرد! دانشمندان موفق شدهاند یک گجت پوشیدنی هم بر پایه این فناوری طراحی کنند که به صاحب خود امکان تشخیص هوش مصنوعی را میدهد.
این وسیله برای بررسی ساختگی بودن صدا از سیستم منبع باز Tensorflow گوگل که یک نرمافزار یادگیری ماشینی است، استفاده میکند. به این صورت که همه صداهای اطراف را ضبط کرده و به Tensorflow میفرستد. در صورتی که منبع صدا یک انسان واقعی باشد، هیچ واکنشی انجام نخواهد شد، اما به محض تشخیص ساختگی بودن صدا و وجود هوش مصنوعی در پشت آن، به کاربر هشدار داده خواهد شد.
سازندگان این گجت پوشیدنی معتقدند هشدار مربوط به تشخیص هوش مصنوعی باید لطیف باشد تا موجب ایجاد ترس و استرس در فرد نشود؛ از همین رو ترجیح دادهاند به جای استفاده از زنگ هشدار یا مکانیزم لرزشی، از یک قطعه ترموالکتریک جالب استفاده کنند که میتواند پشت گردن شخص را خنک کرده و به این صورت به او اطلاع دهد که در حال صحبت کردن با یک ربات است!
۶. ربات آی_دا
یک ربات به نام Ai-Da گل سرسبد صحنههای هنری است و شاید بتوان آن را رقیبی سرسخت برای هنرمندان سختکوش امروز در سراسر جهان دانست. آی_دا، نقاشی، مجسمه و نقوش پیچیدهای را خلق میکند. نکته شایان ذکر درباره آی_دا این است که دستگاه به تدریج روشهای پیچیدهای برای خلاق بودن را به خود آموزش میدهد. این ربات در دانشگاه آکسفورد قرار دارد. آثار و نقاشیهای انتزاعی این هوش مصنوعی ارزش خاصی دارند. در واقع، نقاشیهای او با آثار بهترین نقاشان انتزاعی امروز برابری میکند.
این دستگاه مهارتهای دیگری نیز دارد. صحبت میکند، راه میرود و قلم مو و مداد را در دست نگه میدارد. همچنین اولین هوش مصنوعی است که یک نمایشگاه هنری را برگزار کرده است. آثار او که موضوعاتی، چون سیاست و ادای احترام به افراد مشهور را در بر میگیرد “بسیار زیبا” توصیف شده است.
این نوع هوش مصنوعی هنرمند در سال ۲۰۱۷ توسط آیدان ملر، طراح هنری خلق شد. او برای ساخت این ربات، به یک شرکت روباتیک کورنوال و مهندسین لیدز مراجعه نمود. مهندسان دانشگاه لیدز دستی که این هوش مصنوعی از آن با چنین ذکاوتی استفاده میکند را طراحی کردهاند. حتی نزدیکترین افراد به این دستگاه نمیتوانند ظرفیت واقعی تولید یا اثر بعدی که این هوش مصنوعی میآفریند را پیشبینی کنند.
۵. پیشبینی چهره از طریق کلیپهای صوتی!
در آینده، برقراری تماس تلفنی به صورت ناشناس غیرممکن میشود. اخیرا، یک سیستم هوش مصنوعی ساخته شده که با گوش دادن به صدای ضبط شده پیشبینی میکند که شخص چه شکلی دارد. این هوش مصنوعی که در موسسه فناوری ماساچوست (MIT) آموزش دیده است از فیلمهای آنلاین استفاده میکند تا یاد بگیرد که چگونه چهره افراد را بر اساس صداها ترسیم کند. نتایج بازآفرینی چهره چندان دقیق نبود، اما تصاویر چیزی مشابه یک انسان زنده را نشان میداد. در واقع، تصاویر به قدری مشابه یک انسان واقعی بود که باعث ناراحتی تیم MIT شد.
همانند بسیاری از فناوریها، این خطر وجود دارد که به کار گیری هوش مصنوعی تبدیل صدا به چهره به ابزاری برای سوءاستفاده افراد تبدیل شود. به عنوان مثال، فردی که یک مصاحبه شغلی تلفنی را انجام میدهد ممکن است بر اساس ظاهرش مورد قضاوت قرار گیرد. اما از یک نگاه دیگر این هوش مصنوعی میتواند به اجرای قانون و شناسایی سودجویان و آدمرباهایی که با تماسهای تهدیدآمیز سعی میکنند از مردم باج بگیرند کمک میکند. تیم MIT در نظر دارد رویکرد اخلاقی در مورد آموزش سیستم AI و اجرای آن در آینده را حفظ کند.
۴. نورمن
آزمایشگاه رسانه MIT برخلاف سایر آزمایشگاهها مبتنی بر یک شبکه عصبی است. سیستم هوش مصنوعی موسوم به نورمن، سیستمی آشفته و روانی است. ذهن “نورمن” پر از افکار منفی است؛ افکاری که بسیار وحشتناک و خشن به نظر میرسند.
محققان هنگامی که تستهای لکه رورشاخ را روی این هوش مصنوعی انجام دادند به این ویژگی منفی نورمن پی بردند. روانشناسان از این تستها استفاده میکنند تا اطلاعات بیشتری در مورد ذهنیت واقعی و اختلالات ذهنی یک بیمار کسب کنند. هنگامی که یک لکه به یک شبکه هوش مصنوعی استاندارد نشان داده شد این سیستم به ترتیب یک پرنده و یک هواپیما را دید. اما نورمن مردی را دید که تیر خورده و از ماشین بیرون میآید؛ و به جای هواپیما، مردی را دید که به یک دستگاه خمیرپزی کشیده میشد.
رفتار غیر طبیعی این سیستم به بیماری روانی تشبیه شده است. تا آنجایی که دانشمندان این سیستم را یک موجود “روانی” خواندند. با این حال، هرچه شبکههای عصبی اطلاعات بیشتری دریافت کنند جوابهای خود را بهتر اصلاح میکنند. MIT یک نظرسنجی لکه جوهر را برای عموم به اشتراک گذاشته با این امید که نورمن با درس گرفتن از پاسخهای انسانی عیوب رفتاری خود را برطرف کند.
۳. هوش مصنوعی ذهن شما را میخواند!
در سال ۲۰۱۸، سه مطالعه مختلف انجام شد تا به هوش مصنوعی نحوهی تبدیل امواج مغزی به کلمات آموزش داده شود. برای انجام این کار، الکترودها باید مستقیماً به مغز متصل میشد. به دلایل اخلاقی، انجام این کار روی افرادی با مغز سالم امکان پذیر نبود. دانشمندان از داوطلبانی که مغز آنها قبلا تجت جراحی مغزی بیربط قرار گرفته بودند اجازه گرفتند تا این آزمایش روی آنها انجام شود.
برخی افراد به فایلهای صوتی گوش میدادند و برخی دیگر با صدای بلند، متنی را میخواندند و کامپیوتر امواج مغزی آنها را ثبت میکرد. اولین مطالعه به هوش مصنوعی اجازه داد تا دادهها را با “یادگیری عمیق” تحلیل کند.
در این نوع یادگیری، رایانه مشکلی را بدون نظارت و یا با نظارت محدود انسان حل میکند. پس از تبدیل سیگنالهای الکتریکی مغز از طریق یک صداساز، این کلمات حدود ۷۵ درصد مواقع قابل فهم بودند. در مطالعه دوم از ترکیبی از الگوهای ساخته شده با شلیک نورونها و صداهای گفتاری برای آموزش به هوش مصنوعی استفاده شد.
فایلهای صوتی نهایی وضوح ضبط میکروفون را داشتند. مطالعه سوم از روش دیگری استفاده کرد_ تجزیه و تحلیل ناحیه مغز که گفتار را به حرکات ماهیچهای تبدیل میکرد. شنوندگان موفق شدند ۸۳ درصد مواقع سخنان هوش مصنوعی را درک کنند.
۲. هوش مصنوعی برای جامعه بسیار خطرناک است
سیستم هوش مصنوعی GPT-۲ آنقدر خطرناک است که توسعه دهندگان آن از انتشار نسخه کامل برای عموم خودداری کردند. GPT-۲ یک سیستم پیشبینی زبان است و بررسیهای محققان نشان میدهد که این دستگاه میتواند بسیار مضر باشد.
GPT-۲ برای تولید متن اصلی بر اساس یک نمونه محتوای کتبی طراحی شد. اگرچه هوش مصنوعی همیشه عملکرد خوبی از خود نشان نمیدهد، اما محتوای ساخته دست این هوش مصنوعی اکثر اوقات بسیار واقعی بودند. GPT-۲ این قابلیت را دارد که خبرهایی منتشر کند که مردم آن را باور کنند، مقالههایی درباره جنگ داخلی بنویسد و حتی با الهام از شخصیتهای رمان”ارباب حلقههای” تولکین داستانی خلق کند. اوپن ایآی (OpenAI)، شرکت پژوهشی غیرانتفاعی هوش مصنوعی این سیستم پیشرفته را ساخت.
این شرکت در سال ۲۰۱۹ اعلام کرد که فقط یک نسخه محدود از این هوش مصنوعی برای فروش عرضه میشود. چون این سازمان میترسید که GPT-۲ به توسعه اخبار جعلی بیشتر دامن بزند، از کاربران شبکههای اجتماعی سوءاستفاده کند و خود را به جای افراد واقعی جا بزند.
۱. هوش مصنوعی خودآگاه میشود؟!
شبکههای مصنوعی قابلیتهای پیشرفتهای از خود نشان میدهند، اما خودآگاهی یکی از مهمترین ویژگیهای انسان است که هوش مصنوعی همچنان در دستیابی به آن ناکام مانده است. در سال ۲۰۱۵، این مرز برداشته شد. آزمایشگاه رباتیک نیویورک سه روبات نائوی آمادهی کار را آزمایش کرد.
به رباتهای کوچک انساننما گفته شد که به دلیلد دادن قرص خواب، دو ربات دیگر به خواب رفتهاند. هیچ دارویی به آنها داده نشد، اما دو ربات از سه ربات با فشار یک دکمه به دست یک انسان خاموش شدند. رباتها باید میفهمیدند که کدام یک از آنها هنوز هم میتواند صحبت کند. این همان کاری بود که معمولا هوش مصنوعی و رباتها در آن شکست میخوردند. این آزمایش به گونهای طراحی شده بود که همه مدلهای نائو در جواب این سوال که به کدام یک از شما قرص داده شد بگویند: “من نمیدانم. ”
تنها پس از آن یک ربات فهمید که هنوز هم میتواند صحبت کند. این ربات فریاد زد: “ببخشید، من الان میدونم! من تونستم ثابت کنم که قرص خواب به من داده نشده”. این آزمون گرچه چندان ساده نبود، اما در نهایت با موفقیت انجام شد. ربات نائو باید مفهوم این سوال که “کدام قرص را دریافت کردید؟ ” پس از شنیدن در جواب میگوید: “نمیدانم”. ربات باید متوجه میشد که خود او پاسخ سوال را داده و اینکه هیچ قرصی به او داده نشده است را بیان میکرد.
این اولین باری بود که هوش مصنوعی موفق شد یک معمای هوشمندانه را که برای آزمایش خودآگاهی طراحی شده بود حل کند.
منبع: دیجی رو
انتهای پیام/
باید اخلاق اسلامی را در کنار ساخته های دست بشر داشته باشیم
وگر نه انسان را به ناکجا آباد میکشانند