دانشمندان نسبت به اشتراک گذاری اطلاعات حساس با چت ربات‌های هوش مصنوعی هشدار دادند.

با توجه به اطلاعیه اخیر در رابطه با عملکرد پیشرفته معرفی شده توسط سیستم ChatGPT، که در آن GPT‌های سفارشی می‌توانند در مکالمات با ChatGPT بومی ادغام شوند، کارشناسان مرکز تحقیقات روسیه کسپرسکی بر نیاز به مراقبت بیشتر در هنگام اشتراک گذاری اطلاعات حساس با چت ربات‌های هوش مصنوعی تاکید کردند.

ولادسلاو توشکانوف مدیر گروه توسعه پژوهش‌ها در مؤسسه پژوهشی کسپرسکی در این مورد می‌گوید: چت ربات سفارشی می‌تواند از منابع و ابزار‌های خارجی برای عملکرد‌های پیشرفته استفاده کند، بنابراین آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI مکانیزمی را ایجاد کرده است که کاربران را قادر می‌سازد رویه‌هایی را که توسط سیستم GPT دنبال می‌شوند را بررسی و تأیید کنند، تا از نشت گفتگوی احتمالی جلوگیری شود.

هنگامی که این سیستم‌های سفارشی سعی می‌کنند داده‌ها را به یک سرویس شخص ثالث ارسال کنند، از خود کاربران خواسته می‌شود که این عملیات را مجاز یا رد کنند و همچنین گزینه دیگری برای بازرسی داده‌ها با استفاده از نماد منوی کشویی در رابط وجود دارد، همین قابلیت برای عملکرد جدید اعمال می‌شود.

توشکانوف افزود: علی رغم معرفی این مکانیسم ها، کاربران باید آگاه باشند و با احتیاط کامل عمل کنند، زیرا باید هر درخواست دریافتی را بررسی و درک کنند که ممکن است بر تجربه کلی آن‌ها تاثیر بگذارد. نه تنها این احتمال ممکن است، بلکه راه‌های بالقوه دیگری نیز برای درز داده‌ها از سرویس چت ربات وجود دارد که در نتیجه خطا‌ها یا ضعف‌هایی در سرویس رخ می‌دهد، چنانچه داده‌ها در طول فرآیند آموزش مدل حفظ شوند یا اگر شخصی موفق به نفوذ به حساب شما شود. به طور کلی، باید مراقب باشید و از به اشتراک گذاری اطلاعات شخصی و محرمانه با هر سرویس چت بات از طریق اینترنت خودداری کنید.

منبع: الیوم السابع

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.