کارشناسان متخصص در پزشکی قانونی دیجیتال درباره ویدیو‌های رایج در رسانه‌ها که با استفاده از ابزار‌های هوش مصنوعی ایجاد می‌شوند، هشدار داده اند.

کارشناسان متخصص در پزشکی قانونی دیجیتال نسبت به ویدیو‌های رایج در رسانه‌های اجتماعی هشدار داده اند که با استفاده از نسل جدیدی از ابزار‌های هوش مصنوعی ایجاد می‌شوند و به هر کسی اجازه می‌دهند صدایی واقعی را با زدن چند کلیک شبیه سازی و تقلید کند.

این هشدار در گزارشی از سوی آژانس "AB" در پی انتشار یک کلیپ جعلی از کمپین تبلیغاتی جو بایدن، رئیس جمهور آمریکا علیه یک گروه خاص و حمله به حقوق فردی آن‌ها داده شده است.

این اتفاق سهولت ایجاد کلیپ‌های جعلی و آسیب زدن به جهانی واقعی را به نمایش می‌گذارد.

حافظ مالک، استاد مهندسی برق و کامپیوتر در دانشگاه میشیگان گفت: ابزار‌هایی مانند این، آتش فریبکاری را شعله ورتر می‌کنند.

یکی از این ابزارها، ابزاری است که Eleven Labs ماه گذشته در نسخه بتا راه اندازی کرد، و ابزار تخصصی سنتز صدا است که به کاربران اجازه می‌دهد با آپلود چند دقیقه نمونه صدا و نوشتن هر متنی، یک فایل صوتی ایجاد کنند که با صدای هر فرد واقعی مطابقت داشته باشد.

این استارت‌آپ می‌گوید این فناوری برای دوبله کردن صدا به زبان‌های مختلف برای فیلم‌ها، کتاب‌های صوتی و بازی‌ها و حفظ صدا و احساسات گوینده توسعه یافته است.

علاوه بر کلیپ منتشر شده از زبان بایدن، ویدئو‌های دیگری نیز با استفاده از صدای "جعلی" از هیلاری کلینتون، بنیانگذار بیل گیتس، و اما واتسون در پلتفرم‌های ارتباط جمعی رصد شد که در مورد موضوعاتی مانند اشاعه تئوری‌های توطئه و سایر موارد مرتبط با عقاید تروریستی صحبت می‌کنند.

شایان ذکر است که "Eleven Labs" تنها شرکتی نیست که وارد عرصه هوش مصنوعی برای تولید کلیپ‌های صوتی شده است؛ بلکه تعداد شرکت‌ها در این زمینه رو به افزایش است و به صورت رایگان شروع به جلب توجه عمومی قبل از پولی شدن کرده اند.

منبع: 24.ae

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.