کارشناسان متخصص در پزشکی قانونی دیجیتال نسبت به ویدیوهای رایج در رسانههای اجتماعی هشدار داده اند که با استفاده از نسل جدیدی از ابزارهای هوش مصنوعی ایجاد میشوند و به هر کسی اجازه میدهند صدایی واقعی را با زدن چند کلیک شبیه سازی و تقلید کند.
این هشدار در گزارشی از سوی آژانس "AB" در پی انتشار یک کلیپ جعلی از کمپین تبلیغاتی جو بایدن، رئیس جمهور آمریکا علیه یک گروه خاص و حمله به حقوق فردی آنها داده شده است.
این اتفاق سهولت ایجاد کلیپهای جعلی و آسیب زدن به جهانی واقعی را به نمایش میگذارد.
حافظ مالک، استاد مهندسی برق و کامپیوتر در دانشگاه میشیگان گفت: ابزارهایی مانند این، آتش فریبکاری را شعله ورتر میکنند.
یکی از این ابزارها، ابزاری است که Eleven Labs ماه گذشته در نسخه بتا راه اندازی کرد، و ابزار تخصصی سنتز صدا است که به کاربران اجازه میدهد با آپلود چند دقیقه نمونه صدا و نوشتن هر متنی، یک فایل صوتی ایجاد کنند که با صدای هر فرد واقعی مطابقت داشته باشد.
این استارتآپ میگوید این فناوری برای دوبله کردن صدا به زبانهای مختلف برای فیلمها، کتابهای صوتی و بازیها و حفظ صدا و احساسات گوینده توسعه یافته است.
علاوه بر کلیپ منتشر شده از زبان بایدن، ویدئوهای دیگری نیز با استفاده از صدای "جعلی" از هیلاری کلینتون، بنیانگذار بیل گیتس، و اما واتسون در پلتفرمهای ارتباط جمعی رصد شد که در مورد موضوعاتی مانند اشاعه تئوریهای توطئه و سایر موارد مرتبط با عقاید تروریستی صحبت میکنند.
شایان ذکر است که "Eleven Labs" تنها شرکتی نیست که وارد عرصه هوش مصنوعی برای تولید کلیپهای صوتی شده است؛ بلکه تعداد شرکتها در این زمینه رو به افزایش است و به صورت رایگان شروع به جلب توجه عمومی قبل از پولی شدن کرده اند.
منبع: 24.ae