در سالهای اخیر، توسعه و پیشرفت هوش مصنوعی بهویژه در حوزه تولید محتوا، فرصتها و چالشهای جدیدی را برای جوامع به همراه داشته است. یکی از مهمترین نگرانیها در این زمینه، مسئله تولید محتوای جعلی یا دیپفیک (Deepfake) است. محتوای جعلی مبتنی بر هوش مصنوعی میتواند شامل تصاویر، ویدئوها، و حتی متنهای تولید شده توسط ماشین باشد؛ محتوایی که به گونهای طراحی شدهاند تا واقعی به نظر برسند و مخاطبان را به اشتباه بیاندازند. این پدیده جدید، تواناییها و قدرتهای بیسابقهای به دست افراد و گروههایی داده است که قصد دارند از اطلاعات نادرست و گمراهکننده برای اهداف خود استفاده کنند.
تأثیر این نوع محتوا در عرصههای مختلف جامعه بهویژه در حوزه انتخابات بسیار چشمگیر و نگرانکننده است. انتخابات، به عنوان یکی از بنیادیترین ارکان دموکراسی، نیازمند اعتماد عمومی و اطلاعات صحیح است. فرآیند انتخاباتی که بر مبنای اطلاعات نادرست و جعلی انجام شود، میتواند به تضعیف اصول دموکراتیک و اعتماد عمومی منجر گردد. محتوای جعلی میتواند به راحتی شخصیتها و وقایع را تحریف کرده و با القای اطلاعات نادرست، رأیدهندگان را به تصمیمگیریهای اشتباه وادار کند.
یکی از خطرات جدی در این زمینه، استفاده از دیپفیکها برای تخریب شخصیتهای سیاسی است. با ایجاد ویدئوها و صداهای جعلی که به نظر میرسد از زبان نامزدهای انتخاباتی یا شخصیتهای سیاسی منتشر شدهاند، میتوان به راحتی اعتبار آنها را زیر سوال برد و افکار عمومی را منحرف کرد. این موضوع نه تنها منجر به ایجاد سردرگمی در میان رأیدهندگان میشود، بلکه میتواند اعتماد عمومی به فرآیندهای انتخاباتی را نیز به شدت کاهش دهد.
علاوه بر این، استفاده از محتوای جعلی برای تقویت کمپینهای اطلاعات غلط و پراکندهکردن شایعات نیز از دیگر مشکلات جدی است. در دنیای امروز که رسانههای اجتماعی به سرعت اطلاعات را منتشر میکنند، این گونه محتواها میتوانند به سرعت و بدون امکان کنترل، در میان میلیونها نفر گسترش یابند. این مسئله به نوبه خود، به ایجاد یک فضای پر از اطلاعات نادرست و گمراهکننده منجر میشود که رأیدهندگان را از دسترسی به حقایق محروم میکند.
در این گزارش به مناسبت نزدیک شدن به ایام برگزاری چهاردهمین دوره انتخابات ریاست جمهوری ایران، به بررسی ابعاد مختلف تأثیر محتوای جعلی مبتنی بر هوش مصنوعی بر انتخابات خواهیم پرداخت. باتوجه به پیچیدگی و اهمیت این مسئله، نیاز است که همه افراد و نهادهای مرتبط به تلاشهای مشترکی برای مقابله با این تهدیدات بپردازند و با ایجاد سازوکارهای مناسب، از صحت و سلامت فرآیندهای انتخاباتی محافظت کنند.
۱. تضعیف اعتماد عمومی
اعتماد عمومی به عنوان یکی از مهمترین ارکان دموکراسی، زمانی که در معرض اطلاعات نادرست و جعلی قرار گیرد، به شدت آسیب میبیند. محتوای جعلی میتواند تصویر نامزدهای انتخاباتی و سیاستمداران را تغییر داده و با انتشار اطلاعات گمراهکننده، رأیدهندگان را نسبت به صحت و سلامت انتخابات دچار تردید کند. این تضعیف اعتماد ممکن است به کاهش مشارکت عمومی در انتخابات منجر شود، چرا که شهروندان ممکن است احساس کنند که رأی آنها تأثیری نخواهد داشت و انتخابات تحت تأثیر اطلاعات نادرست برگزار میشود.
۲. ایجاد سردرگمی اطلاعاتی
در عصر اطلاعات، دستیابی به اخبار و اطلاعات دقیق و صحیح اهمیت زیادی دارد. اما محتوای جعلی مبتنی بر هوش مصنوعی میتواند به سرعت در رسانههای اجتماعی و سایر بسترهای ارتباطی گسترش یابد و فضای اطلاعاتی را آلوده کند. این امر باعث میشود که رأیدهندگان در تشخیص حقیقت از دروغ دچار مشکل شوند و نتوانند تصمیمگیریهای آگاهانهای انجام دهند. این سردرگمی اطلاعاتی میتواند به نفع افرادی تمام شود که قصد دارند با انتشار اطلاعات نادرست، افکار عمومی را به سمت خاصی هدایت کنند.
۳. تقویت کمپینهای اخبار جعلی
کمپینهای اخبار جعلی همواره یکی از ابزارهای مؤثر در جنگهای اطلاعاتی بودهاند. با ظهور هوش مصنوعی و قابلیتهای پیشرفتهای که این فناوری در تولید محتوای جعلی دارد، این کمپینها به سطح جدیدی از تأثیرگذاری رسیدهاند. دیپفیکها میتوانند به ایجاد و تقویت شایعات و اطلاعات نادرست کمک کنند و این اطلاعات به سرعت در فضای مجازی منتشر شده و بر افکار عمومی تأثیر بگذارند. این کمپینها میتوانند به تخریب شخصیتهای سیاسی، تغییر نتایج انتخابات، و ایجاد تفرقه در میان مردم منجر شوند.
بر اساس گزارشهای منتشر شده طی دو سال اخیر، با داغ شدن تنور انتخابات ۲۰۲۴ آمریکا، استفاده از فناوری دیپفیک به شکلی نگرانکننده افزایش یافته و به لطف فناوریهای جدید، تولید تصاویر جعلی آسانتر از همیشه شده است.
وبگاه خبری نیویورک تایمز، طی گزارش در تاریخ ۸ ژوئن ۲۰۲۳، مدعی شد که کمپین ران دیسانتیس، فرماندار ایالت فلوریدای آمریکا و نامزد انتخابات ریاست جمهوری این کشور، با انتشار تصاویر جعلی از دونالد ترامپ در توئیتر، به او حمله کرده است. کارشناسان در آن بازه زمانی اعلام کردند که این تصاویر با استفاده از فناوری دیپفیک مبتنی بر هوش مصنوعی تولید شدهاند. پیش از این ترامپ نیز در برخی موارد از محتوای مشابه برای تخریب بایدن استفاده کرده بود.
با این وجود، استفاده از هوش مصنوعی برای تأثیرگذاری بر نتایج، صرفاً به محتوای جعلی مبتنی بر هوش مصنوعی در قالب ویدئو محدود نمیشود. وبگاه اخبار فناوری گیزمودو نیز با انتشار مطلبی در تاریخ ۲ فوریه ۲۰۲۴، از ممنوعیت تماس تلفنی دیپفیک در تبلیغات انتخاباتی آمریکا در پی افزایش تماسهای تلفنی جعلی در نیوهمپشایر خبر داد. این خبر پس از آن منتشر شد که گروهی سعی داشتند، با جعل تماس تلفنی جو بایدن، رئیس جمهور آمریکا، انتخابات مقدماتی حزب دموکرات در ایالت نیوهمپشایر را مختل کنند.
جسیکا روزن وورسل، رئیس کمیسیون ارتباطات فدرال، طی اظهاراتی در این خصوص اعلام کرد: «تصاویر و شبیهسازی صوتی ایجاد شده توسط هوش مصنوعی با فریب دادن افراد سردرگمی ایجاد میکنند. به همین دلیل کمیسیون تجارت فدرال اقداماتی انجام میدهد تا این فناوری نوظهور طبق قوانین موجود، ممنوع شود.»
علاوه بر موارد ذکر شده، هوش مصنوعی همچنین میتواند به طور دقیق مخاطبان را هدف قرار دهد و پیامهای تبلیغاتی را به گروههای خاص ارسال کند. این روش به کمپینها اجازه میدهد که پیامهای خاصی را به گروههای متفاوتی از رایدهندگان ارسال کنند و یا به طور مخفیانه رایدهندگان مخالف را از شرکت در انتخابات منصرف کنند. به عنوان مثال، رباتهای فعال در رسانههای اجتماعی توانستهاند در انتخابات گذشته آمریکا و فرانسه با انتشار پیامهای هدفمند در شبکههای اجتماعی، فضای سیاسی را به شدت تحت تأثیر قرار دهند.
۱. آموزش و افزایش آگاهی عمومی
یکی از مهمترین راهکارها برای مقابله با محتوای جعلی، آموزش و افزایش آگاهی عمومی است. شهروندان باید از وجود این نوع محتوا و نحوه شناسایی آن آگاه شوند. برگزاری کارگاهها، تولید محتوای آموزشی، و استفاده از رسانهها برای اطلاعرسانی در این زمینه میتواند به افزایش سطح آگاهی عمومی کمک کند.
۲. تقویت قوانین و مقررات
قوانین و مقررات مرتبط با انتشار اطلاعات نادرست و جعلی باید تقویت شوند. نهادهای قانونی باید با جدیت بیشتری به مبارزه با انتشار محتوای جعلی بپردازند و برای افرادی که به طور عمدی این نوع محتوا را منتشر میکنند، مجازاتهای مناسبی تعیین کنند. همچنین باید قوانین بینالمللی برای مقابله با این مشکل تدوین و اجرا شوند تا کشورها بتوانند به صورت هماهنگ با این تهدیدات مقابله کنند.
۳. استفاده از فناوری برای شناسایی محتوای جعلی
فناوریهای نوین میتوانند به شناسایی و تشخیص محتوای جعلی کمک کنند. توسعه الگوریتمها و ابزارهای پیشرفتهای که قادر به شناسایی محتوای جعلی باشند، میتواند به کاهش انتشار این نوع محتوا کمک کند. همکاری بین شرکتهای فناوری و نهادهای دولتی در این زمینه بسیار مهم است تا بتوانند راهحلهای مؤثری برای مقابله با محتوای جعلی ارائه دهند.
۴. افزایش شفافیت در فرآیندهای انتخاباتی
افزایش شفافیت در فرآیندهای انتخاباتی میتواند به کاهش تأثیر محتوای جعلی کمک کند. ارائه اطلاعات دقیق و به موقع به شهروندان، استفاده از سیستمهای رأیدهی امن و قابل اعتماد، و ایجاد سازوکارهایی برای نظارت بر انتخابات از جمله اقداماتی است که میتواند به افزایش اعتماد عمومی و کاهش تأثیر محتوای جعلی کمک کند.
اقدامات حقوقی در راستای مبارزه با تأثیرگذاری هوش مصنوعی بر انتخابات
بسیاری از کشورهای جهان، از جمله ایران، ایالات متحده، بریتانیا، هند، روسیه و اتحادیه اروپا همگی در سال ۲۰۲۴، انتخاباتهایی را پیشرو دارند که تأثیر عمیقی بر شرایط جهان تا پایان این دهه خواهد داشت. در همین راستا تنظیمگران سراسر جهان تلاش دارند که پیش از برگزاری انتخابات، قوانین جامعی را برای مدیریت استفاده از فناوری هوش مصنوعی در فرایند انتخابات تدوین کنند.
یکی از اقدامات پیشنهادی استفاده از علائم نشاندهنده ماهیت محتوا یا واترمارک است. واترمارک به کاربران اطلاع میدهد که یک محتوا با استفاده از هوش مصنوعی تولید شده است. به عنوان مثال، دولت چین از ابتدای سال گذشته میلادی با معرفی قوانینی که ثبت واترمارک بر محتوای دیپفیک را دربرداشت، گامی بلند در زمینه تنظیمگری این فناوری برداشت. با این حال، طیف گستردهای از کارشناسان بر این باورند که این دست اقدامات اگرچه لازم؛ اما کافی نخواهد بود؛ زیرا بسیاری از ابزارهای آنلاین میتوانند، واترمارک را حذف کنند.
این در حالی است که بسیاری از کارشناسان، اقدامات حقوقی دولتها برای مبارزه با گسترش فزاینده محتوای جعلی مبتنی بر هوش مصنوعی را کافی نمیدانند و معتقدند که تحقق این هدف تنها با مشارکت همه ذینفعان میسر است.
از همین روی، توافقات دو و چندجانبه بسیاری میان ذینفعان این حوزه، در طول سالهای اخیر صورت گرفته است. وبگاه خبری رویترز، طی گزارشی در تاریخ ۱۶ فوریه ۲۰۲۴ اعلام کرد که گروهی متشکل از ۲۰ شرکت فناوری قصد دارند در زمینه جلوگیری از تداخل محتوای جعلی مبتنی بر هوش مصنوعی در انتخابات کشورهای مختلف جهان با یکدیگر همکاری کنند. این توافق شامل تعهداتی برای همکاری در توسعه ابزارهای شناسایی تصاویر، ویدئو و صداهایی است که هوش مصنوعی آنها را تولید میکند. از سوی دیگر این توافق در پی ایجاد کمپینهای آگاهی عمومی برای آموزش تشخیص محتوای فریبنده به رأیدهندگان و… است.
از سوی دیگر، بسیاری از شرکتهای سازنده و عرضه کننده سرویسهای هوش مصنوعی نیز به صورت مستقل تدابیری را برای مقابله با پدیده تأثیرگذاری بر انتخابات اتخاذ کردهاند. شرکت گوگل در ماه مارس ۲۰۲۴ اعلام کرد که محدودیتهایی را در پاسخهای چتبات «Gemini» به سوالات مربوط به انتخابات در اقصی نقاط جهان اعمال میکند. این شرکت پیشتر و در ماه دسامبر سال گذشته محدودیتهایی را در داخل ایالات متحده وضع و از اجرای این محدودیتها تا پیش از انتخابات این کشور خبر داد.
سخن پایانی
به عقیده بسیاری از کارشناسان، در شرایط کنونی، محتوای جعلی مبتنی بر هوش مصنوعی یکی از بزرگترین تهدیدات برای دموکراسی و انتخابات سالم به شمار میرود. تأثیرات گسترده این نوع محتوا بر اعتماد عمومی، سردرگمی اطلاعاتی و تقویت کمپینهای اطلاعات غلط نشاندهنده ضرورت اقدام فوری و هماهنگ برای مقابله با این تهدیدات است. با آموزش و افزایش آگاهی عمومی، تقویت قوانین و مقررات، استفاده از فناوریهای نوین برای شناسایی محتوای جعلی و افزایش شفافیت در فرآیندهای انتخاباتی، میتوان به حفظ صحت و سلامت انتخابات و تقویت اعتماد عمومی کمک کرد.
در چنین وضعیتی و با توجه به تهدیدات گسترده و جدی محتوای جعلی مبتنی بر هوش مصنوعی، لازم است که همه افراد و نهادهای مرتبط به تلاشهای مشترکی برای مقابله با این تهدیدات بپردازند. با آموزش و افزایش آگاهی عمومی، تقویت قوانین و مقررات، استفاده از فناوریهای نوین، افزایش شفافیت در فرآیندهای انتخاباتی و تشویق به تحقیقات بیشتر، میتوان به حفظ صحت و سلامت انتخابات و تقویت اعتماد عمومی کمک کرد. تنها از طریق این اقدامات مشترک و هماهنگ است که در آستانه برگزاری چهاردهمین انتخابات ریاست جمهوری ایران میتوان به مقابله مؤثر با این چالش پیچیده و حفظ اصول دموکراسی پرداخت.
منبع: مهر