در حالی که جنگ با روسیه به طول می‌انجامد، ویدیوهای فوق‌واقع‌گرای هوش مصنوعی سعی می‌کنند سربازان اوکراینی را در خطر به تصویر بکشند.

ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکه‌های اجتماعی به‌اشتراک گذاشته شد.
تصاویر از ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکه‌های اجتماعی به‌اشتراک گذاشته شد. Justine Goode / NBC News; Sora

ویدیوها در اوایل نوامبر در شبکه‌های اجتماعی منتشر شدند: سربازان اوکراینی که به‌نظر می‌رسیدند می‌گریند و در خط مقدم تسلیم می‌شوند.

به‌نظر عین‌العقل، این ویدیوها واقعی به‌نظر می‌رسند و همانند بسیاری از ویدیوهای منتشرشده از این منطقه در طول سال‌های جنگ هستند. تنها تعداد کمی از آن‌ها علائم واضح دستکاری دارند.

اما آلکسی گوبانوف، استریمر محبوب روسی که هم‌اکنون در نیویورک زندگی می‌کند، بلافاصله نکته‌ای مشکوک را متوجه شد: چهره خودش.

«در ابتدا جدی نگرفتم، اما به‌سرعت متوجه شدم که تعداد بازدیدها چقدر سریع در حال رشد است و حتی بدتر، چند نفر به این باور رسیده‌اند که این ویدیوها واقعی‌اند»، گوبانوف دربارهٔ ویدیوهایی که دیده بود گفت. «ده‌ها، اگر نه صدها هزار کاربر، نظراتی گذاشتند که در آن‌ها تسلیت به سربازان اوکراینی ادعایی در ویدیوها بیان می‌شد و خشم خود را به سمت رهبری اوکراین معطوف می‌کردند.»

گوبانوف که بازی‌های ویدئویی و گفت‌و‌گو را در Twitch پخش می‌کند و به‌دلیل انتقاداتش از رئیس‌جمهور ولادیمیر پوتین روسیه را ترک کرده است، هرگز در نیروی نظامی خدمت نکرده و مطلقاً در ارتش اوکراین حضور نداشته است. آنچه دنبال‌کنندگان او نشان داده بودند، ویدیوی تولید‌شده توسط هوش مصنوعی بود که با استفاده از چهرهٔ او، روایت نادرست دربارهٔ روحیهٔ نیروهای اوکراینی را پخش می‌کرد.

«ما را به کمیسیون جذب فراخواندند و اینجا فرستادند. اکنون می‌خواهند ما را به پوکروفسک ببرند. ما نمی‌خواهیم. لطفاً»، گوبانوف مصنوعی به زبان روسی گفت در حالی که یونیفرمی به‌پرچم اوکراین پوشیده بود. «مامان، مامان، نمی‌خواهم!»

این ویدیو یکی از ۲۱ ویدیوی تولیدی توسط هوش مصنوعی از سربازان اوکراینی است که توسط NBC News در هفته‌های اخیر بررسی شده‌اند و به‌نظر می‌رسد با برنامه‌های پیشرفتهٔ هوش مصنوعی ساخته یا دستکاری شده‌اند؛ به‌طوری که تا حد زیادی واقعی به‌نظر می‌آیند و نشانه‌های واضحی از منبعشان ندارند.

اما در حداقل نیمی از این ویدیوها، لوگوی کوچکی در گوشه تصویر وجود دارد که فاش می‌کند: این ویدیوها با Sora ۲، جدیدترین نسخهٔ مولد متن‑به‑ویدیو OpenAI ساخته شده‌اند. برخی از ویدیوهای تولید شده توسط Sora از چهرهٔ استریمرهای مشهور روسی، همچون گوبانوف، در دیپ‌فیک‌های دراماتیک استفاده کرده‌اند؛ در حالی که دیگران گروهی از سربازان اوکراینی را نشان می‌دهند که به‌صورت انبوه به نیروهای روسی تسلیم می‌شوند.

ویدیوهایی که به‌نظر می‌رسد توسط سایر پلتفرم‌های هوش مصنوعی تولید شده‌اند، همچنین دارای خطاهای بسیار ریز هستند که برای اکثر افراد کشفشان دشوار است؛ مانند نسخه‌های نادرست یا ساده‌سازی‌شدهٔ یونیفرم‌ها و کلاه‌خود سربازان اوکراینی. برای اوکراینی‌ها یک مشکل واضح وجود دارد: در اکثر این ویدیوها، سربازان به زبان روسی صحبت می‌کنند، در حالی که تنها هشت ویدیو از ۲۱ به زبان اوکراینی هستند.

تصویر سمت چپ، که با Sora ۲ تولید شده است، ناهماهنگی‌هایی در کلاه‌خود سرباز و بند چانه‌اش دارد که نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیس‌بوک ستاد کل نیروهای مسلح اوکراین در تاریخ‌های ۳ و ۷ دسامبر منتشر شده‌اند، دارد. اگرچه این کلاه‌خود به‌خوبی شبیه کلاه‌خودهای استفاده‌شده توسط سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچ‌های صاف یک نشانه واضح از دستکاری هستند.
تصویر سمت چپ، که با Sora ۲ تولید شده، ناهماهنگی‌هایی در کلاه‌خود و بند چانهٔ سرباز نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیس‌بوک ستاد کل نیروهای مسلح اوکراین در تاریخ‌های ۳ و ۷ دسامبر منتشر شده‌اند، دارد. اگرچه این کلاه‌خود به‌خوبی شبیه کلاه‌خودهای مورد استفاده سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچ‌های صاف یک نشانه واضح هستند. Sora / Facebook

ویدیوها در یوتیوب، تیک‌تاک، فیس‌بوک و X منتشر شدند. همه سعی کردند سربازان اوکراینی را به‌عنوان کسانی که از نبرد دل‌تنگ شده‌اند و آمادهٔ تسلیم شدن‌اند، به تصویر بکشند.

به‌نظر می‌رسد این آخرین حملهٔ اطلاعاتی باشد که هدف آن تغییر ادراک عمومی از جنگ روسیه با اوکراین است. و با اینکه مشخص نیست چه کسی این ویدیوها را ساخته یا منتشر کرده، این ویدیوها به‌مجموعهٔ رو به رشد اطلاعات نادرست افزوده‌اند که به‌مروردی پیشرفته‌تر و شناسایی‌شدن آن دشوارتر شده است.

«ادعاهای نادرستی که با Sora ایجاد می‌شوند بسیار دشوارتر برای تشخیص و رد کردن هستند. حتی بهترین سیستم‌های تشخیص هوش مصنوعی نیز گاهی با آن مشکل دارند»، گفت آلیس لی، تحلیلگر تأثیر روسیه در NewsGuard، پلتفرمی غیرحزبی داده، تجزیه و تحلیل و روزنامه‌نگاری که اطلاعات معتبر و گمراه‌کننده را به‌صورت آنلاین شناسایی می‌کند. «این واقعیت که بسیاری از این ویدیوها هیچ ناسازگاری بصری ندارند به این معناست که مخاطبان ممکن است این ویدیوها را بدون اینکه بفهمند جعلی‌اند، مرور کنند و به‌سرعت از میان آن‌ها عبور کنند، به‌ویژه در پلتفرم‌هایی مانند تیک‌تاک.»

OpenAI به درخواست برای اظهار نظر در مورد نقش Sora در ایجاد ویدیوهای گمراه‌کننده که مناطق درگیری را به‌طور خاص به تصویر می‌کشند، پاسخی نداد، اما در ایمیلی اعلام کرد: «قابلیت Sora ۲ در تولید ویدیو و صداهای فوق‌واقع‌گرایانه نگرانی‌های مهمی را در زمینهٔ شباهت، سوءاستفاده و فریب ایجاد می‌کند.»

«در حالی که صحنه‌های سینمایی مجاز هستند، ما اجازهٔ محتوای خشونت گرافیکی، مطالب افراطی یا گمراه‌کننده را نمی‌دهیم»، شرکت به NBC News گفت. «سیستم‌های ما محتوای ناقض را پیش از رسیدن به فید Sora تشخیص و مسدود می‌کنند و تیم تحقیقات ما به‌طور فعال عملیات‌های تأثیرگذاری را خنثی می‌کند.»

ویدیوهای تولید‌شده توسط هوش مصنوعی در سال‌های اخیر به‌سرعت از سطح ابتدایی و ساده به سطوح نزدیک به کامل پیشرفت کرده‌اند؛ بسیاری از کارشناسان هشدار می‌دهند که به‌زودی راه‌های ساده‌ای برای تشخیص واقعی از تقلبی باقی نماند. Sora ۲ شرکت OpenAI که در اکتبر منتشر شد، یکی از تأثیرگذارترین مولدهای ویدیو محسوب می‌شود و کلیپ‌های تولیدشده توسط Sora به‌طور منظم بینندگان را فریب می‌دهند.

در عین حال، حملهٔ مداوم روسیه به اوکراین از نخستین روزها تاکنون موضوعی برای تلاش‌های دستکاری بوده است؛ از صحنه‌های شبیه‌سازی‌شدهٔ بازی‌های ویدئویی تا پخش زندهٔ جعلی مناطق جنگی. بسیاری از این اقدامات اطلاعاتی نادرست به عوامل دولتی روسیه نسبت داده شده‌اند.

این ویدیوهای Sora در حالی منتشر می‌شوند که مذاکرات صلح تحت حمایت آمریکا هنوز بی‌نتیجه مانده‌اند؛ بر پایهٔ مطالعه‌ای که توسط مؤسسهٔ بین‌المللی جامعه‌شناسی کیف انجام شده، حدود ۷۵٪ از اوکراینی‌ها به‌طور قطعی پیشنهادات روسیه برای پایان جنگ را رد می‌کنند. همان مطالعه نشان داد که ۶۲٪ از اوکراینی‌ها مایل هستند تا هر چقدر زمان ببرد جنگ را تحمل کنند، حتی در حالی که حملات مرگبار روسیه به پایتخت اوکراین ادامه دارد.

مرکز مقابله با اطلاعات نادرست، بخشی از شورای ملی امنیت و دفاع اوکراین، به NBC News اعلام کرد که در سال گذشته «افزایش قابل‌ملاحظه‌ای در حجم محتوای ایجاد یا دستکاری‌شده با هوش مصنوعی» به‌وجود آمده است که هدف آن تضعیف اعتماد عمومی و حمایت بین‌المللی از دولت اوکراین است.

«این شامل اظهارات ساختگی است که به‌ظاهر از سوی پرسنل یا فرماندهان نظامی اوکراین بیان شده‌اند، به‌همچنین ویدیوهای جعلی حاوی «اعتراضات»، «رسوایی‌ها» یا رویدادهای خیالی»، مرکز در ایمیل خود نوشت و اشاره کرد که این ویدیوها به‌دلیل ماهیت احساسی و پرتحرکشان، صدها هزار بازدید جذب می‌کنند.

در حالی که OpenAI برخی از محدودیت‌های ایمنی را برای محتوای تولیدی توسط Sora وضع کرده است، هنوز مشخص نیست که این تدابیر چقدر مؤثرند. خود شرکت اعلام می‌کند که با وجود «سیاست‌های ایمنی لایه‌ای»، برخی رفتارهای مخرب یا نقض قوانین ممکن است از این سازوکارها عبور کنند.

یک مطالعهٔ NewsGuard نشان داد که Sora ۲ «در ۸۰٪ موارد (۱۶ از ۲۰) ویدیوهای واقع‌گرایانه‌ای تولید کرد که ادعاهای قطعا نادرست را پیش می‌برد» وقتی این کار را انجام می‌دهد. از ۲۰ ادعای نادرست داده‌شده به Sora ۲، پنج مورد توسط عملیات‌های اطلاعاتی روسی گسترش یافت.

مطالعهٔ NewsGuard دریافت که حتی زمانی که Sora ۲ در ابتدا به ادعاهای نادرست واکنش نشان داد و گفت درخواست «نقض سیاست‌های محتوا» است، پژوهشگران همچنان توانستند با عبارات متفاوت همان درخواست‌ها، فیلم‌های جدید تولید کنند. NBC News موفق شد ویدیوهای مشابهی تولید کند که در آن سربازان اوکراینی در حال گریه، بیان می‌کردند که به‌اجبار به ارتش جذب شده‌اند یا با دست‌های بالا و پرچم‌های سفید در پس‌زمینه‌ تسلیم می‌شوند.

بسیاری از ژنراتورهای ویدیو هوش مصنوعی سعی می‌کنند آثار خود را با برچسب یا واترمارکی علامت‌گذاری کنند تا نشان دهند که به‌صورت رایانه‌ای تولید شده‌اند. OpenAI اعلام کرده است که ایمنی‌های حفاظتی در برابر اطلاعات نادرست برای Sora شامل متادیتاهایی است که منبع ویدیو را نشان می‌دهد و واترمارک متحرکی که روی هر ویدیو دانلودی وجود دارد.

اما راه‌هایی برای حذف یا کم کردن این تلاش‌ها وجود دارد. برخی از ویدیوهای Sora به‌نظر می‌رسید که واترمارک متحرکشان مخفی شده باشد، که با نگاه دقیق آشکار می‌شود. بسیاری از برنامه‌ها و وب‌سایت‌ها اکنون به کاربران امکان می‌دهند تا واترمارک‌های هوش مصنوعی را پنهان کنند. ویدیوهای دیگری که توسط NBC News مشاهده شد، شامل واترمارک‌هایی بود که با متن روی ویدیو پوشانده شده‌اند.

با وجود سیاست شرکت که می‌گوید هوش مصنوعی Sora محتواهای «خشونت گرافیکی» تولید نمی‌کند، NBC News ویدئویی با واترمارک Sora یافت که به‌ظاهر سرباز اوکراینی‌ای را نشان می‌دهد که در خط مقدم سرش شلیک شده است.

از ویدیوهای تحلیلی توسط NBC News، همه در تیک‌تاک یا YouTube Shorts منتشر شدند — دو پلتفرمی که در روسیه ممنوع هستند اما برای کاربران در اروپا و ایالات متحده به‌راحتی در دسترس‌اند. برخی از این ویدیوها زیرنویس‌های احساسی به زبان‌های مختلف داشتند تا کاربرانی که به اوکراینی یا روسی مسلط نیستند بتوانند محتوا را درک کنند.

TikTok و YouTube انتشار محتوای تقلبی و تولیدشده توسط هوش مصنوعی و دیپ‌فیک را بر روی پلتفرم‌های خود ممنوع می‌کنند؛ هر دو برچسب «AI‑Generated» (ساخته‌شده توسط هوش مصنوعی) را برای افزایش آگاهی بینندگان در مورد فیلم‌های ظاهر واقعی اضافه می‌کنند.

سخن‌گوی YouTube گفت که شرکت یکی از کانال‌های منتشرکننده این ویدیوها را پس از گزارش NBC News حذف کرده است، اما دو ویدیو دیگر خلاف سیاست‌های این پلتفرم نبودند و به همین دلیل همچنان در این پلتفرم باقی مانده‌اند با برچسبی که آنها را به‌عنوان تولید‌شده توسط هوش مصنوعی توصیف می‌کند.

از ویدیوهای هوش مصنوعی که توسط NBC News شناسایی شده و دارای نام کاربری TikTok بودند، همه از پلتفرم حذف شده‌اند. سخن‌گوی TikTok اعلام کرد که تا ژوئن ۲۰۲۵ «بیش از ۹۹٪ محتوای مخرب حذف شده ما قبل از گزارش کاربران حذف شد و بیش از ۹۰٪ قبل از اینکه یک بازدید داشته باشد حذف شد.»

اگرچه این پست‌ها و حساب‌های TikTok به‌سرعت حذف شده‌اند، ویدیوها به‌عنوان بازنشر در X و فیس‌بوک ادامه دارند. هر دو X و فیس‌بوک به درخواست‌های NBC News برای اظهار نظر پاسخ ندادند.

این آخرین کمپین اطلاعات نادرست در زمانی می‌آید که کاربران بیشتر به ویدیوهای شبکه‌های اجتماعی برای دریافت آخرین اخبار جهان تکیه می‌کنند.

«هر کسی که محتواهای آنلاین را مصرف می‌کند باید متوجه شود که بسیاری از آنچه امروز در قالب ویدیو، عکس و متن می‌بینیم، واقعا توسط هوش مصنوعی ساخته شده است»، گفت نینا جانکوویچ، هم‌بنیان‌گذار و مدیرعامل پروژه American Sunlight، سازمانی که برای مقابله با اطلاعات نادرست آنلاین فعالیت می‌کند. «حتی اگر Sora ایمنی‌های حفاظتی معرفی کند، در این فضای اطلاعاتی شرکت‌ها، برنامه‌ها و فناوری‌های دیگری نیز وجود خواهند داشت که دشمنان ما برای آلوده‌سازی فضای اطلاعاتی ما از آن استفاده می‌کنند.»

مارین اسکات خبرنگار وابسته تیم جمع‌آوری خبرهای اجتماعی است.

تاولین تارنت خبرنگار وابسته تیم جمع‌آوری خبرهای اجتماعی برای NBC News است.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *