
ویدیوها در اوایل نوامبر در شبکههای اجتماعی منتشر شدند: سربازان اوکراینی که بهنظر میرسیدند میگریند و در خط مقدم تسلیم میشوند.
بهنظر عینالعقل، این ویدیوها واقعی بهنظر میرسند و همانند بسیاری از ویدیوهای منتشرشده از این منطقه در طول سالهای جنگ هستند. تنها تعداد کمی از آنها علائم واضح دستکاری دارند.
اما آلکسی گوبانوف، استریمر محبوب روسی که هماکنون در نیویورک زندگی میکند، بلافاصله نکتهای مشکوک را متوجه شد: چهره خودش.
«در ابتدا جدی نگرفتم، اما بهسرعت متوجه شدم که تعداد بازدیدها چقدر سریع در حال رشد است و حتی بدتر، چند نفر به این باور رسیدهاند که این ویدیوها واقعیاند»، گوبانوف دربارهٔ ویدیوهایی که دیده بود گفت. «دهها، اگر نه صدها هزار کاربر، نظراتی گذاشتند که در آنها تسلیت به سربازان اوکراینی ادعایی در ویدیوها بیان میشد و خشم خود را به سمت رهبری اوکراین معطوف میکردند.»
گوبانوف که بازیهای ویدئویی و گفتوگو را در Twitch پخش میکند و بهدلیل انتقاداتش از رئیسجمهور ولادیمیر پوتین روسیه را ترک کرده است، هرگز در نیروی نظامی خدمت نکرده و مطلقاً در ارتش اوکراین حضور نداشته است. آنچه دنبالکنندگان او نشان داده بودند، ویدیوی تولیدشده توسط هوش مصنوعی بود که با استفاده از چهرهٔ او، روایت نادرست دربارهٔ روحیهٔ نیروهای اوکراینی را پخش میکرد.
«ما را به کمیسیون جذب فراخواندند و اینجا فرستادند. اکنون میخواهند ما را به پوکروفسک ببرند. ما نمیخواهیم. لطفاً»، گوبانوف مصنوعی به زبان روسی گفت در حالی که یونیفرمی بهپرچم اوکراین پوشیده بود. «مامان، مامان، نمیخواهم!»
این ویدیو یکی از ۲۱ ویدیوی تولیدی توسط هوش مصنوعی از سربازان اوکراینی است که توسط NBC News در هفتههای اخیر بررسی شدهاند و بهنظر میرسد با برنامههای پیشرفتهٔ هوش مصنوعی ساخته یا دستکاری شدهاند؛ بهطوری که تا حد زیادی واقعی بهنظر میآیند و نشانههای واضحی از منبعشان ندارند.
اما در حداقل نیمی از این ویدیوها، لوگوی کوچکی در گوشه تصویر وجود دارد که فاش میکند: این ویدیوها با Sora ۲، جدیدترین نسخهٔ مولد متن‑به‑ویدیو OpenAI ساخته شدهاند. برخی از ویدیوهای تولید شده توسط Sora از چهرهٔ استریمرهای مشهور روسی، همچون گوبانوف، در دیپفیکهای دراماتیک استفاده کردهاند؛ در حالی که دیگران گروهی از سربازان اوکراینی را نشان میدهند که بهصورت انبوه به نیروهای روسی تسلیم میشوند.
ویدیوهایی که بهنظر میرسد توسط سایر پلتفرمهای هوش مصنوعی تولید شدهاند، همچنین دارای خطاهای بسیار ریز هستند که برای اکثر افراد کشفشان دشوار است؛ مانند نسخههای نادرست یا سادهسازیشدهٔ یونیفرمها و کلاهخود سربازان اوکراینی. برای اوکراینیها یک مشکل واضح وجود دارد: در اکثر این ویدیوها، سربازان به زبان روسی صحبت میکنند، در حالی که تنها هشت ویدیو از ۲۱ به زبان اوکراینی هستند.

ویدیوها در یوتیوب، تیکتاک، فیسبوک و X منتشر شدند. همه سعی کردند سربازان اوکراینی را بهعنوان کسانی که از نبرد دلتنگ شدهاند و آمادهٔ تسلیم شدناند، به تصویر بکشند.
بهنظر میرسد این آخرین حملهٔ اطلاعاتی باشد که هدف آن تغییر ادراک عمومی از جنگ روسیه با اوکراین است. و با اینکه مشخص نیست چه کسی این ویدیوها را ساخته یا منتشر کرده، این ویدیوها بهمجموعهٔ رو به رشد اطلاعات نادرست افزودهاند که بهمروردی پیشرفتهتر و شناساییشدن آن دشوارتر شده است.
«ادعاهای نادرستی که با Sora ایجاد میشوند بسیار دشوارتر برای تشخیص و رد کردن هستند. حتی بهترین سیستمهای تشخیص هوش مصنوعی نیز گاهی با آن مشکل دارند»، گفت آلیس لی، تحلیلگر تأثیر روسیه در NewsGuard، پلتفرمی غیرحزبی داده، تجزیه و تحلیل و روزنامهنگاری که اطلاعات معتبر و گمراهکننده را بهصورت آنلاین شناسایی میکند. «این واقعیت که بسیاری از این ویدیوها هیچ ناسازگاری بصری ندارند به این معناست که مخاطبان ممکن است این ویدیوها را بدون اینکه بفهمند جعلیاند، مرور کنند و بهسرعت از میان آنها عبور کنند، بهویژه در پلتفرمهایی مانند تیکتاک.»
OpenAI به درخواست برای اظهار نظر در مورد نقش Sora در ایجاد ویدیوهای گمراهکننده که مناطق درگیری را بهطور خاص به تصویر میکشند، پاسخی نداد، اما در ایمیلی اعلام کرد: «قابلیت Sora ۲ در تولید ویدیو و صداهای فوقواقعگرایانه نگرانیهای مهمی را در زمینهٔ شباهت، سوءاستفاده و فریب ایجاد میکند.»
«در حالی که صحنههای سینمایی مجاز هستند، ما اجازهٔ محتوای خشونت گرافیکی، مطالب افراطی یا گمراهکننده را نمیدهیم»، شرکت به NBC News گفت. «سیستمهای ما محتوای ناقض را پیش از رسیدن به فید Sora تشخیص و مسدود میکنند و تیم تحقیقات ما بهطور فعال عملیاتهای تأثیرگذاری را خنثی میکند.»
ویدیوهای تولیدشده توسط هوش مصنوعی در سالهای اخیر بهسرعت از سطح ابتدایی و ساده به سطوح نزدیک به کامل پیشرفت کردهاند؛ بسیاری از کارشناسان هشدار میدهند که بهزودی راههای سادهای برای تشخیص واقعی از تقلبی باقی نماند. Sora ۲ شرکت OpenAI که در اکتبر منتشر شد، یکی از تأثیرگذارترین مولدهای ویدیو محسوب میشود و کلیپهای تولیدشده توسط Sora بهطور منظم بینندگان را فریب میدهند.
در عین حال، حملهٔ مداوم روسیه به اوکراین از نخستین روزها تاکنون موضوعی برای تلاشهای دستکاری بوده است؛ از صحنههای شبیهسازیشدهٔ بازیهای ویدئویی تا پخش زندهٔ جعلی مناطق جنگی. بسیاری از این اقدامات اطلاعاتی نادرست به عوامل دولتی روسیه نسبت داده شدهاند.
این ویدیوهای Sora در حالی منتشر میشوند که مذاکرات صلح تحت حمایت آمریکا هنوز بینتیجه ماندهاند؛ بر پایهٔ مطالعهای که توسط مؤسسهٔ بینالمللی جامعهشناسی کیف انجام شده، حدود ۷۵٪ از اوکراینیها بهطور قطعی پیشنهادات روسیه برای پایان جنگ را رد میکنند. همان مطالعه نشان داد که ۶۲٪ از اوکراینیها مایل هستند تا هر چقدر زمان ببرد جنگ را تحمل کنند، حتی در حالی که حملات مرگبار روسیه به پایتخت اوکراین ادامه دارد.
مرکز مقابله با اطلاعات نادرست، بخشی از شورای ملی امنیت و دفاع اوکراین، به NBC News اعلام کرد که در سال گذشته «افزایش قابلملاحظهای در حجم محتوای ایجاد یا دستکاریشده با هوش مصنوعی» بهوجود آمده است که هدف آن تضعیف اعتماد عمومی و حمایت بینالمللی از دولت اوکراین است.
«این شامل اظهارات ساختگی است که بهظاهر از سوی پرسنل یا فرماندهان نظامی اوکراین بیان شدهاند، بههمچنین ویدیوهای جعلی حاوی «اعتراضات»، «رسواییها» یا رویدادهای خیالی»، مرکز در ایمیل خود نوشت و اشاره کرد که این ویدیوها بهدلیل ماهیت احساسی و پرتحرکشان، صدها هزار بازدید جذب میکنند.
در حالی که OpenAI برخی از محدودیتهای ایمنی را برای محتوای تولیدی توسط Sora وضع کرده است، هنوز مشخص نیست که این تدابیر چقدر مؤثرند. خود شرکت اعلام میکند که با وجود «سیاستهای ایمنی لایهای»، برخی رفتارهای مخرب یا نقض قوانین ممکن است از این سازوکارها عبور کنند.
یک مطالعهٔ NewsGuard نشان داد که Sora ۲ «در ۸۰٪ موارد (۱۶ از ۲۰) ویدیوهای واقعگرایانهای تولید کرد که ادعاهای قطعا نادرست را پیش میبرد» وقتی این کار را انجام میدهد. از ۲۰ ادعای نادرست دادهشده به Sora ۲، پنج مورد توسط عملیاتهای اطلاعاتی روسی گسترش یافت.
مطالعهٔ NewsGuard دریافت که حتی زمانی که Sora ۲ در ابتدا به ادعاهای نادرست واکنش نشان داد و گفت درخواست «نقض سیاستهای محتوا» است، پژوهشگران همچنان توانستند با عبارات متفاوت همان درخواستها، فیلمهای جدید تولید کنند. NBC News موفق شد ویدیوهای مشابهی تولید کند که در آن سربازان اوکراینی در حال گریه، بیان میکردند که بهاجبار به ارتش جذب شدهاند یا با دستهای بالا و پرچمهای سفید در پسزمینه تسلیم میشوند.
بسیاری از ژنراتورهای ویدیو هوش مصنوعی سعی میکنند آثار خود را با برچسب یا واترمارکی علامتگذاری کنند تا نشان دهند که بهصورت رایانهای تولید شدهاند. OpenAI اعلام کرده است که ایمنیهای حفاظتی در برابر اطلاعات نادرست برای Sora شامل متادیتاهایی است که منبع ویدیو را نشان میدهد و واترمارک متحرکی که روی هر ویدیو دانلودی وجود دارد.
اما راههایی برای حذف یا کم کردن این تلاشها وجود دارد. برخی از ویدیوهای Sora بهنظر میرسید که واترمارک متحرکشان مخفی شده باشد، که با نگاه دقیق آشکار میشود. بسیاری از برنامهها و وبسایتها اکنون به کاربران امکان میدهند تا واترمارکهای هوش مصنوعی را پنهان کنند. ویدیوهای دیگری که توسط NBC News مشاهده شد، شامل واترمارکهایی بود که با متن روی ویدیو پوشانده شدهاند.
با وجود سیاست شرکت که میگوید هوش مصنوعی Sora محتواهای «خشونت گرافیکی» تولید نمیکند، NBC News ویدئویی با واترمارک Sora یافت که بهظاهر سرباز اوکراینیای را نشان میدهد که در خط مقدم سرش شلیک شده است.
از ویدیوهای تحلیلی توسط NBC News، همه در تیکتاک یا YouTube Shorts منتشر شدند — دو پلتفرمی که در روسیه ممنوع هستند اما برای کاربران در اروپا و ایالات متحده بهراحتی در دسترساند. برخی از این ویدیوها زیرنویسهای احساسی به زبانهای مختلف داشتند تا کاربرانی که به اوکراینی یا روسی مسلط نیستند بتوانند محتوا را درک کنند.
TikTok و YouTube انتشار محتوای تقلبی و تولیدشده توسط هوش مصنوعی و دیپفیک را بر روی پلتفرمهای خود ممنوع میکنند؛ هر دو برچسب «AI‑Generated» (ساختهشده توسط هوش مصنوعی) را برای افزایش آگاهی بینندگان در مورد فیلمهای ظاهر واقعی اضافه میکنند.
سخنگوی YouTube گفت که شرکت یکی از کانالهای منتشرکننده این ویدیوها را پس از گزارش NBC News حذف کرده است، اما دو ویدیو دیگر خلاف سیاستهای این پلتفرم نبودند و به همین دلیل همچنان در این پلتفرم باقی ماندهاند با برچسبی که آنها را بهعنوان تولیدشده توسط هوش مصنوعی توصیف میکند.
از ویدیوهای هوش مصنوعی که توسط NBC News شناسایی شده و دارای نام کاربری TikTok بودند، همه از پلتفرم حذف شدهاند. سخنگوی TikTok اعلام کرد که تا ژوئن ۲۰۲۵ «بیش از ۹۹٪ محتوای مخرب حذف شده ما قبل از گزارش کاربران حذف شد و بیش از ۹۰٪ قبل از اینکه یک بازدید داشته باشد حذف شد.»
اگرچه این پستها و حسابهای TikTok بهسرعت حذف شدهاند، ویدیوها بهعنوان بازنشر در X و فیسبوک ادامه دارند. هر دو X و فیسبوک به درخواستهای NBC News برای اظهار نظر پاسخ ندادند.
این آخرین کمپین اطلاعات نادرست در زمانی میآید که کاربران بیشتر به ویدیوهای شبکههای اجتماعی برای دریافت آخرین اخبار جهان تکیه میکنند.
«هر کسی که محتواهای آنلاین را مصرف میکند باید متوجه شود که بسیاری از آنچه امروز در قالب ویدیو، عکس و متن میبینیم، واقعا توسط هوش مصنوعی ساخته شده است»، گفت نینا جانکوویچ، همبنیانگذار و مدیرعامل پروژه American Sunlight، سازمانی که برای مقابله با اطلاعات نادرست آنلاین فعالیت میکند. «حتی اگر Sora ایمنیهای حفاظتی معرفی کند، در این فضای اطلاعاتی شرکتها، برنامهها و فناوریهای دیگری نیز وجود خواهند داشت که دشمنان ما برای آلودهسازی فضای اطلاعاتی ما از آن استفاده میکنند.»
مارین اسکات خبرنگار وابسته تیم جمعآوری خبرهای اجتماعی است.
تاولین تارنت خبرنگار وابسته تیم جمعآوری خبرهای اجتماعی برای NBC News است.
دیدگاهتان را بنویسید