
فید شبکههای اجتماعی شما توسط محتوای نامناسب ویدئوی هوش مصنوعی اشغال شده است. یک علامت هشدار وجود دارد که میتواند به شما کمک کند تقلبها را تشخیص دهید – آیا بهنظر میرسد که با یک سیبزمینی فیلمبرداری شده است؟
این تمام شد. شما در اینموضوع فریفته خواهید شد. احتمالاً قبلاً نیز اینکار را انجام دادهاید. در شش ماه گذشته، تولیدکنندگان ویدئوی هوش مصنوعی آنقدر پیشرفت کردند که رابطهمان با دوربینها در آستانهٔ ذوب شدن است. سناریوی مطلوب این است: بارها و بارها فریب بخورید تا جایی که از اینهمهاش خسته شوید و هر چیز را که میبینید زیر سؤال ببرید. به آینده خوشآمدید.
اما بهحال، هنوز چند پرچم قرمز برای تشخیص وجود دارد. یکی از آنها برجسته است. اگر ویدئویی با کیفیت تصویر پایین ببینید – همانند فیلمی دانهدار و تار – باید در ذهنتان زنگ خطر بهصدا درآید که شاید در حال تماشای هوش مصنوعی هستید.
“این یکی از اولین چیزهایی است که ما به آن نگاه میکنیم,” میگوید هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، پیشگام در حوزهٔ جرمشناسی دیجیتال و بنیانگذار شرکت تشخیص دیپفیک GetReal Security.
حقیقت تلخ این است که ابزارهای ویدئوی هوش مصنوعی در نهایت حتی بهتر میشوند و این توصیه بهزودی بیفایده خواهد شد. این میتواند در چند ماه اتفاق بیفتد یا سالها طول بکشد. گفتن سخت است! متأسفم. اما اگر برای یک لحظه با من در جزئیات این موضوع غرق شوید، این نکته میتواند شما را از برخی آشغالهای هوش مصنوعی نجات دهد تا زمانی که یاد بگیرید که دیدگاهتان نسبت به حقیقت را تغییر دهید.
بیایید صریح باشیم. این شواهد نیست. ویدئوی هوش مصنوعی نه بیشتر از اینکه بد بهنظر برسد. بهترین ابزارهای هوش مصنوعی میتوانند کلیپهای زیبا و صیقلی ارائه دهند. ویدئوی با کیفیت پایین نیز لزوماً توسط هوش مصنوعی ساخته نشده است. “اگر چیزی را میبینید که واقعاً کیفیت پایین دارد، به این معنا نیست که تقلبی است. این به معنای وجود نیت مخرب نیست”، میگوید متیو استام، استاد و سرپرست آزمایشگاه چندرسانهای و امنیت اطلاعات در دانشگاه درِکسِل، ایالات متحده.
در عوض، نکته این است که ویدئوی هوش مصنوعی که تار و پیکسلدار است، آنهایی هستند که در حال حاضر بیشتر احتمال دارد شما را فریب دهند. این یک علامت است که شاید بخواهید بهدقت بیشتری به آنچه میبینید نگاه کنید.

“ژنراتورهای پیشرو متن به ویدئو مانند Veo گوگل و Sora اوپنAI هنوز ناهماهنگیهای کوچک تولید میکنند,” فرید میگوید. “اما این مسألهای مانند شش انگشت یا متن نامفهوم نیست. این از آن پیچیدهتر است.”
حتی مدلهای پیشرفتهٔ امروز اغلب مشکلاتی نظیر بافت پوست بهطوری غیرطبيعي صاف، الگوهای عجیب یا در حال تغيير در مو و لباس، یا اشیای کوچک پسزمینه که بهصورت غیرممکن یا غیرواقعی حرکت میکنند، بهوجود میآورند. همه این موارد بهراحتی قابل نادیدهگیریاند، اما هر چه تصویر واضحتر باشد، بیشتر احتمال دارد که این خطاهای آشکار هوش مصنوعی را ببینید.
این همان دلیل جذابیت ویدئوی با کیفیت پایین است. وقتی از هوش مصنوعی میخواهید چیزی شبیه بهفیلمبرداری با گوشی قدیمی یا دوربین امنیتی تولید شود، میتواند اثرات نامطلوبی که ممکن است دیگران را به دقت بیشتر ترغیب کند، مخفی کند.
در چند ماه گذشته، چند ویدئوی هوش مصنوعی با نمایهٔ بالا هزاران نفر را فریب دادند. همهٔ آنها نکتهای مشترک داشتند. ویدئوی جعلی اما دلانگیز از خرگوشهای وحشی که بر روی تردمیل میپرند، بیش از ۲۴۰ میلیون بازدید در تیکتاک دریافت کرد. میلیونها رمانسدوست آنلاین دکمه لایک را بر روی کلیپی از دو نفری که در مترو نیویورک عاشق میشوند فشار دادند، اما پس از کشف تقلب، همان ناامیدی را تجربه کردند. من شخصاً یک ویدئوی ویروسی از یک کشیش آمریکایی در یک کلیسای محافظهکار که موعظهای شگفتانگیزاً چپگرا ارائه میداد، را باور کردم. « میلیاردران تنها اقلیتی هستند که باید از آنها بترسیم،» او با لهجهٔ جنوبی فریاد زد. «آنها قدرت نابودی این کشور را دارند!» من شگفتزده شدم. آیا مرزهای سیاسی ما واقعاً به اینحدی مبهم شدهاند؟ نه. فقط هوش مصنوعی بیشتر شده است.
هرگز نمیپذیرید که یک قطعهٔ متن فقط بهدلیل اینکه کسی آن را نوشته است، درست باشد. شما به منبع آن سر میزنید. ویدئوها قبلاً متفاوت بودند زیرا فیک کردن آنها سختتر بود. اما حالا اینچنین نیست.
هر یک از این ویدئوها گویی با یک سیبزمینی فیلمبرداری شده بود. خرگوشهای هوش مصنوعی؟ بهعنوان فیلمهای ارزان دوربین امنیتی که شب فیلمبرداری شدهاند، نمایش داده شدند. زوج مترو؟ پیکسلدار. آن کشیش خیالی؟ ویدئو گویی بیش از حد بزرگنمایی شده بود. و همچنین این ویدئوها علائم دیگری نیز داشتند.
“سه موردی که باید به آنها توجه کنید، رزولوشن، کیفیت و طول ویدئو هستند,” میگوید فرید. طول کوتاهترین مورد است. “در بیشتر موارد، ویدئوهای هوش مصنوعی بسیار کوتاه هستند، حتی کوتاهتر از ویدئوهای معمولی که در تیکتاک یا اینستاگرام میبینیم که حدود ۳۰ تا ۶۰ ثانیه طول دارند. اکثر ویدئوهایی که از من خواسته میشود تأیید کنم، شش، هشت یا ۱۰ ثانیه طول دارند.” دلیل این است که تولید ویدئوهای هوش مصنوعی هزینهبر است، بنابراین بیشتر ابزارها تنها کلیپهای کوتاهی تولید میکنند. علاوه بر این، هر چه ویدئو طولانیتر باشد، احتمال خطای هوش مصنوعی بیشتر میشود. “میتوانید چند ویدئوی هوش مصنوعی را بههم بپیچید، اما تقریباً هر هشت ثانیه یک برش مشاهده میکنید.”
دو عامل دیگر، رزولوشن و کیفیت، مرتبط هستند اما متفاوت. رزولوشن به تعداد یا اندازهٔ پیکسلهای تصویر اشاره دارد، در حالی که فشردهسازی فرآیندی است که حجم فایل ویدئویی را با حذف جزئیات کاهش میدهد و اغلب الگوهای بلوکی و لبههای تار را بهجا میگذارد.
در واقع، فرید میگوید که تقلبهای کمکیفیت آنقدر قانعکنندهاند که افراد مخرب بهصورت عمدی کیفیت کار خود را کاهش میدهند. “اگر میخواهم مردم را فریب دهم، چه کاری میکنم؟ ویدئوی تقلبی خود را تولید میکنم، سپس رزولوشن را کاهش میدهم تا هنوز قابل مشاهده باشد، اما بتوانید تمام جزئیات کوچک را تشخیص دهید. سپس فشردهسازی اضافه میکنم که بیشتر شواهد ممکن را مخفی میکند,” میگوید فرید. “این یک تکنیک رایج است.”

مشکل این است که، در حالی که این متن را میخوانید، شرکتهای فناوری میلیاردها دلار صرف میکنند تا هوش مصنوعی را حتی واقعگرایانهتر کنند. “خبر بدی دارم که باید بکنم. اگر این نشانههای بصری اکنون وجود دارند، بهزودی ناپدید خواهند شد,” میگوید استام. “پیشبینی میکنم که این نشانههای بصری حداقل در دو سال آینده از ویدئو حذف شوند، بهویژه آنهایی که واضح هستند، چون آنها تقریباً از تصاویر تولید شده توسط هوش مصنوعی در حال ناپدید شدن هستند. دیگر نمیتوانید به چشمان خود اعتماد کنید.”
این به این معنا نیست که حقیقت یک هدف نابود شده است. وقتی پژوهشگرانی مانند فرید و استام یک محتوا را تأیید میکنند، تکنیکهای پیشرفتهتری در اختیار دارند. “زمانی که یک ویدئو تولید یا ویرایش میکنید، ردهای آماری کوچکی بر جای میگذارد که چشم ما نمیتواند آنها را ببیند، همانند اثرانگشتهای دست در صحنهٔ جرم,” میگوید استام. “ما شاهد ظهور تکنیکهایی هستیم که میتوانند این اثرانگشتها را جستجو و افشا کنند.” بهعنوان مثال توزیع پیکسلها در یک ویدئوی جعلی ممکن است با ویدئوی واقعی متفاوت باشد، اما چنین عواملی بیخطا نیستند.
شرکتهای فناوری نیز بر روی استانداردهای جدیدی برای تأیید اطلاعات دیجیتال کار میکنند. بهعبارت دیگر، دوربینها میتوانند بلافاصله پس از ایجاد یک تصویر، اطلاعاتی در فایل تعبیه کنند تا اثبات کنند که واقعی است. به همان شکل، ابزارهای هوش مصنوعی میتوانند بهصورت خودکار جزئیات مشابهی را به ویدئوها و تصاویر خود اضافه کنند تا ثابت کنند تقلبی هستند. استام و دیگران میگویند این تلاشها میتوانند کمککننده باشند.
راهحل واقعی، بهنظر کارشناس سواد دیجیتال مایک کافیلد، این است که همگی ما باید طرز فکرمان را دربارهٔ آنچه آنلاین میبینیم، تغییر دهیم. جستجو برای نشانههای باقیمانده توسط هوش مصنوعی “پایدار” نیست، زیرا این نشانهها همچنان در حال تغییرند، او میگوید. در عوض، کافیلد میگوید باید ایدهٔ اینکه ویدئوها یا تصاویر بهتنهایی معنایی دارند، در خارج از زمینه، کنار بگذاریم.
دیدگاهتان را بنویسید