نشانهٔ اصلی که نشان می‌دهد در حال تماشای یک ویدئوی هوش مصنوعی هستید

Serenity Strull/ Getty Images دست‌هایی که سه گوشی هوشمند را با سطوح مختلف پیکسل‌سازی یک بالن در آسمان نگه‌دارند (اعتبار: Serenity Strull/ Getty Images)
(اعتبار: Serenity Strull/ Getty Images)

فید شبکه‌های اجتماعی شما توسط محتوای نامناسب ویدئوی هوش مصنوعی اشغال شده است. یک علامت هشدار وجود دارد که می‌تواند به شما کمک کند تقلب‌ها را تشخیص دهید – آیا به‌نظر می‌رسد که با یک سیب‌زمینی فیلم‌برداری شده است؟

این تمام شد. شما در این‌موضوع فریفته خواهید شد. احتمالاً قبلاً نیز این‌کار را انجام داده‌اید. در شش ماه گذشته، تولیدکنندگان ویدئوی هوش مصنوعی آن‌قدر پیشرفت کردند که رابطه‌مان با دوربین‌ها در آستانهٔ ذوب شدن است. سناریوی مطلوب این است: بارها و بارها فریب بخورید تا جایی که از این‌همه‌اش خسته شوید و هر چیز را که می‌بینید زیر سؤال ببرید. به آینده خوش‌آمدید.

اما به‌حال، هنوز چند پرچم قرمز برای تشخیص وجود دارد. یکی از آن‌ها برجسته است. اگر ویدئویی با کیفیت تصویر پایین ببینید – همانند فیلمی دانه‌دار و تار – باید در ذهن‌تان زنگ خطر به‌صدا درآید که شاید در حال تماشای هوش مصنوعی هستید.

“این یکی از اولین چیزهایی است که ما به آن نگاه می‌کنیم,” می‌گوید هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، پیشگام در حوزهٔ جرم‌شناسی دیجیتال و بنیان‌گذار شرکت تشخیص دیپ‌فیک GetReal Security.

حقیقت تلخ این است که ابزارهای ویدئوی هوش مصنوعی در نهایت حتی بهتر می‌شوند و این توصیه به‌زودی بی‌فایده خواهد شد. این می‌تواند در چند ماه اتفاق بیفتد یا سال‌ها طول بکشد. گفتن سخت است! متأسفم. اما اگر برای یک لحظه با من در جزئیات این موضوع غرق شوید، این نکته می‌تواند شما را از برخی آشغال‌های هوش مصنوعی نجات دهد تا زمانی که یاد بگیرید که دیدگاه‌تان نسبت به حقیقت را تغییر دهید.

بیایید صریح باشیم. این شواهد نیست. ویدئوی هوش مصنوعی نه بیشتر از این‌که بد به‌نظر برسد. بهترین ابزارهای هوش مصنوعی می‌توانند کلیپ‌های زیبا و صیقلی ارائه دهند. ویدئوی با کیفیت پایین نیز لزوماً توسط هوش مصنوعی ساخته نشده است. “اگر چیزی را می‌بینید که واقعاً کیفیت پایین دارد، به این معنا نیست که تقلبی است. این به معنای وجود نیت مخرب نیست”، می‌گوید متیو استام، استاد و سرپرست آزمایشگاه چندرسانه‌ای و امنیت اطلاعات در دانشگاه درِکسِل، ایالات متحده.

در عوض، نکته این است که ویدئوی هوش مصنوعی که تار و پیکسل‌دار است، آنهایی هستند که در حال حاضر بیشتر احتمال دارد شما را فریب دهند. این یک علامت است که شاید بخواهید به‌دقت بیشتری به آنچه می‌بینید نگاه کنید.

Serenity Strull/ Getty Images هوش مصنوعی همچنان اختلالاتی به ویدئوها اضافه می‌کند، اما به‌دست‌یابی به آن‌ها دشوارتر می‌شود. وقتی کلیپی کیفیت پایین داشته باشد، احتمال بیشتری دارد که پرچم‌های قرمز را از دست بدهید (اعتبار: Serenity Strull/ Getty Images)
هوش مصنوعی همچنان اختلالاتی به ویدئوها اضافه می‌کند، اما آن‌ها سخت‌تر آشکار می‌شوند. وقتی کلیپی کیفیت پایین دارد، احتمال بیشتری دارد که پرچم‌های قرمز را نادیده بگیرید (اعتبار: Serenity Strull/ Getty Images)

“ژنراتورهای پیشرو متن به ویدئو مانند Veo گوگل و Sora اوپن‌AI هنوز ناهماهنگی‌های کوچک تولید می‌کنند,” فرید می‌گوید. “اما این مسأله‌ای مانند شش انگشت یا متن نامفهوم نیست. این از آن پیچیده‌تر است.”

حتی مدل‌های پیشرفتهٔ امروز اغلب مشکلاتی نظیر بافت پوست به‌طوری غیرطبيعي صاف، الگوهای عجیب یا در حال تغيير در مو و لباس، یا اشیای کوچک پس‌زمینه که به‌صورت غیرممکن یا غیرواقعی حرکت می‌کنند، به‌وجود می‌آورند. همه این موارد به‌راحتی قابل نادیده‌گیری‌اند، اما هر چه تصویر واضح‌تر باشد، بیشتر احتمال دارد که این خطاهای آشکار هوش مصنوعی را ببینید.

این همان دلیل جذابیت ویدئوی با کیفیت پایین است. وقتی از هوش مصنوعی می‌خواهید چیزی شبیه به‌فیلم‌برداری با گوشی قدیمی یا دوربین امنیتی تولید شود، می‌تواند اثرات نامطلوبی که ممکن است دیگران را به دقت بیشتر ترغیب کند، مخفی کند.

در چند ماه گذشته، چند ویدئوی هوش مصنوعی با نمایهٔ بالا هزاران نفر را فریب دادند. همهٔ آن‌ها نکته‌ای مشترک داشتند. ویدئوی جعلی اما دل‌انگیز از خرگوش‌های وحشی که بر روی تردمیل می‌پرند، بیش از ۲۴۰ میلیون بازدید در تیک‌تاک دریافت کرد. میلیون‌ها رمانس‌دوست آنلاین دکمه لایک را بر روی کلیپی از دو نفری که در مترو نیویورک عاشق می‌شوند فشار دادند، اما پس از کشف تقلب، همان ناامیدی را تجربه کردند. من شخصاً یک ویدئوی ویروسی از یک کشیش آمریکایی در یک کلیسای محافظه‌کار که موعظه‌ای شگفت‌انگیزاً چپ‌گرا ارائه می‌داد، را باور کردم. « میلیاردران تنها اقلیتی هستند که باید از آن‌ها بترسیم،» او با لهجهٔ جنوبی فریاد زد. «آن‌ها قدرت نابودی این کشور را دارند!» من شگفت‌زده شدم. آیا مرزهای سیاسی ما واقعاً به این‌حدی مبهم شده‌اند؟ نه. فقط هوش مصنوعی بیشتر شده است.

هرگز نمی‌پذیرید که یک قطعهٔ متن فقط به‌دلیل اینکه کسی آن را نوشته است، درست باشد. شما به منبع آن سر می‌زنید. ویدئوها قبلاً متفاوت بودند زیرا فیک کردن آن‌ها سخت‌تر بود. اما حالا این‌چنین نیست.

هر یک از این ویدئوها گویی با یک سیب‌زمینی فیلم‌برداری شده بود. خرگوش‌های هوش مصنوعی؟ به‌عنوان فیلم‌های ارزان دوربین امنیتی که شب فیلم‌برداری شده‌اند، نمایش داده شدند. زوج مترو؟ پیکسل‌دار. آن کشیش خیالی؟ ویدئو گویی بیش از حد بزرگنمایی شده بود. و همچنین این ویدئوها علائم دیگری نیز داشتند.

“سه موردی که باید به آن‌ها توجه کنید، رزولوشن، کیفیت و طول ویدئو هستند,” می‌گوید فرید. طول کوتاه‌ترین مورد است. “در بیشتر موارد، ویدئوهای هوش مصنوعی بسیار کوتاه هستند، حتی کوتاه‌تر از ویدئوهای معمولی که در تیک‌تاک یا اینستاگرام می‌بینیم که حدود ۳۰ تا ۶۰ ثانیه طول دارند. اکثر ویدئوهایی که از من خواسته می‌شود تأیید کنم، شش، هشت یا ۱۰ ثانیه طول دارند.” دلیل این است که تولید ویدئوهای هوش مصنوعی هزینه‌بر است، بنابراین بیشتر ابزارها تنها کلیپ‌های کوتاهی تولید می‌کنند. علاوه بر این، هر چه ویدئو طولانی‌تر باشد، احتمال خطای هوش مصنوعی بیشتر می‌شود. “می‌توانید چند ویدئوی هوش مصنوعی را به‌هم بپیچید، اما تقریباً هر هشت ثانیه یک برش مشاهده می‌کنید.”

دو عامل دیگر، رزولوشن و کیفیت، مرتبط هستند اما متفاوت. رزولوشن به تعداد یا اندازهٔ پیکسل‌های تصویر اشاره دارد، در حالی که فشرده‌سازی فرآیندی است که حجم فایل ویدئویی را با حذف جزئیات کاهش می‌دهد و اغلب الگوهای بلوکی و لبه‌های تار را به‌جا می‌گذارد.

در واقع، فرید می‌گوید که تقلب‌های کم‌کیفیت آن‌قدر قانع‌کننده‌اند که افراد مخرب به‌صورت عمدی کیفیت کار خود را کاهش می‌دهند. “اگر می‌خواهم مردم را فریب دهم، چه کاری می‌کنم؟ ویدئوی تقلبی خود را تولید می‌کنم، سپس رزولوشن را کاهش می‌دهم تا هنوز قابل مشاهده باشد، اما بتوانید تمام جزئیات کوچک را تشخیص دهید. سپس فشرده‌سازی اضافه می‌کنم که بیشتر شواهد ممکن را مخفی می‌کند,” می‌گوید فرید. “این یک تکنیک رایج است.”

Serenity Strull/ Getty Images تصاویر با رزولوشن پایین تعداد پیکسل‌های کمتری دارند، در حالی که فشرده‌سازی خطاهای دیگری اضافه می‌کند. هر دو اثرات مخفی می‌کنند که می‌توانند کار هوش مصنوعی را واضح‌تر نشان دهند (اعتبار: Serenity Strull/ Getty Images)
تصاویر با رزولوشن پایین تعداد پیکسل‌های کمتری دارند، در حالی که فشرده‌سازی خطاهای دیگری اضافه می‌کند. هر دو اثراتی مخفی می‌کنند که می‌توانند کار هوش مصنوعی را واضح‌تر نشان دهند (اعتبار: Serenity Strull/ Getty Images)

مشکل این است که، در حالی که این متن را می‌خوانید، شرکت‌های فناوری میلیاردها دلار صرف می‌کنند تا هوش مصنوعی را حتی واقع‌گرایانه‌تر کنند. “خبر بدی دارم که باید بکنم. اگر این نشانه‌های بصری اکنون وجود دارند، به‌زودی ناپدید خواهند شد,” می‌گوید استام. “پیش‌بینی می‌کنم که این نشانه‌های بصری حداقل در دو سال آینده از ویدئو حذف شوند، به‌ویژه آن‌هایی که واضح هستند، چون آن‌ها تقریباً از تصاویر تولید شده توسط هوش مصنوعی در حال ناپدید شدن هستند. دیگر نمی‌توانید به چشمان خود اعتماد کنید.”

این به این معنا نیست که حقیقت یک هدف نابود شده است. وقتی پژوهشگرانی مانند فرید و استام یک محتوا را تأیید می‌کنند، تکنیک‌های پیشرفته‌تری در اختیار دارند. “زمانی که یک ویدئو تولید یا ویرایش می‌کنید، ردهای آماری کوچکی بر جای می‌گذارد که چشم ما نمی‌تواند آن‌ها را ببیند، همانند اثرانگشت‌های دست در صحنهٔ جرم,” می‌گوید استام. “ما شاهد ظهور تکنیک‌هایی هستیم که می‌توانند این اثرانگشت‌ها را جستجو و افشا کنند.” به‌عنوان مثال توزیع پیکسل‌ها در یک ویدئوی جعلی ممکن است با ویدئوی واقعی متفاوت باشد، اما چنین عواملی بی‌خطا نیستند.

شرکت‌های فناوری نیز بر روی استانداردهای جدیدی برای تأیید اطلاعات دیجیتال کار می‌کنند. به‌عبارت دیگر، دوربین‌ها می‌توانند بلافاصله پس از ایجاد یک تصویر، اطلاعاتی در فایل تعبیه کنند تا اثبات کنند که واقعی است. به همان شکل، ابزارهای هوش مصنوعی می‌توانند به‌صورت خودکار جزئیات مشابهی را به ویدئوها و تصاویر خود اضافه کنند تا ثابت کنند تقلبی هستند. استام و دیگران می‌گویند این تلاش‌ها می‌توانند کمک‌کننده باشند.

راه‌حل واقعی، به‌نظر کارشناس سواد دیجیتال مایک کافیلد، این است که همگی ما باید طرز فکرمان را دربارهٔ آنچه آنلاین می‌بینیم، تغییر دهیم. جستجو برای نشانه‌های باقی‌مانده توسط هوش مصنوعی “پایدار” نیست، زیرا این نشانه‌ها همچنان در حال تغییرند، او می‌گوید. در عوض، کافیلد می‌گوید باید ایدهٔ اینکه ویدئوها یا تصاویر به‌تنهایی معنایی دارند، در خارج از زمینه، کنار بگذاریم.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *