ویدیوهای هوش مصنوعی شبکه‌های اجتماعی را فراگرفته‌اند؛ هیچ‌کس آماده نبود.

ویدیوهایی مثل مصاحبهٔ جعلی بالا که با برنامهٔ جدید OpenAI به نام سورا ساخته شده‌اند، نشان می‌دهند که چقدر به‌راحتی می‌توان ادراک عمومی را با ابزارهایی که می‌توانند واقعیتی جایگزین را تنها با چند فرمان ساده تولید کنند، دستکاری کرد.

در دو ماهی که از عرضهٔ سورا می‌گذرد، ویدیوهای فریبنده در تیک‌توک، ایکس، یوتیوب، فیس‌بوک و اینستاگرام به‌سرعت رشد کرده‌اند، به گفتهٔ متخصصانی که این محتواها را رصد می‌کنند. این هجوم هشدارهایی دربارهٔ نسل جدیدی از اطلاعات نادرست و تقلب‌ها برانگیخته است.

اکثر شرکت‌های بزرگ شبکه‌های اجتماعی سیاست‌هایی دارند که استفاده از هوش مصنوعی را باید افشا کنند و به‌طور گسترده محتوای هدفمند برای فریب را ممنوع می‌دانند. اما این محدودیت‌ها برای جهش‌های تکنولوژیکی که ابزارهای OpenAI به ارمغان می‌آورند، به‌وضوح ناکافی هستند.

در حالی که بسیاری از ویدیوها میم‌های ساده یا تصاویر بامزه اما ساختگی از نوزادان و حیوانات خانگی هستند، برخی دیگر برای تشدید خصمانگی‌ای که اغلب در مناظرات سیاسی آنلاین مشاهده می‌شود، طراحی شده‌اند. این ویدیوها پیش از این در عملیات‌های نفوذ خارجی نقش داشته‌اند، مانند کمپین پیوستهٔ روسیه برای بدنام کردن اوکراین.

پژوهشگرانی که موارد فریب‌کننده را ردیابی کرده‌اند، اظهار کرده‌اند که مسئولیت اکنون بر دوش شرکت‌هاست تا اقدامات بیشتری برای اطمینان از تشخیص واقعی بودن محتوا انجام دهند.

“آیا می‌توانند در مدیریت محتوا برای اطلاعات نادرست و گمراه‌کننده بهتر عمل کنند؟ بله، واضح است که این کار را انجام نمی‌دهند,” گفت سام گرجی، مدیر اجرایی Witness، سازمان حقوق بشری که بر تهدیدهای فناوری تمرکز دارد. “آیا می‌توانند به‌صورت پیشگیرانه به‌دنبال اطلاعات تولید شده توسط هوش مصنوعی بگردند و خودشان آن را برچسب‌گذاری کنند؟ پاسخ نیز بله است.”

این ویدیو توسط هوش مصنوعی تولید شده است.

با این حال، به‌نظر می‌رسید مردم باور داشتند که این یک گفتگوی واقعی دربارهٔ فروش کوپن‌های خوراکی در ازای پول نقد است؛ کاری که جرم محسوب می‌شود.

ویدیو دربارهٔ کوپن‌های خوراکی که در تیک‌توک منتشر شد، شامل چند سرنخ بود که نشان می‌داد جعلی است.

یک “Sora” آرم به‌صورت کوتاه در گوشهٔ بالا‑چپ ظاهر می‌شود و سپس محو می‌گردد. به‌نظر می‌رسد بارگذار با ابزاری این آرم را حذف کرده است.

بارگذار در انتهای توضیح، یک #هوش_مصنوعی کوچک اضافه کرده است که در پایین صفحه نشان داده می‌شود.

تیک‌توک یک برچسب مخصوص خود زیر توضیح افزود، که احتمالاً پس از اینکه کاربر ویدیو را به‌عنوان هوش مصنوعی علامت‌گذاری کرد، توسط ابزارهای تیک‌توک اضافه شده است.

این موارد همه در تیک‌توک به‌راحتی قابل چشم‌پوشی بودند.

این یک تقلب دیگر هوش مصنوعی است که در فیس‌بوک در حال گردش است.

خبرنگار و زنی که دستگیر می‌شود، توسط ابزارهای هوش مصنوعی ساخته شده‌اند، اما هیچ آرم‌ای در ویدیوها ظاهر نمی‌شود.

فیس‌بوک گاهی اعلام تقلب ارائه می‌دهد — اگر بارگذار آن را علامت‌گذاری کند یا یادداشتی اضافه شود.

در این مورد، ویدیو بدون هیچ برچسب اضافی‌ای در فیس‌بوک ظاهر شد و صدها نظردهنده را که به‌نظر می‌رسید واقعی می‌دانستند فریب داد.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *