ویدیوهایی مثل مصاحبهٔ جعلی بالا که با برنامهٔ جدید OpenAI به نام سورا ساخته شدهاند، نشان میدهند که چقدر بهراحتی میتوان ادراک عمومی را با ابزارهایی که میتوانند واقعیتی جایگزین را تنها با چند فرمان ساده تولید کنند، دستکاری کرد.
در دو ماهی که از عرضهٔ سورا میگذرد، ویدیوهای فریبنده در تیکتوک، ایکس، یوتیوب، فیسبوک و اینستاگرام بهسرعت رشد کردهاند، به گفتهٔ متخصصانی که این محتواها را رصد میکنند. این هجوم هشدارهایی دربارهٔ نسل جدیدی از اطلاعات نادرست و تقلبها برانگیخته است.
اکثر شرکتهای بزرگ شبکههای اجتماعی سیاستهایی دارند که استفاده از هوش مصنوعی را باید افشا کنند و بهطور گسترده محتوای هدفمند برای فریب را ممنوع میدانند. اما این محدودیتها برای جهشهای تکنولوژیکی که ابزارهای OpenAI به ارمغان میآورند، بهوضوح ناکافی هستند.
در حالی که بسیاری از ویدیوها میمهای ساده یا تصاویر بامزه اما ساختگی از نوزادان و حیوانات خانگی هستند، برخی دیگر برای تشدید خصمانگیای که اغلب در مناظرات سیاسی آنلاین مشاهده میشود، طراحی شدهاند. این ویدیوها پیش از این در عملیاتهای نفوذ خارجی نقش داشتهاند، مانند کمپین پیوستهٔ روسیه برای بدنام کردن اوکراین.
پژوهشگرانی که موارد فریبکننده را ردیابی کردهاند، اظهار کردهاند که مسئولیت اکنون بر دوش شرکتهاست تا اقدامات بیشتری برای اطمینان از تشخیص واقعی بودن محتوا انجام دهند.
“آیا میتوانند در مدیریت محتوا برای اطلاعات نادرست و گمراهکننده بهتر عمل کنند؟ بله، واضح است که این کار را انجام نمیدهند,” گفت سام گرجی، مدیر اجرایی Witness، سازمان حقوق بشری که بر تهدیدهای فناوری تمرکز دارد. “آیا میتوانند بهصورت پیشگیرانه بهدنبال اطلاعات تولید شده توسط هوش مصنوعی بگردند و خودشان آن را برچسبگذاری کنند؟ پاسخ نیز بله است.”


این ویدیو توسط هوش مصنوعی تولید شده است.
با این حال، بهنظر میرسید مردم باور داشتند که این یک گفتگوی واقعی دربارهٔ فروش کوپنهای خوراکی در ازای پول نقد است؛ کاری که جرم محسوب میشود.


ویدیو دربارهٔ کوپنهای خوراکی که در تیکتوک منتشر شد، شامل چند سرنخ بود که نشان میداد جعلی است.
یک “Sora” آرم بهصورت کوتاه در گوشهٔ بالا‑چپ ظاهر میشود و سپس محو میگردد. بهنظر میرسد بارگذار با ابزاری این آرم را حذف کرده است.
بارگذار در انتهای توضیح، یک #هوش_مصنوعی کوچک اضافه کرده است که در پایین صفحه نشان داده میشود.
تیکتوک یک برچسب مخصوص خود زیر توضیح افزود، که احتمالاً پس از اینکه کاربر ویدیو را بهعنوان هوش مصنوعی علامتگذاری کرد، توسط ابزارهای تیکتوک اضافه شده است.
این موارد همه در تیکتوک بهراحتی قابل چشمپوشی بودند.

این یک تقلب دیگر هوش مصنوعی است که در فیسبوک در حال گردش است.
خبرنگار و زنی که دستگیر میشود، توسط ابزارهای هوش مصنوعی ساخته شدهاند، اما هیچ آرمای در ویدیوها ظاهر نمیشود.
فیسبوک گاهی اعلام تقلب ارائه میدهد — اگر بارگذار آن را علامتگذاری کند یا یادداشتی اضافه شود.
در این مورد، ویدیو بدون هیچ برچسب اضافیای در فیسبوک ظاهر شد و صدها نظردهنده را که بهنظر میرسید واقعی میدانستند فریب داد.
دیدگاهتان را بنویسید