کاربران مولدهای تصویر هوش مصنوعی در حال بهاشتراکگذاری نحوه استفاده از این فناوری برای تبدیل عکسهای زنان به دیپفیکهای واقعی و آشکار هستند.

بعضی از کاربران چتباتهای محبوب، دیپفیکهای بیکینی را با استفاده از عکسهای کاملاً لباسپوش زنان به عنوان منبع تولید میکنند. بهنظر میرسد بیشتر این تصاویر تقلبی بدون رضایت زنان موجود در عکسها تولید شدهاند. برخی از این کاربران همچنین به دیگران راهنمایی میدهند که چگونه از ابزارهای هوش مصنوعی مولد برای برداشتن لباس زنان در عکسها و نشان دادن آنها با بیکینی استفاده کنند.
در یک پست حذفشده در ردیت با عنوان «تولید تصویر NSFW با Gemini خیلی آسان است»، کاربران راهنماییهایی برای بهدستآوردن Gemini، مدل هوش مصنوعی مولد گوگل، بهمنظور ساخت عکسهای زنان با لباسهای آشکار مبادله کردند. بسیاری از تصاویر در این رشته کاملاً توسط هوش مصنوعی تولید میشدند، اما یک درخواست خاص برجسته شد.
کاربری عکسی از زنی در ساری هندی منتشر کرد و از دیگران درخواست کرد «لباس او را حذف کنند» و «بهجای آن بیکینی بپوشانند». شخص دیگری با یک تصویر دیپفیک به این درخواست پاسخ داد. پس از این که WIRED به ردیت درباره این پستها اطلاع داد و از شرکت برای اظهار نظر درخواست کرد، تیم امنیتی ردیت درخواست و دیپفیک هوش مصنوعی را حذف کرد.
«قوانین کلی سایت ردیت رسانههای صمیمی بدون رضایت، از جمله رفتار مورد سؤال را ممنوع میکند»، گفت یک سخنگو. زیرمجموعهای که این بحث در آن رخ داد، r/ChatGPTJailbreak، پیش از آنکه ردیت بر اساس قانون «سایت را نشکنید» آن را مسدود کند، بیش از ۲۰۰,۰۰۰ دنبالکننده داشته بود.
با گسترش ابزارهای هوش مصنوعی مولد که ساخت تصاویر واقعگرایانه ولی ساختگی را آسان میسازند، کاربران این ابزارها به آزار زنان با تصاویر دیپفیک بدون رضایت ادامه میدهند. میلیونها نفر به وبسایتهای مضر «نودیفای» مراجعه کردهاند؛ این وبسایتها برای کاربران طراحی شدهاند تا عکسهای واقعی افراد را بارگذاری کرده و درخواست کنند با هوش مصنوعی آنها را برهنه کنند.
بهجز استثنای قابلتوجه Grok از xAI، اکثر چتباتهای اصلی معمولاً اجازهی تولید تصاویر NSFW در خروجیهای هوش مصنوعی را نمیدهند. این رباتها، از جمله Gemini گوگل و ChatGPT اوپنایآی، با محافظهایی مجهز شدهاند که سعی میکنند تولیدات مضر را مسدود کنند.
در نوامبر، گوگل مدل تصویری جدیدی به نام Nano Banana Pro منتشر کرد که در تنظیمات جزئی عکسهای موجود و تولید تصاویر فوقواقعگرایانه از افراد برجسته است. اوپنایآی نیز هفته گذشته با مدل تصویری بهروزشده خود به نام ChatGPT Images پاسخ داد.
با پیشرفت این ابزارها، تشابهات میتوانند واقعیتر شوند، بهویژه هنگامیکه کاربران بتوانند محافظها را دور بزنند.
در یک رشته جداگانه در ردیت درباره تولید تصاویر NSFW، کاربری از دیگران راهنمایی خواست که چگونه هنگام تنظیم پوشش شخصی، محافظها را دور بزنند تا دامن موضوع تنگتر بهنظر برسد. در آزمونهای محدود WIRED برای تأیید کارایی این تکنیکها بر روی Gemini و ChatGPT، ما توانستیم با استفاده از دستورات ساده به زبان انگلیسی، تصاویر زنان کاملاً لباسپوش را به دیپفیکهای بیکینی تبدیل کنیم.
هنگامیکه دربارهٔ تولید دیپفیک بیکینی توسط کاربران با استفاده از Gemini پرسیده شد، سخنگوی گوگل اعلام کرد که شرکت «سیاستهای واضحی دارد که استفاده از ابزارهای هوش مصنوعی آن برای تولید محتوای صریح جنسی را ممنوع میکند». وی افزود که ابزارهای گوگل بهطور مستمر در حال بهبود هستند تا «بازتابی» دقیقتر از آنچه در سیاستهای هوش مصنوعی شرکت درج شده، داشته باشند.
در پاسخ به درخواست WIRED برای اظهار نظر دربارهٔ توانایی کاربران در تولید دیپفیک بیکینی با ChatGPT، سخنگوی OpenAI ادعا کرد که شرکت در سال جاری برخی از محافظهای ChatGPT را در زمینهٔ بدنی بزرگسالان در موقعیتهای غیرجنسی شل کرده است. این سخنگو همچنین به سیاست استفاده OpenAI اشاره کرد؛ او بیان کرد که کاربران ChatGPT از تغییر تصویر دیگران بدون رضایت ممنوعند و شرکت اقداماتی شامل مسدود کردن حسابها علیه کاربرانی که دیپفیکهای صریح تولید میکنند، انجام میدهد.
گفتگوهای آنلاین درباره تولید تصاویر NSFW از زنان همچنان فعال هستند. این ماه، کاربری در زیرمجموعه r/GeminiAI به کاربر دیگر دستوراتی برای تغییر لباس زنان در یک عکس به بیکینی ارائه داد. (ردیت این نظرت را حذف کرد وقتی که ما آن را به آنها اطلاع دادیم.)
کورین مکشری، مدیر حقوقی در بنیاد مرزهای الکترونیکی (Electronic Frontier Foundation)، «تصاویر با سکسگرایی ستمگرانه» را بهعنوان یکی از خطرهای اساسی مولدهای تصویر هوش مصنوعی میداند.
او اشاره میکند که این ابزارهای تصویری میتوانند برای مقاصد دیگری جز دیپفیک مورد استفاده قرار گیرند و تمرکز بر نحوه استفاده از این ابزارها حیاتی است — همچنین «پاسخگو کردن افراد و شرکتها» زمانیکه ضرر احتمالی رخ دهد.
دیدگاهتان را بنویسید