چت‌بات‌های گوگل و اوپن‌ای‌آی می‌توانند لباس زنان در عکس‌ها را به بیکینی تبدیل کنند

کاربران مولدهای تصویر هوش مصنوعی در حال به‌اشتراک‌گذاری نحوه استفاده از این فناوری برای تبدیل عکس‌های زنان به دیپ‌فیک‌های واقعی و آشکار هستند.

تصویر ممکن است شامل متن و نماد باشد
تصویر-نقاشی: کارکنان Wired؛ Getty Images

بعضی از کاربران چت‌بات‌های محبوب، دیپ‌فیک‌های بیکینی را با استفاده از عکس‌های کاملاً لباس‌پوش زنان به عنوان منبع تولید می‌کنند. به‌نظر می‌رسد بیشتر این تصاویر تقلبی بدون رضایت زنان موجود در عکس‌ها تولید شده‌اند. برخی از این کاربران همچنین به دیگران راهنمایی می‌دهند که چگونه از ابزارهای هوش مصنوعی مولد برای برداشتن لباس زنان در عکس‌ها و نشان دادن آن‌ها با بیکینی استفاده کنند.

در یک پست حذف‌شده در ردیت با عنوان «تولید تصویر NSFW با Gemini خیلی آسان است»، کاربران راهنمایی‌هایی برای به‌دست‌آوردن Gemini، مدل هوش مصنوعی مولد گوگل، به‌منظور ساخت عکس‌های زنان با لباس‌های آشکار مبادله کردند. بسیاری از تصاویر در این رشته کاملاً توسط هوش مصنوعی تولید می‌شدند، اما یک درخواست خاص برجسته شد.

کاربری عکسی از زنی در ساری هندی منتشر کرد و از دیگران درخواست کرد «لباس او را حذف کنند» و «به‌جای آن بیکینی بپوشانند». شخص دیگری با یک تصویر دیپ‌فیک به این درخواست پاسخ داد. پس از این که WIRED به ردیت درباره این پست‌ها اطلاع داد و از شرکت برای اظهار نظر درخواست کرد، تیم امنیتی ردیت درخواست و دیپ‌فیک هوش مصنوعی را حذف کرد.

«قوانین کلی سایت ردیت رسانه‌های صمیمی بدون رضایت، از جمله رفتار مورد سؤال را ممنوع می‌کند»، گفت یک سخنگو. زیرمجموعه‌ای که این بحث در آن رخ داد، r/ChatGPTJailbreak، پیش از آنکه ردیت بر اساس قانون «سایت را نشکنید» آن را مسدود کند، بیش از ۲۰۰,۰۰۰ دنبال‌کننده داشته بود.

با گسترش ابزارهای هوش مصنوعی مولد که ساخت تصاویر واقع‌گرایانه ولی ساختگی را آسان می‌سازند، کاربران این ابزارها به آزار زنان با تصاویر دیپ‌فیک بدون رضایت ادامه می‌دهند. میلیون‌ها نفر به وب‌سایت‌های مضر «نودیفای» مراجعه کرده‌اند؛ این وب‌سایت‌ها برای کاربران طراحی شده‌اند تا عکس‌های واقعی افراد را بارگذاری کرده و درخواست کنند با هوش مصنوعی آن‌ها را برهنه کنند.

به‌جز استثنای قابل‌توجه Grok از xAI، اکثر چت‌بات‌های اصلی معمولاً اجازه‌ی تولید تصاویر NSFW در خروجی‌های هوش مصنوعی را نمی‌دهند. این ربات‌ها، از جمله Gemini گوگل و ChatGPT اوپن‌ای‌آی، با محافظ‌هایی مجهز شده‌اند که سعی می‌کنند تولیدات مضر را مسدود کنند.

در نوامبر، گوگل مدل تصویری جدیدی به نام Nano Banana Pro منتشر کرد که در تنظیمات جزئی عکس‌های موجود و تولید تصاویر فوق‌واقع‌گرایانه از افراد برجسته است. اوپن‌ای‌آی نیز هفته گذشته با مدل تصویری به‌روزشده خود به نام ChatGPT Images پاسخ داد.

با پیشرفت این ابزارها، تشابهات می‌توانند واقعی‌تر شوند، به‌ویژه هنگامی‌که کاربران بتوانند محافظ‌ها را دور بزنند.

در یک رشته جداگانه در ردیت درباره تولید تصاویر NSFW، کاربری از دیگران راهنمایی خواست که چگونه هنگام تنظیم پوشش شخصی، محافظ‌ها را دور بزنند تا دامن موضوع تنگ‌تر به‌نظر برسد. در آزمون‌های محدود WIRED برای تأیید کارایی این تکنیک‌ها بر روی Gemini و ChatGPT، ما توانستیم با استفاده از دستورات ساده به زبان انگلیسی، تصاویر زنان کاملاً لباس‌پوش را به دیپ‌فیک‌های بیکینی تبدیل کنیم.

هنگامی‌که دربارهٔ تولید دیپ‌فیک بیکینی توسط کاربران با استفاده از Gemini پرسیده شد، سخنگوی گوگل اعلام کرد که شرکت «سیاست‌های واضحی دارد که استفاده از ابزارهای هوش مصنوعی آن برای تولید محتوای صریح جنسی را ممنوع می‌کند». وی افزود که ابزارهای گوگل به‌طور مستمر در حال بهبود هستند تا «بازتابی» دقیق‌تر از آنچه در سیاست‌های هوش مصنوعی شرکت درج شده، داشته باشند.

در پاسخ به درخواست WIRED برای اظهار نظر دربارهٔ توانایی کاربران در تولید دیپ‌فیک بیکینی با ChatGPT، سخنگوی OpenAI ادعا کرد که شرکت در سال جاری برخی از محافظ‌های ChatGPT را در زمینهٔ بدنی بزرگسالان در موقعیت‌های غیرجنسی شل کرده است. این سخنگو همچنین به سیاست استفاده OpenAI اشاره کرد؛ او بیان کرد که کاربران ChatGPT از تغییر تصویر دیگران بدون رضایت ممنوعند و شرکت اقداماتی شامل مسدود کردن حساب‌ها علیه کاربرانی که دیپ‌فیک‌های صریح تولید می‌کنند، انجام می‌دهد.

گفتگوهای آنلاین درباره تولید تصاویر NSFW از زنان همچنان فعال هستند. این ماه، کاربری در زیرمجموعه r/GeminiAI به کاربر دیگر دستوراتی برای تغییر لباس زنان در یک عکس به بیکینی ارائه داد. (ردیت این نظرت را حذف کرد وقتی که ما آن را به آنها اطلاع دادیم.)

کورین مک‌شری، مدیر حقوقی در بنیاد مرزهای الکترونیکی (Electronic Frontier Foundation)، «تصاویر با سکس‌گرایی ستم‌گرانه» را به‌عنوان یکی از خطرهای اساسی مولدهای تصویر هوش مصنوعی می‌داند.

او اشاره می‌کند که این ابزارهای تصویری می‌توانند برای مقاصد دیگری جز دیپ‌فیک مورد استفاده قرار گیرند و تمرکز بر نحوه استفاده از این ابزارها حیاتی است — همچنین «پاسخ‌گو کردن افراد و شرکت‌ها» زمانی‌که ضرر احتمالی رخ دهد.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *