زباله‌های هوش مصنوعی ردیت را برای همه نابود می‌کند

تصویر ممکن است شامل صورت و سر شخص باشد

عکس-تصویرسازی: کارکنان WIRED؛ Getty Images

پستی در ردیت درباره عروس‌ای که از یک مهمان عروسی می‌خواهد رنگ خاصی بپوشد که به او نمی‌آید، مطمئناً خشم زیادی برمی‌انگیزد، چه برسد به پستی درباره ساقدوش یا مادر داماد که می‌خواهد لباس سفید بپوشد. سناریویی که در آن والدینی از کسی در هواپیما می‌خواهند صندلی‌اش را عوض کند تا بتوانند کنار کودک کوچک‌شان بنشینند، احتمالاً همان موج خشم را ایجاد می‌کند. اما این پست‌ها ممکن است moderator ردیت را به دلیلی متفاوت عصبانی کنند—این‌ها تم‌های رایجی در ژانر رو به رشدی از پست‌های جعلی تولیدشده توسط هوش مصنوعی هستند.

این‌ها مثال‌هایی هستند که برای کِسی، یکی از ده‌ها moderator subreddit r/AmItheAsshole به ذهن می‌رسد. با بیش از ۲۴ میلیون عضو، این یکی از بزرگ‌ترین subredditها است و صراحتاً محتوای تولیدشده توسط هوش مصنوعی و داستان‌های ساختگی دیگر را ممنوع می‌کند. از اواخر ۲۰۲۲، زمانی که ChatGPT برای عموم راه‌اندازی شد، کِسی (که خواست فقط با نام کوچکش ذکر شود) و دیگر داوطلبانی که زمان‌شان را برای moderation پست‌های ردیت صرف می‌کنند، با هجوم محتوای هوش مصنوعی دست و پنجه نرم کرده‌اند. برخی از این محتواها کاملاً توسط هوش مصنوعی تولید شده‌اند، در حالی که کاربران دیگر پست‌ها و کامنت‌های‌شان را با برنامه‌های هوش مصنوعی مانند Grammarly ویرایش می‌کنند.

«احتمالاً بیشتر از آنچه کسی بخواهد واقعاً اعتراف کند شایع است، چون فقط خیلی آسان است که پست‌تان را در ChatGPT بریزید و بگویید ‘هی، این را هیجان‌انگیزتر کن’»، می‌گوید کِسی، که فکر می‌کند ممکن است نیمی از تمام محتوایی که در ردیت پست می‌شود، به نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.

r/AmItheAsshole ستونی از فرهنگ ردیت است، فرمت‌ای که ده‌ها اگر نه صدها مشتق مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena را الهام بخشیده است—subredditی با بیش از ۱۰۰ هزار عضو که توصیف شده به عنوان «آیا من احمقم، اما نسخه هندی‌اش». پست‌ها معمولاً داستان‌هایی درباره درگیری‌های بین‌فردی هستند، جایی که ردیتورها می‌توانند نظر دهند که چه کسی اشتباه کرده («YTA» یعنی «تو احمقی»، در حالی که «ESH» یعنی «همه افتضاح‌اند»)، چه کسی درست می‌گوید، و بهترین اقدام پیش رو چیست. کاربران و moderatorها در این واریانت‌های r/AmItheAsshole گزارش داده‌اند که محتوای مشکوک به تولید توسط هوش مصنوعی بیشتری می‌بینند، و دیگران می‌گویند این یک مسئله سایت‌محور است که در انواع subredditها رخ می‌دهد.

«اگر subreddit عمومی عروسی یا AITA، روابط، یا چیزی شبیه به آن داشته باشید، به شدت ضربه خواهید خورد»، می‌گوید moderator subreddit r/AITAH، واریانتی از r/AmItheAsshole با تقریباً ۷ میلیون عضو. این moderator، بازنشسته‌ای که به شرط ناشناس ماندن صحبت کرد، ۱۸ سال در ردیت فعال بوده—بیشتر عمر آن—و همچنین دهه‌ها تجربه در کسب‌وکار وب قبل از آن داشته است. او هوش مصنوعی را تهدیدی وجودی بالقوه برای پلتفرم می‌بیند.

«خود ردیت یا باید کاری کند، یا مار دم خودش را می‌بلعد»، می‌گوید او. «به جایی رسیده که هوش مصنوعی هوش مصنوعی را تغذیه می‌کند.»

در پاسخ به درخواست نظر، سخنگوی ردیت گفت: «ردیت انسانی‌ترین مکان در اینترنت است و ما می‌خواهیم این‌طور بماند. ما محتوای دستکاری‌شده و رفتارهای غیراصیل را ممنوع می‌کنیم، از جمله حساب‌های ربات هوش مصنوعی misleading که خود را به جای افراد جا می‌زنند و کمپین‌های تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به وضوح برچسب‌گذاری شده، معمولاً مجاز است به شرطی که در چارچوب قوانین جامعه و قوانین سایت‌محور ما باشد.» سخنگو افزود که بیش از ۴۰ میلیون «حذف اسپم و محتوای دستکاری‌شده» در نیمه اول ۲۰۲۵ وجود داشته است.

تغییر جو به سمت بدتر

آلی، ۲۶ ساله که در کالج جامعه‌ای در فلوریدا تدریس خصوصی می‌کند و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، متوجه شده که ردیت در سال گذشته «واقعاً رو به وخامت رفته» به خاطر هوش مصنوعی. احساسات او توسط کاربران دیگر در subredditهایی مانند r/EntitledPeople، r/simpleliving و r/self به اشتراک گذاشته می‌شود، جایی که پست‌ها در سال گذشته از افزایش محتوای مشکوک به هوش مصنوعی شکایت کرده‌اند. صرف احتمال اینکه چیزی توسط هوش مصنوعی تولید شده باشد، اعتماد بین کاربران را فرسوده است. «هوش مصنوعی ردیت را به توده‌ای آشغال تبدیل می‌کند»، یک حساب در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود هوش مصنوعی مثل داشتن جاسوس در اتاق است. خود شک، دشمن است.» آلی قبلاً از خواندن subredditهایی مانند r/AmIOverreacting لذت می‌برد. اما حالا نمی‌داند تعاملاتش واقعی هستند یا نه، و زمان کمتری نسبت به سال‌های گذشته در پلتفرم صرف می‌کند.

«هوش مصنوعی همه را خسته می‌کند»، می‌گوید moderator r/AITAH. «می‌بینم مردم تلاش عظیمی برای یافتن منابع برای دیگران می‌کنند، فقط برای اینکه با ‘ها، گول خوردی، این همه دروغ است’ پاسخ داده شوند.»

تشخیص هوش مصنوعی

راه‌های مطمئن کمی برای اثبات اینکه چیزی هوش مصنوعی است یا نه وجود دارد، و بیشتر مردم عادی به شهود خودشان تکیه می‌کنند. متن حتی سخت‌تر از عکس‌ها و ویدیوها ارزیابی می‌شود، که اغلب نشانه‌های قطعی دارند. پنج ردیتوری که با WIRED صحبت کردند، استراتژی‌های متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی داشتند. کِسی متوجه می‌شود وقتی پست‌ها عنوان‌شان را کلمه به کلمه در بدنه تکرار می‌کنند یا از خط تیره بلند استفاده می‌کنند، و همچنین وقتی پست‌کننده در تاریخچه کامنت‌هایش املا و نقطه‌گذاری افتضاحی دارد اما چیزی با دستور زبان کامل پست می‌کند. آلی از حساب‌های تازه‌تأسیس ردیت و پست‌هایی با ایموجی در عنوان جا می‌خورد. moderator r/AITAH از پست‌های خاصی حس «دره ناآشنا» می‌گیرد. اما این «نشانه‌ها» ممکن است در پستی که اصلاً از هوش مصنوعی استفاده نمی‌کند هم وجود داشته باشد.

«در این مرحله، کمی حس ‘وقتی می‌بینی می‌دونی’ است»، می‌گوید تراویس لوید، دانشجوی دکترا در Cornell Tech که تحقیقاتی درباره چالش‌های جدید مبتنی بر هوش مصنوعی که moderatorهای ردیت با آن روبرو هستند، منتشر کرده است. «در حال حاضر، ابزارهای قابل اعتمادی برای تشخیص ۱۰۰ درصدی آن وجود ندارد. پس مردم استراتژی‌های خودشان را دارند، اما لزوماً ضدگلوله نیستند.»

علاوه بر این، با ظاهر شدن متن‌های هوش مصنوعی بیشتر در دنیای واقعی، مردم شروع به تقلید از ویژگی‌های رایج زبان تولیدشده توسط هوش مصنوعی می‌کنند، چه از هوش مصنوعی استفاده کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی incestuousتر باشد، زیرا پلتفرم شرکت‌های هوش مصنوعی مانند Anthropic و Perplexity را به خاطر allegedly scraping محتوای ردیت بدون اجازه برای آموزش چت‌بات‌ها، شکایت کرده است. نتایج خلاصه هوش مصنوعی گوگل به طور infamous از کامنت‌های ردیت که در واقع جوک‌های sarcastic هستند، کشیده شده، مانند کاربری که پیشنهاد داد از چسب برای چسباندن بهتر پنیر به خمیر پیتزا استفاده شود.

«هوش مصنوعی از مردم آموزش می‌بیند، و مردم آنچه دیگران را می‌بینند کپی می‌کنند»، می‌گوید کِسی. «مردم بیشتر شبیه هوش مصنوعی می‌شوند، و هوش مصنوعی بیشتر شبیه مردم.»

طعمه خشم علیه اقلیت‌ها

هر دو moderator AITA می‌گویند که روند پست‌های طعمه خشم را مشاهده کرده‌اند که ممکن است با هوش مصنوعی نوشته شده باشند و به نظر می‌رسد فقط برای بدنام کردن افراد ترنس و دیگر جمعیت‌های آسیب‌پذیر وجود دارند. moderator r/AITAH می‌گوید subreddit در ماه پراید با هجوم محتوای ضدترنس روبرو شد، در حالی که کِسی می‌گوید به طور متناوب در صف moderation ظاهر می‌شود.

«چیزهایی مثل ‘والدینم از نام انتخابی‌ام استفاده نکردند و من ترنس هستم و به خاطرش منفجر شدم چون چطور جرأت کردند’ یا ‘کسی جنسیت من را فرض کرد و من سیس هستم اما چطور جرأت کردند جنسیت من را فرض کنند’»، می‌گوید کِسی. «این‌ها فقط برای عصبانی کردن از افراد ترنس، افراد گی، افراد سیاه‌پوست، زنان طراحی شده‌اند.»

در subredditهایی که حول اخبار و سیاست می‌چرخند، هوش مصنوعی راه‌های جدیدی برای انتشار disinformation فراهم کرده است. این چیزی است که تام، ردیتوری که سه سال به moderation r/Ukraine کمک کرد و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، همراه با تکنیک‌های دستکاری اجتماعی مانند astroturfing که قبل از برنامه‌هایی مانند ChatGPT وجود داشتند، تجربه کرد. اما حالا، هوش مصنوعی می‌تواند این تاکتیک‌ها را اتوماتیک کند، و نگه داشتن آن برای moderatorهای انسانی را حتی سخت‌تر می‌کند.

«مثل یک نفر ایستاده در مزرعه در برابر موج جزر و مدی بود»، می‌گوید تام. «می‌توانید با تلاش بسیار کم، نویز زیادی ایجاد کنید.»

در r/Ukraine، که نزدیک به یک میلیون عضو دارد، تام به یاد می‌آورد که از دیگر modها آموزش گرفته تا گسترش پروپاگاندای روسی را کاهش دهد و حتی حمایت تخصصی از ادمین‌های ردیت دریافت کرده، که یک قدم بالاتر از داوطلبان هستند و واقعاً برای ردیت کار می‌کنند و حقوق می‌گیرند.

پول‌سازی از کارما

علاوه بر انگیزه‌های ایدئولوژیک، راه‌های کمتر شناخته‌شده‌ای برای پول‌سازی از محتوای ردیت هم وجود دارد. برخی واضح‌تر هستند، مانند برنامه Reddit Contributor، که به پست‌کننده‌ها اجازه می‌دهد از گرفتن upvotes (که به عنوان «کارما» شناخته می‌شود) و جوایزی که کاربران دیگر می‌توانند برای‌شان بخرند، پول دربیاورند. hustlerهای ردیت theoretically می‌توانند از محتوای تولیدشده توسط هوش مصنوعی برای جمع کردن کارما، سود بردن از آن، و حتی فروش حساب‌های‌شان استفاده کنند.

«حساب ردیت من ارزش پولی زیادی دارد، و می‌دانم چون مردم مدام سعی می‌کنند بخرندش»، می‌گوید تام. «می‌تواند برای اهداف شیطانی هم استفاده شود، اما مشکوکم که بیشترش افراد بی‌حوصله‌ای هستند که زمان دارند، مثل ‘خب، می‌توانم در یک ماه صد دلار کنار دربیاورم با تقریباً هیچ کاری’.»

حساب‌های دیگر به کارما نیاز دارند تا به subredditهای NSFW با الزامات کارما دسترسی پیدا کنند، جایی که سپس می‌توانند چیزهایی مانند لینک‌های OnlyFans را تبلیغ کنند. هر دو کِسی و moderator r/AITAH متوجه حساب‌هایی شده‌اند که در subredditهای بزرگ‌تر پست می‌کنند تا کارما جمع کنند قبل از رفتن به پست محتوای بزرگسالانه. برخی از آن‌ها کلاهبردار هستند. دیگران ممکن است فقط سعی در امرار معاش داشته باشند.

«گاهی واقعی است، گاهی درگیری واقعی‌ای است که واقعاً داشته‌اند، گاهی جعلی، گاهی هر طور که باشد توسط هوش مصنوعی تولید شده»، می‌گوید کِسی. «تقریباً می‌خواهم اسمش را gamification بگذارم، جایی که فقط سعی می‌کنند سیستم را همان‌طور که تنظیم شده استفاده کنند.»

زمان اضافی که moderatorهای ردیت برای غربال کردن مواد مشکوک به هوش مصنوعی صرف می‌کنند، بازتابی از این است که محتوای هوش مصنوعی به طور کلی موانع جدیدی ایجاد کرده، که فراتر از حوزه moderation رسانه‌های اجتماعی گسترش می‌یابد.

«آنچه moderatorهای ردیت با آن دست و پنجه نرم می‌کنند، همان چیزی است که مردم همه جا الان با آن روبرو هستند، یعنی سازگاری با دنیایی که ایجاد محتوای تولیدشده توسط هوش مصنوعی که plausible به نظر می‌رسد، تلاش بسیار کمی می‌برد، و ارزیابی آن تلاش بسیار بیشتری می‌برد»، می‌گوید لوید. «این بار واقعی‌ای روی دوش‌شان است، مثل معلمان و هر کس دیگر.»

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *