
پستی در ردیت درباره عروسای که از یک مهمان عروسی میخواهد رنگ خاصی بپوشد که به او نمیآید، مطمئناً خشم زیادی برمیانگیزد، چه برسد به پستی درباره ساقدوش یا مادر داماد که میخواهد لباس سفید بپوشد. سناریویی که در آن والدینی از کسی در هواپیما میخواهند صندلیاش را عوض کند تا بتوانند کنار کودک کوچکشان بنشینند، احتمالاً همان موج خشم را ایجاد میکند. اما این پستها ممکن است moderator ردیت را به دلیلی متفاوت عصبانی کنند—اینها تمهای رایجی در ژانر رو به رشدی از پستهای جعلی تولیدشده توسط هوش مصنوعی هستند.
اینها مثالهایی هستند که برای کِسی، یکی از دهها moderator subreddit r/AmItheAsshole به ذهن میرسد. با بیش از ۲۴ میلیون عضو، این یکی از بزرگترین subredditها است و صراحتاً محتوای تولیدشده توسط هوش مصنوعی و داستانهای ساختگی دیگر را ممنوع میکند. از اواخر ۲۰۲۲، زمانی که ChatGPT برای عموم راهاندازی شد، کِسی (که خواست فقط با نام کوچکش ذکر شود) و دیگر داوطلبانی که زمانشان را برای moderation پستهای ردیت صرف میکنند، با هجوم محتوای هوش مصنوعی دست و پنجه نرم کردهاند. برخی از این محتواها کاملاً توسط هوش مصنوعی تولید شدهاند، در حالی که کاربران دیگر پستها و کامنتهایشان را با برنامههای هوش مصنوعی مانند Grammarly ویرایش میکنند.
«احتمالاً بیشتر از آنچه کسی بخواهد واقعاً اعتراف کند شایع است، چون فقط خیلی آسان است که پستتان را در ChatGPT بریزید و بگویید ‘هی، این را هیجانانگیزتر کن’»، میگوید کِسی، که فکر میکند ممکن است نیمی از تمام محتوایی که در ردیت پست میشود، به نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.
r/AmItheAsshole ستونی از فرهنگ ردیت است، فرمتای که دهها اگر نه صدها مشتق مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena را الهام بخشیده است—subredditی با بیش از ۱۰۰ هزار عضو که توصیف شده به عنوان «آیا من احمقم، اما نسخه هندیاش». پستها معمولاً داستانهایی درباره درگیریهای بینفردی هستند، جایی که ردیتورها میتوانند نظر دهند که چه کسی اشتباه کرده («YTA» یعنی «تو احمقی»، در حالی که «ESH» یعنی «همه افتضاحاند»)، چه کسی درست میگوید، و بهترین اقدام پیش رو چیست. کاربران و moderatorها در این واریانتهای r/AmItheAsshole گزارش دادهاند که محتوای مشکوک به تولید توسط هوش مصنوعی بیشتری میبینند، و دیگران میگویند این یک مسئله سایتمحور است که در انواع subredditها رخ میدهد.
«اگر subreddit عمومی عروسی یا AITA، روابط، یا چیزی شبیه به آن داشته باشید، به شدت ضربه خواهید خورد»، میگوید moderator subreddit r/AITAH، واریانتی از r/AmItheAsshole با تقریباً ۷ میلیون عضو. این moderator، بازنشستهای که به شرط ناشناس ماندن صحبت کرد، ۱۸ سال در ردیت فعال بوده—بیشتر عمر آن—و همچنین دههها تجربه در کسبوکار وب قبل از آن داشته است. او هوش مصنوعی را تهدیدی وجودی بالقوه برای پلتفرم میبیند.
«خود ردیت یا باید کاری کند، یا مار دم خودش را میبلعد»، میگوید او. «به جایی رسیده که هوش مصنوعی هوش مصنوعی را تغذیه میکند.»
در پاسخ به درخواست نظر، سخنگوی ردیت گفت: «ردیت انسانیترین مکان در اینترنت است و ما میخواهیم اینطور بماند. ما محتوای دستکاریشده و رفتارهای غیراصیل را ممنوع میکنیم، از جمله حسابهای ربات هوش مصنوعی misleading که خود را به جای افراد جا میزنند و کمپینهای تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به وضوح برچسبگذاری شده، معمولاً مجاز است به شرطی که در چارچوب قوانین جامعه و قوانین سایتمحور ما باشد.» سخنگو افزود که بیش از ۴۰ میلیون «حذف اسپم و محتوای دستکاریشده» در نیمه اول ۲۰۲۵ وجود داشته است.
تغییر جو به سمت بدتر
آلی، ۲۶ ساله که در کالج جامعهای در فلوریدا تدریس خصوصی میکند و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، متوجه شده که ردیت در سال گذشته «واقعاً رو به وخامت رفته» به خاطر هوش مصنوعی. احساسات او توسط کاربران دیگر در subredditهایی مانند r/EntitledPeople، r/simpleliving و r/self به اشتراک گذاشته میشود، جایی که پستها در سال گذشته از افزایش محتوای مشکوک به هوش مصنوعی شکایت کردهاند. صرف احتمال اینکه چیزی توسط هوش مصنوعی تولید شده باشد، اعتماد بین کاربران را فرسوده است. «هوش مصنوعی ردیت را به تودهای آشغال تبدیل میکند»، یک حساب در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود هوش مصنوعی مثل داشتن جاسوس در اتاق است. خود شک، دشمن است.» آلی قبلاً از خواندن subredditهایی مانند r/AmIOverreacting لذت میبرد. اما حالا نمیداند تعاملاتش واقعی هستند یا نه، و زمان کمتری نسبت به سالهای گذشته در پلتفرم صرف میکند.
«هوش مصنوعی همه را خسته میکند»، میگوید moderator r/AITAH. «میبینم مردم تلاش عظیمی برای یافتن منابع برای دیگران میکنند، فقط برای اینکه با ‘ها، گول خوردی، این همه دروغ است’ پاسخ داده شوند.»
تشخیص هوش مصنوعی
راههای مطمئن کمی برای اثبات اینکه چیزی هوش مصنوعی است یا نه وجود دارد، و بیشتر مردم عادی به شهود خودشان تکیه میکنند. متن حتی سختتر از عکسها و ویدیوها ارزیابی میشود، که اغلب نشانههای قطعی دارند. پنج ردیتوری که با WIRED صحبت کردند، استراتژیهای متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی داشتند. کِسی متوجه میشود وقتی پستها عنوانشان را کلمه به کلمه در بدنه تکرار میکنند یا از خط تیره بلند استفاده میکنند، و همچنین وقتی پستکننده در تاریخچه کامنتهایش املا و نقطهگذاری افتضاحی دارد اما چیزی با دستور زبان کامل پست میکند. آلی از حسابهای تازهتأسیس ردیت و پستهایی با ایموجی در عنوان جا میخورد. moderator r/AITAH از پستهای خاصی حس «دره ناآشنا» میگیرد. اما این «نشانهها» ممکن است در پستی که اصلاً از هوش مصنوعی استفاده نمیکند هم وجود داشته باشد.
«در این مرحله، کمی حس ‘وقتی میبینی میدونی’ است»، میگوید تراویس لوید، دانشجوی دکترا در Cornell Tech که تحقیقاتی درباره چالشهای جدید مبتنی بر هوش مصنوعی که moderatorهای ردیت با آن روبرو هستند، منتشر کرده است. «در حال حاضر، ابزارهای قابل اعتمادی برای تشخیص ۱۰۰ درصدی آن وجود ندارد. پس مردم استراتژیهای خودشان را دارند، اما لزوماً ضدگلوله نیستند.»
علاوه بر این، با ظاهر شدن متنهای هوش مصنوعی بیشتر در دنیای واقعی، مردم شروع به تقلید از ویژگیهای رایج زبان تولیدشده توسط هوش مصنوعی میکنند، چه از هوش مصنوعی استفاده کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی incestuousتر باشد، زیرا پلتفرم شرکتهای هوش مصنوعی مانند Anthropic و Perplexity را به خاطر allegedly scraping محتوای ردیت بدون اجازه برای آموزش چتباتها، شکایت کرده است. نتایج خلاصه هوش مصنوعی گوگل به طور infamous از کامنتهای ردیت که در واقع جوکهای sarcastic هستند، کشیده شده، مانند کاربری که پیشنهاد داد از چسب برای چسباندن بهتر پنیر به خمیر پیتزا استفاده شود.
«هوش مصنوعی از مردم آموزش میبیند، و مردم آنچه دیگران را میبینند کپی میکنند»، میگوید کِسی. «مردم بیشتر شبیه هوش مصنوعی میشوند، و هوش مصنوعی بیشتر شبیه مردم.»
طعمه خشم علیه اقلیتها
هر دو moderator AITA میگویند که روند پستهای طعمه خشم را مشاهده کردهاند که ممکن است با هوش مصنوعی نوشته شده باشند و به نظر میرسد فقط برای بدنام کردن افراد ترنس و دیگر جمعیتهای آسیبپذیر وجود دارند. moderator r/AITAH میگوید subreddit در ماه پراید با هجوم محتوای ضدترنس روبرو شد، در حالی که کِسی میگوید به طور متناوب در صف moderation ظاهر میشود.
«چیزهایی مثل ‘والدینم از نام انتخابیام استفاده نکردند و من ترنس هستم و به خاطرش منفجر شدم چون چطور جرأت کردند’ یا ‘کسی جنسیت من را فرض کرد و من سیس هستم اما چطور جرأت کردند جنسیت من را فرض کنند’»، میگوید کِسی. «اینها فقط برای عصبانی کردن از افراد ترنس، افراد گی، افراد سیاهپوست، زنان طراحی شدهاند.»
در subredditهایی که حول اخبار و سیاست میچرخند، هوش مصنوعی راههای جدیدی برای انتشار disinformation فراهم کرده است. این چیزی است که تام، ردیتوری که سه سال به moderation r/Ukraine کمک کرد و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، همراه با تکنیکهای دستکاری اجتماعی مانند astroturfing که قبل از برنامههایی مانند ChatGPT وجود داشتند، تجربه کرد. اما حالا، هوش مصنوعی میتواند این تاکتیکها را اتوماتیک کند، و نگه داشتن آن برای moderatorهای انسانی را حتی سختتر میکند.
«مثل یک نفر ایستاده در مزرعه در برابر موج جزر و مدی بود»، میگوید تام. «میتوانید با تلاش بسیار کم، نویز زیادی ایجاد کنید.»
در r/Ukraine، که نزدیک به یک میلیون عضو دارد، تام به یاد میآورد که از دیگر modها آموزش گرفته تا گسترش پروپاگاندای روسی را کاهش دهد و حتی حمایت تخصصی از ادمینهای ردیت دریافت کرده، که یک قدم بالاتر از داوطلبان هستند و واقعاً برای ردیت کار میکنند و حقوق میگیرند.
پولسازی از کارما
علاوه بر انگیزههای ایدئولوژیک، راههای کمتر شناختهشدهای برای پولسازی از محتوای ردیت هم وجود دارد. برخی واضحتر هستند، مانند برنامه Reddit Contributor، که به پستکنندهها اجازه میدهد از گرفتن upvotes (که به عنوان «کارما» شناخته میشود) و جوایزی که کاربران دیگر میتوانند برایشان بخرند، پول دربیاورند. hustlerهای ردیت theoretically میتوانند از محتوای تولیدشده توسط هوش مصنوعی برای جمع کردن کارما، سود بردن از آن، و حتی فروش حسابهایشان استفاده کنند.
«حساب ردیت من ارزش پولی زیادی دارد، و میدانم چون مردم مدام سعی میکنند بخرندش»، میگوید تام. «میتواند برای اهداف شیطانی هم استفاده شود، اما مشکوکم که بیشترش افراد بیحوصلهای هستند که زمان دارند، مثل ‘خب، میتوانم در یک ماه صد دلار کنار دربیاورم با تقریباً هیچ کاری’.»
حسابهای دیگر به کارما نیاز دارند تا به subredditهای NSFW با الزامات کارما دسترسی پیدا کنند، جایی که سپس میتوانند چیزهایی مانند لینکهای OnlyFans را تبلیغ کنند. هر دو کِسی و moderator r/AITAH متوجه حسابهایی شدهاند که در subredditهای بزرگتر پست میکنند تا کارما جمع کنند قبل از رفتن به پست محتوای بزرگسالانه. برخی از آنها کلاهبردار هستند. دیگران ممکن است فقط سعی در امرار معاش داشته باشند.
«گاهی واقعی است، گاهی درگیری واقعیای است که واقعاً داشتهاند، گاهی جعلی، گاهی هر طور که باشد توسط هوش مصنوعی تولید شده»، میگوید کِسی. «تقریباً میخواهم اسمش را gamification بگذارم، جایی که فقط سعی میکنند سیستم را همانطور که تنظیم شده استفاده کنند.»
زمان اضافی که moderatorهای ردیت برای غربال کردن مواد مشکوک به هوش مصنوعی صرف میکنند، بازتابی از این است که محتوای هوش مصنوعی به طور کلی موانع جدیدی ایجاد کرده، که فراتر از حوزه moderation رسانههای اجتماعی گسترش مییابد.
«آنچه moderatorهای ردیت با آن دست و پنجه نرم میکنند، همان چیزی است که مردم همه جا الان با آن روبرو هستند، یعنی سازگاری با دنیایی که ایجاد محتوای تولیدشده توسط هوش مصنوعی که plausible به نظر میرسد، تلاش بسیار کمی میبرد، و ارزیابی آن تلاش بسیار بیشتری میبرد»، میگوید لوید. «این بار واقعیای روی دوششان است، مثل معلمان و هر کس دیگر.»
دیدگاهتان را بنویسید