ردیت بهعنوان یکی از فضاهای انسانیترین باقیمانده در اینترنت شناخته میشود؛ اما مدیران و کاربران با پستهای بیکیفیت در پرطرفدارترین سابردیتها غرق شدهاند.

یک پست ردیت درباره عروسی که عروسی میخواهد مهمان عروسی رنگ خاصی، نامطلوب، بپوشد، بهطرز یقین خشم را برانگیخته میکند؛ حتی پستهایی درباره عروسدستهدار یا مادر داماد که میخواهند لباس سفید بپوشند، میتوانند بیشتر تحریککننده باشند. سناریویی که در آن والدین از کسی در هواپیما میخواهند صندلیاش را عوض کند تا بتوانند کنار فرزند کوچکشان بنشینند، نیز همینگونه احساس خشم را برانگیخته میکند. اما این پستها ممکن است دلسوزی یک مدیر ردیت را بهدلیل دیگری برانگیزند—آنها بهعنوان موضوعات رایجی در یک ژانر رو به رشد از پستهای جعلی تولیدشده توسط هوش مصنوعی شناخته میشوند.
اینها مثالهایی هستند که ذهن کاسی، یکی از دهها مدیر برای r/AmItheAsshole، به یاد میآورد. این سابردیت با بیش از ۲۴ میلیون عضو، یکی از بزرگترین سابردیتهاست و بهصراحت محتوای تولیدشده توسط هوش مصنوعی و داستانهای ساختگی دیگر را ممنوع میکند. از اواخر سال ۲۰۲۲، وقتی ChatGPT برای عموم عرضه شد، کاسی (که فقط میخواست با نام کوچکش صدا زده شود) و دیگر افرادی که وقت خود را برای نظارت بر پستهای ردیت صرف میکنند، با طوفان محتوای هوش مصنوعی روبهرو شدهاند. بخشی از این محتوا بهصورت کامل توسط هوش مصنوعی تولید میشود، در حالی که برخی دیگر کاربران پستها و نظرات خود را با برنامههای هوش مصنوعی مانند Grammarly ویرایش میکنند.
«احتمالاً این مشکل گستردهتر از آن است که کسی بخواهد بهراستی بپذیرد، چون فقط کافی است پست خود را به ChatGPT بدهید و بگویید: «هی، این را جذابتر کن»،» میگوید کاسی، که فکر میکند تا نیمی از تمام محتوای منتشر شده در ردیت بهنوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.
r/AmItheAsshole بهعنوان یکی از ارکان فرهنگ ردیت شناخته میشود؛ این قالب الهامبخش دهها، اگر نه صدها، زیرمجموعهمانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena است؛ این سابردیت با بیش از ۱۰۰ ۰۰۰ عضو، بهصورت «آیا من بدکارم، اما نسخه هندی» توصیف میشود. پستها معمولاً شامل داستانهای مربوط به تعارضات بینفردی هستند که در آن ردیتورهای مختلف میتوانند درباره اینکه چه کسی غلط کرده (“YTA” به معنای “شما بدکار هستید”، در حالی که “ESH” به معنای “همه اینجا بدکارند”)، چه کسی درست است و بهترین مسیر عمل در آینده چیست، نظر دهند. کاربران و مدیران در این زیرمجموعههای r/AmItheAsshole گزارش دادهاند که محتواهای بیشتری را مشاهده میکنند که احتمال میورزند هوش مصنوعی تولید کرده باشد، و دیگران میگویند که این یک مشکل سراسری در همه نوع سابردیتهاست.
«اگر یک سابردیت عمومی درباره عروسی یا AITA، روابط یا چیزی مشابه داشته باشید، بهسختی ضربه میخورد»، میگوید یک مدیر r/AITAH، شاخهای از r/AmItheAsshole که تقریباً ۷ میلیون عضو دارد. این مدیر، یک بازنشسته که تحت شرط ناشناسی صحبت کرد، به مدت ۱۸ سال—اکثراً تمام دورهٔ وجود ردیت—در این پلتفرم فعال بوده و پیش از آن دههها تجربه در حوزهٔ وب داشته است. او هوش مصنوعی را بهعنوان تهدیدی وجودی برای این بستر میداند.
«ردیت خود یا باید اقدامی انجام دهد، یا مار خود دم خود را میبلعد»، او میگوید. «به نقطهای رسیدهایم که هوش مصنوعی در حال تغذیه هوش مصنوعی است.»
در پاسخ به درخواست اظهار نظر، سخنگوی ردیت گفت: «ردیت انسانیترین مکان اینترنت است و ما میخواهیم اینگونه باقی بماند. ما محتوای دستکاریشده و رفتارهای نامصدق را ممنوع میکنیم، از جمله حسابهای ربات هوش مصنوعی که بهصورت گمراهکننده بهعنوان افراد ظاهر میشوند و کمپینهای تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که بهوضوح برچسبگذاری شده باشد، بهطور کلی مجاز است بهشرط اینکه با قوانین جامعهها و قوانین کلی سایت مطابقت داشته باشد.» سخنگو افزود که در نیمه اول سال ۲۰۲۵ بیش از ۴۰ میلیون حذف «هرزنامه و محتوای دستکاریشده» انجام شده است.
تغییر جو بهسوی بدتر
آلی، یک زن ۲۶ ساله که در یک کالج جامعهای در فلوریدا تدریس میکند و برای حفظ حریم شخصیاش فقط با نام کوچکش مورد خطاب قرار میگیرد، متوجه شده که ردیت در سال گذشته بهدلیل هوش مصنوعی «به طور واقعی بهسوی پایین رفت». احساسات او توسط سایر کاربران در سابردیتهایی مانند r/EntitledPeople، r/simpleliving و r/self نیز به اشتراک گذاشته شده؛ جایی که پستهای سال گذشته بهافزایش شبیهسازیهای مشکوک به هوش مصنوعی پرداختند. فقط امکان اینکه محتوا ممکن است توسط هوش مصنوعی تولید شده باشد، کافی است تا اعتماد بین کاربران را کاهش دهد. «هوش مصنوعی ردیت را به گویایی زباله تبدیل کرده است»، یک کاربر در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود خود هوش مصنوعی همانند داشتن یک جاسوس در اتاق است. شککردن بهخودی خود دشمنی است.» آلی قبلاً از خواندن سابردیتهای مانند r/AmIOverreacting لذت میبرد. اما اکنون نمیداند آیا تعاملات او واقعی هستند یا نه، و زمان کمتری را نسبت به سالهای گذشته در این پلتفرم میگذراند.
«هوش مصنوعی همه را خسته میکند»، میگوید مدیر r/AITAH. «میبینم مردم مقدار زیادی وقت و انرژی برای یافتن منابع صرف میکنند، فقط برای اینکه با پاسخهای «ها، تو افتادید به تله، این همه دروغ است» مواجه شوند.»
تشخیص هوش مصنوعی
راههای مطمئنی برای اثبات اینکه چیزی هوش مصنوعی تولید شده است یا نه وجود ندارد، و اکثر مردم روزمره به حس ششم خود متکیاند. ارزیابی متن میتواند حتی دشوارتر از ارزیابی عکسها و ویدیوها باشد، که اغلب نشانههای واضحی دارند. پنج ردیتور که با WIRED مصاحبه کردند، هر کدام استراتژیهای متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی دارند. کاسی متوجه میشود که وقتی پستها عنوان خود را بهصورت کلمه به کلمه در متن بدنه تکرار میکنند یا از خط فاصله (dash)های طولانی استفاده میکنند، یا وقتی نویسنده در تاریخچه نظرات خود اشکالات جدی املا و نقطهگذاری دارد ولی پست با گرامر کامل میآید. آلی از حسابهای تازهساخته ردیت و پستهایی که در عنوان ایموجی دارند، دچار سردرگمی میشود. مدیر r/AITAH احساس «دریای ناخوشایند» (uncanny valley) را از برخی پستها دریافت میکند. اما این «نشانهها» میتوانند در پستهای غیرهوش مصنوعی نیز حضور داشته باشند.
«در این مرحله، این حس یکجوری «میدونی که وقتی میبینی» است»، میگوید تراویس لوید، دانشجوی دکتری در Cornell Tech که پژوهش در مورد چالشهای جدید ناشی از هوش مصنوعی که مدیران ردیت با آن مواجهند منتشر کرده است. «در حال حاضر ابزاری بینقص برای تشخیص آن بهصورت صد در صد وجود ندارد. بنابراین افراد استراتژیهای خود را دارند، اما لزوماً کاملاً تضمینکننده نیستند.»
علاوه بر این، همانطور که متنهای هوش مصنوعی بیشتری بهصورت عمومی ظاهر میشوند، مردم شروع به تقلید از ویژگیهای زبانی مشترک متنهای هوش مصنوعی میکنند، صرفنظر از اینکه خود از هوش مصنوعی استفاده میکنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی پیچیدهتر باشد، زیرا این پلتفرم از شرکتهای هوش مصنوعی مانند Anthropic و Perplexity بهدلیل استخراج بدون رضایت محتوای ردیت برای آموزش چتباتها شکایت کرده است. نتایج خلاصهسازی هوش مصنوعی گوگل بهطور پرآوازه از کامنتهای ردیت بهدستآمدهاند که در واقع جوکهای طنزآمیز هستند، مانند کاربری که پیشنهاد کرد از چسب برای بهتر چسباندن پنیر به لبه پیتزا استفاده شود.
«هوش مصنوعی از مردم آموزش میبیند و مردم آنچه را میبینند دیگران انجام میدهند، کپی میکنند»، میگوید کاسی. «مردم بیشتر شبیه هوش مصنوعی میشوند و هوش مصنوعی نیز شبیه مردم میشود.»
جلب خشم هدفگیری اقلیتها
هر دو مدیر AITA میگویند که روندی از پستهای جلبخشم که میتوانند توسط هوش مصنوعی نوشته شوند و بهنظر میرسد فقط برای تخریب افراد ترنس و سایر جمعیتهای آسیبپذیر وجود دارند، مشاهده کردهاند. مدیر r/AITAH میگوید که این سابردیت در طول ماه پراید (ماه افتخار) با حجم عظیمی از محتوای ضدترنس مواجه شد، در حالی که کاسی میگوید این پستها بهصورت متناوب در صفهای مدیریت ظاهر میشوند.
«چیزهایی مثل ‘والدینم اسم انتخابیام را استفاده نکردند و من ترنس هستم و از آنها عصبان شدم چون چه جرأت کردند؟’ یا ‘کسی جنسیت من را فرض کرد و من سِیسجندر هستم، اما چه جرأت کردند فرض کنند؟’» میگوید کاسی. «هدفشان فقط تحریک خشم شما نسبت به افراد ترنس، همجنسگرایان، سیاهپوستان و زنان است.»
در سابردیتهایی که محوریت اخبار و سیاستها را دارند، هوش مصنوعی راههای جدیدی برای انتشار اطلاعات نادرست فراهم کرده است. این مسأله توسط تام، ردیتوری که بهمدت سه سال در مدیریت r/Ukraine نقش داشته و فقط با نام کوچک خود برای حفظ حریم شخصیاش سخن میگفت، در کنار تکنیکهای دستکاری اجتماعی مانند استروترفینگ که پیش از برنامههای نظیر ChatGPT وجود داشت، مشاهده شد. اما اکنون هوش مصنوعی میتواند این تاکتیکها را خودکار کند و این امر نظارت انسانی را دشوارتر میسازد.
«مثل مردی بود که ایستاده در یک تپه در برابر یک موج عظیم بود»، تام میگوید. «میتوانید با چنین هزینهای کم، صدای بسیار زیادی خلق کنید.»
در r/Ukraine که نزدیک به یک میلیون عضو دارد، تام بهیاد دارد که از سایر مدیران آموزش دریافت کرد تا انتشار تبلیغات روسیه را کاهش دهد و حتی از پشتیبانی تخصصی از سوی مدیران ردیت بهرهمند شد؛ این افراد یک قدم بالاتر از داوطلبان هستند و بهطور رسمی برای ردیت کار میکنند و حقوق میگیرند.
درآمدزایی از کارما
علاوه بر انگیزههای ایدئولوژیک، روشهای ناشناختهای برای کسب درآمد از محتوای ردیت نیز وجود دارد. برخی واضحتر هستند، مانند برنامه مشارکتکنندگان ردیت (Reddit Contributor Program)، که به پستکنندگان امکان میدهد با دریافت رأیهای مثبت (که بهعنوان «کارما» شناخته میشود) و جوایزی که دیگر کاربران میتوانند برایشان خریداری کنند، پول کسب کنند. افراد فعال در ردیت میتوانند بهصورت نظری از محتوای تولیدشده توسط هوش مصنوعی برای جمعآوری کارما، سود بردن از آن و حتی فروش حسابهای خود استفاده کنند.
«حساب ردیت من ارزش پول زیادی دارد و میدانم چون افراد مدام سعی میکنند آن را بخرید»، تام میگوید. «میتواند برای مقاصد نیرنگآمیز نیز استفاده شود، اما بهنظر میرسد بسیاری از این موارد توسط افرادی هستند که خسته و وقت دارند؛ آنها میگویند: «خب، میتوانم در یک ماه با انجام تقریباً هیچ کاری، صد دلار درآمد داشته باشم.»»
حسابهای دیگر برای بهدست آوردن کارما نیاز دارند تا بتوانند در سابردیتهای NSFW (محتوای بزرگسالان) که نیاز به حداقل کارما دارند، پست کنند؛ سپس میتوانند لینکهای OnlyFans را تبلیغ کنند. هم کاسی و هم مدیر r/AITAH متوجه شدهاند که حسابها در سابردیتهای بزرگترشان فعالیت میکنند تا کارما جمعآوری کنند و سپس به انتشار محتوای بزرگسالان بپردازند. برخی از این حسابها کلاهبردار هستند؛ در حالی که دیگران شاید فقط سعی دارند معیشت خود را تأمین کنند.
«گاهی واقعی است، گاهی یک تعارض واقعی که تجربه کردهاند، گاهی ساختگی است، اما بههر صورت توسط هوش مصنوعی تولید شده است»، میگوید کاسی. «تقریباً میخواهم آن را بازیوارسازی (gamification) بنامم، یعنی آنها فقط سعی دارند از سیستم به شیوهای که طراحی شده استفاده کنند.»
زمان اضافی که مدیران ردیت برای بررسی محتویات احتمالی هوش مصنوعی صرف میکنند، بازتابی است از اینکه محتواهای هوش مصنوعی بهطور کلی موانع جدیدی ایجاد کردهاند؛ امری که فراتر از حوزه نظارت بر شبکههای اجتماعی است.
«آنچه مدیران ردیت با آن مواجهاند همان مشکلی است که مردم در سراسر جهان اکنون با آن روبهرو هستند: سازگار شدن با دنیایی که تولید محتوای هوش مصنوعی با ظاهر قابل اطمینان بهطرز بینهایت آسان است، اما ارزیابی آن بسیار دشوارتر میشود»، میگوید لوید. «این بار سنگینی واقعی برای آنهاست، همانطوری که برای معلمان و دیگران نیز صادق است.»
دیدگاهتان را بنویسید