پست‌های بی‌کیفیت هوش مصنوعی ردیت را برای همه خراب می‌کند

ردیت به‌عنوان یکی از فضاهای انسانی‌ترین باقی‌مانده در اینترنت شناخته می‌شود؛ اما مدیران و کاربران با پست‌های بی‌کیفیت در پرطرفدارترین ساب‌ردیت‌ها غرق شده‌اند.

تصویر ممکن است شامل صورت و سر یک شخص باشد
عکس-تصویر: تیم WIRED؛ Getty Images

یک پست ردیت درباره عروسی که عروسی می‌خواهد مهمان عروسی رنگ خاصی، نامطلوب، بپوشد، به‌طرز یقین خشم را برانگیخته می‌کند؛ حتی پست‌هایی درباره عروس‌دسته‌دار یا مادر داماد که می‌خواهند لباس سفید بپوشند، می‌توانند بیشتر تحریک‌کننده باشند. سناریویی که در آن والدین از کسی در هواپیما می‌خواهند صندلی‌اش را عوض کند تا بتوانند کنار فرزند کوچکشان بنشینند، نیز همین‌گونه احساس خشم را برانگیخته می‌کند. اما این پست‌ها ممکن است دل‌سوزی یک مدیر ردیت را به‌دلیل دیگری برانگیزند—آن‌ها به‌عنوان موضوعات رایجی در یک ژانر رو به رشد از پست‌های جعلی تولیدشده توسط هوش مصنوعی شناخته می‌شوند.

این‌ها مثال‌هایی هستند که ذهن کاسی، یکی از ده‌ها مدیر برای r/AmItheAsshole، به یاد می‌آورد. این ساب‌ردیت با بیش از ۲۴ میلیون عضو، یکی از بزرگ‌ترین ساب‌ردیت‌هاست و به‌صراحت محتوای تولیدشده توسط هوش مصنوعی و داستان‌های ساختگی دیگر را ممنوع می‌کند. از اواخر سال ۲۰۲۲، وقتی ChatGPT برای عموم عرضه شد، کاسی (که فقط می‌خواست با نام کوچکش صدا زده شود) و دیگر افرادی که وقت خود را برای نظارت بر پست‌های ردیت صرف می‌کنند، با طوفان محتوای هوش مصنوعی روبه‌رو شده‌اند. بخشی از این محتوا به‌صورت کامل توسط هوش مصنوعی تولید می‌شود، در حالی که برخی دیگر کاربران پست‌ها و نظرات خود را با برنامه‌های هوش مصنوعی مانند Grammarly ویرایش می‌کنند.

«احتمالاً این مشکل گسترده‌تر از آن است که کسی بخواهد به‌راستی بپذیرد، چون فقط کافی است پست خود را به ChatGPT بدهید و بگویید: «هی، این را جذاب‌تر کن»،» می‌گوید کاسی، که فکر می‌کند تا نیمی از تمام محتوای منتشر شده در ردیت به‌نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.

r/AmItheAsshole به‌عنوان یکی از ارکان فرهنگ ردیت شناخته می‌شود؛ این قالب الهام‌بخش ده‌ها، اگر نه صدها، زیرمجموعه‌مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena است؛ این ساب‌ردیت با بیش از ۱۰۰ ۰۰۰ عضو، به‌صورت «آیا من بدکارم، اما نسخه هندی» توصیف می‌شود. پست‌ها معمولاً شامل داستان‌های مربوط به تعارضات بین‌فردی هستند که در آن ردیتورهای مختلف می‌توانند درباره اینکه چه کسی غلط کرده (“YTA” به معنای “شما بدکار هستید”، در حالی که “ESH” به معنای “همه اینجا بدکارند”)، چه کسی درست است و بهترین مسیر عمل در آینده چیست، نظر دهند. کاربران و مدیران در این زیرمجموعه‌های r/AmItheAsshole گزارش داده‌اند که محتواهای بیشتری را مشاهده می‌کنند که احتمال می‌ورزند هوش مصنوعی تولید کرده باشد، و دیگران می‌گویند که این یک مشکل سراسری در همه نوع ساب‌ردیت‌هاست.

«اگر یک ساب‌ردیت عمومی درباره عروسی یا AITA، روابط یا چیزی مشابه داشته باشید، به‌سختی ضربه می‌خورد»، می‌گوید یک مدیر r/AITAH، شاخه‌ای از r/AmItheAsshole که تقریباً ۷ میلیون عضو دارد. این مدیر، یک بازنشسته که تحت شرط ناشناسی صحبت کرد، به مدت ۱۸ سال—اکثراً تمام دورهٔ وجود ردیت—در این پلتفرم فعال بوده و پیش از آن دهه‌ها تجربه در حوزهٔ وب داشته است. او هوش مصنوعی را به‌عنوان تهدیدی وجودی برای این بستر می‌داند.

«ردیت خود یا باید اقدامی انجام دهد، یا مار خود دم خود را می‌بلعد»، او می‌گوید. «به نقطه‌ای رسیده‌ایم که هوش مصنوعی در حال تغذیه هوش مصنوعی است.»

در پاسخ به درخواست اظهار نظر، سخنگوی ردیت گفت: «ردیت انسانی‌ترین مکان اینترنت است و ما می‌خواهیم این‌گونه باقی بماند. ما محتوای دستکاری‌شده و رفتارهای نامصدق را ممنوع می‌کنیم، از جمله حساب‌های ربات هوش مصنوعی که به‌صورت گمراه‌کننده به‌عنوان افراد ظاهر می‌شوند و کمپین‌های تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به‌وضوح برچسب‌گذاری شده باشد، به‌طور کلی مجاز است به‌شرط این‌که با قوانین جامعه‌ها و قوانین کلی سایت مطابقت داشته باشد.» سخنگو افزود که در نیمه اول سال ۲۰۲۵ بیش از ۴۰ میلیون حذف «هرزنامه و محتوای دستکاری‌شده» انجام شده است.

تغییر جو به‌سوی بدتر

آلی، یک زن ۲۶ ساله که در یک کالج جامعه‌ای در فلوریدا تدریس می‌کند و برای حفظ حریم شخصی‌اش فقط با نام کوچکش مورد خطاب قرار می‌گیرد، متوجه شده که ردیت در سال گذشته به‌دلیل هوش مصنوعی «به‌ طور واقعی به‌سوی پایین‌ رفت». احساسات او توسط سایر کاربران در ساب‌ردیت‌هایی مانند r/EntitledPeople، r/simpleliving و r/self نیز به اشتراک گذاشته شده؛ جایی که پست‌های سال گذشته به‌افزایش شبیه‌سازی‌های مشکوک به هوش مصنوعی پرداختند. فقط امکان اینکه محتوا ممکن است توسط هوش مصنوعی تولید شده باشد، کافی است تا اعتماد بین کاربران را کاهش دهد. «هوش مصنوعی ردیت را به گویایی زباله تبدیل کرده است»، یک کاربر در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود خود هوش مصنوعی همانند داشتن یک جاسوس در اتاق است. شک‌کردن به‌خودی خود دشمنی است.» آلی قبلاً از خواندن ساب‌ردیت‌های مانند r/AmIOverreacting لذت می‌برد. اما اکنون نمی‌داند آیا تعاملات او واقعی هستند یا نه، و زمان کمتری را نسبت به سال‌های گذشته در این پلتفرم می‌گذراند.

«هوش مصنوعی همه را خسته می‌کند»، می‌گوید مدیر r/AITAH. «می‌بینم مردم مقدار زیادی وقت و انرژی برای یافتن منابع صرف می‌کنند، فقط برای اینکه با پاسخ‌های «ها، تو افتادید به تله، این همه دروغ است» مواجه شوند.»

تشخیص هوش مصنوعی

راه‌های مطمئنی برای اثبات اینکه چیزی هوش مصنوعی تولید شده است یا نه وجود ندارد، و اکثر مردم روزمره به حس ششم خود متکی‌اند. ارزیابی متن می‌تواند حتی دشوارتر از ارزیابی عکس‌ها و ویدیوها باشد، که اغلب نشانه‌های واضحی دارند. پنج ردیتور که با WIRED مصاحبه کردند، هر کدام استراتژی‌های متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی دارند. کاسی متوجه می‌شود که وقتی پست‌ها عنوان خود را به‌صورت کلمه به کلمه در متن بدنه تکرار می‌کنند یا از خط فاصله (dash)های طولانی استفاده می‌کنند، یا وقتی نویسنده در تاریخچه نظرات خود اشکالات جدی املا و نقطه‌گذاری دارد ولی پست با گرامر کامل می‌آید. آلی از حساب‌های تازه‌ساخته ردیت و پست‌هایی که در عنوان ایموجی دارند، دچار سردرگمی می‌شود. مدیر r/AITAH احساس «دریای ناخوشایند» (uncanny valley) را از برخی پست‌ها دریافت می‌کند. اما این «نشانه‌ها» می‌توانند در پست‌های غیرهوش مصنوعی نیز حضور داشته باشند.

«در این مرحله، این حس یک‌جوری «می‌دونی که وقتی می‌بینی» است»، می‌گوید تراویس لوید، دانشجوی دکتری در Cornell Tech که پژوهش در مورد چالش‌های جدید ناشی از هوش مصنوعی که مدیران ردیت با آن مواجهند منتشر کرده است. «در حال حاضر ابزاری بی‌نقص برای تشخیص آن به‌صورت صد در صد وجود ندارد. بنابراین افراد استراتژی‌های خود را دارند، اما لزوماً کاملاً تضمین‌کننده نیستند.»

علاوه بر این، همان‌طور که متن‌های هوش مصنوعی بیشتری به‌صورت عمومی ظاهر می‌شوند، مردم شروع به تقلید از ویژگی‌های زبانی مشترک متن‌های هوش مصنوعی می‌کنند، صرف‌نظر از اینکه خود از هوش مصنوعی استفاده می‌کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی پیچیده‌تر باشد، زیرا این پلتفرم از شرکت‌های هوش مصنوعی مانند Anthropic و Perplexity به‌دلیل استخراج بدون رضایت محتوای ردیت برای آموزش چت‌بات‌ها شکایت کرده است. نتایج خلاصه‌سازی هوش مصنوعی گوگل به‌طور پرآوازه از کامنت‌های ردیت به‌دست‌آمده‌اند که در واقع جوک‌های طنزآمیز هستند، مانند کاربری که پیشنهاد کرد از چسب برای بهتر چسباندن پنیر به لبه پیتزا استفاده شود.

«هوش مصنوعی از مردم آموزش می‌بیند و مردم آنچه را می‌بینند دیگران انجام می‌دهند، کپی می‌کنند»، می‌گوید کاسی. «مردم بیشتر شبیه هوش مصنوعی می‌شوند و هوش مصنوعی نیز شبیه مردم می‌شود.»

جلب خشم هدف‌گیری اقلیت‌ها

هر دو مدیر AITA می‌گویند که روندی از پست‌های جلب‌خشم که می‌توانند توسط هوش مصنوعی نوشته شوند و به‌نظر می‌رسد فقط برای تخریب افراد ترنس و سایر جمعیت‌های آسیب‌پذیر وجود دارند، مشاهده کرده‌اند. مدیر r/AITAH می‌گوید که این ساب‌ردیت در طول ماه پراید (ماه افتخار) با حجم عظیمی از محتوای ضد‌ترنس مواجه شد، در حالی که کاسی می‌گوید این پست‌ها به‌صورت متناوب در صف‌های مدیریت ظاهر می‌شوند.

«چیزهایی مثل ‘والدینم اسم انتخابی‌ام را استفاده نکردند و من ترنس هستم و از آن‌ها عصبان شدم چون چه جرأت کردند؟’ یا ‘کسی جنسیت من را فرض کرد و من سِیس‌جندر هستم، اما چه جرأت کردند فرض کنند؟’» می‌گوید کاسی. «هدفشان فقط تحریک خشم شما نسبت به افراد ترنس، همجنس‌گرایان، سیاه‌پوستان و زنان است.»

در ساب‌ردیت‌هایی که محوریت اخبار و سیاست‌ها را دارند، هوش مصنوعی راه‌های جدیدی برای انتشار اطلاعات نادرست فراهم کرده است. این مسأله توسط تام، ردیتوری که به‌مدت سه سال در مدیریت r/Ukraine نقش داشته و فقط با نام کوچک خود برای حفظ حریم شخصی‌اش سخن می‌گفت، در کنار تکنیک‌های دستکاری اجتماعی مانند استروترفینگ که پیش از برنامه‌های نظیر ChatGPT وجود داشت، مشاهده شد. اما اکنون هوش مصنوعی می‌تواند این تاکتیک‌ها را خودکار کند و این امر نظارت انسانی را دشوارتر می‌سازد.

«مثل مردی بود که ایستاده در یک تپه در برابر یک موج عظیم بود»، تام می‌گوید. «می‌توانید با چنین هزینه‌ای کم، صدای بسیار زیادی خلق کنید.»

در r/Ukraine که نزدیک به یک میلیون عضو دارد، تام به‌یاد دارد که از سایر مدیران آموزش دریافت کرد تا انتشار تبلیغات روسیه را کاهش دهد و حتی از پشتیبانی تخصصی از سوی مدیران ردیت بهره‌مند شد؛ این افراد یک قدم بالاتر از داوطلبان هستند و به‌طور رسمی برای ردیت کار می‌کنند و حقوق می‌گیرند.

درآمدزایی از کارما

علاوه بر انگیزه‌های ایدئولوژیک، روش‌های ناشناخته‌ای برای کسب درآمد از محتوای ردیت نیز وجود دارد. برخی واضح‌تر هستند، مانند برنامه مشارکت‌کنندگان ردیت (Reddit Contributor Program)، که به پست‌کنندگان امکان می‌دهد با دریافت رأی‌های مثبت (که به‌عنوان «کارما» شناخته می‌شود) و جوایزی که دیگر کاربران می‌توانند برایشان خریداری کنند، پول کسب کنند. افراد فعال در ردیت می‌توانند به‌صورت نظری از محتوای تولیدشده توسط هوش مصنوعی برای جمع‌آوری کارما، سود بردن از آن و حتی فروش حساب‌های خود استفاده کنند.

«حساب ردیت من ارزش پول زیادی دارد و می‌دانم چون افراد مدام سعی می‌کنند آن را بخرید»، تام می‌گوید. «می‌تواند برای مقاصد نیرنگ‌آمیز نیز استفاده شود، اما به‌نظر می‌رسد بسیاری از این موارد توسط افرادی هستند که خسته و وقت دارند؛ آنها می‌گویند: «خب، می‌توانم در یک ماه با انجام تقریباً هیچ‌ کاری، صد دلار درآمد داشته باشم.»»

حساب‌های دیگر برای به‌دست آوردن کارما نیاز دارند تا بتوانند در ساب‌ردیت‌های NSFW (محتوای بزرگسالان) که نیاز به حداقل کارما دارند، پست کنند؛ سپس می‌توانند لینک‌های OnlyFans را تبلیغ کنند. هم کاسی و هم مدیر r/AITAH متوجه شده‌اند که حساب‌ها در ساب‌ردیت‌های بزرگ‌ترشان فعالیت می‌کنند تا کارما جمع‌آوری کنند و سپس به انتشار محتوای بزرگسالان بپردازند. برخی از این حساب‌ها کلاهبردار هستند؛ در حالی که دیگران شاید فقط سعی دارند معیشت خود را تأمین کنند.

«گاهی واقعی است، گاهی یک تعارض واقعی که تجربه کرده‌اند، گاهی ساختگی است، اما به‌هر صورت توسط هوش مصنوعی تولید شده است»، می‌گوید کاسی. «تقریباً می‌خواهم آن را بازی‌وارسازی (gamification) بنامم، یعنی آن‌ها فقط سعی دارند از سیستم به شیوه‌ای که طراحی شده استفاده کنند.»

زمان اضافی که مدیران ردیت برای بررسی محتویات احتمالی هوش مصنوعی صرف می‌کنند، بازتابی است از این‌که محتواهای هوش مصنوعی به‌طور کلی موانع جدیدی ایجاد کرده‌اند؛ امری که فراتر از حوزه نظارت بر شبکه‌های اجتماعی است.

«آنچه مدیران ردیت با آن مواجه‌اند همان مشکلی است که مردم در سراسر جهان اکنون با آن روبه‌رو هستند: سازگار شدن با دنیایی که تولید محتوای هوش مصنوعی با ظاهر قابل اطمینان به‌طرز بی‌نهایت آسان است، اما ارزیابی آن بسیار دشوارتر می‌شود»، می‌گوید لوید. «این بار سنگینی واقعی برای آن‌هاست، همان‌طوری که برای معلمان و دیگران نیز صادق است.»

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *