
نوشتهٔ اریکا ویلِس
مصرفکنندگان و اینفلوئنسرها خشم خود را در شبکههای اجتماعی ابراز میکنند.

نوشتهٔ اریکا ویلِس
مصرفکنندگان و اینفلوئنسرها خشم خود را در شبکههای اجتماعی ابراز میکنند.
تحقیقات هوش مصنوعی زیر سؤال قرار گرفته است؛ چرا که نویسنده ادعا میکند بیش از ۱۰۰ مقاله درباره هوش مصنوعی نوشته است؛ که یک کارشناس آن را «فاجعه» مینامد.
یک فرد ادعا میکند که در این سال ۱۱۳ مقاله علمی در حوزه هوش مصنوعی منتشر کرده است؛ ۸۹ مقاله از اینها امشب در یکی از برترین همایشهای جهان در زمینه هوش مصنوعی و یادگیری ماشین ارائه میشود؛ که این موضوع سؤالاتی را در میان محققان علوم کامپیوتر درباره وضعیت پژوهشهای هوش مصنوعی برانگیخته است.
نویسنده، کوین ژو، بهتازگی مدرک لیسانس علوم کامپیوتر خود را از دانشگاه کالیفرنیا، برکلی دریافت کرده و اکنون شرکت Algoverse را که یک شرکت تحقیق و مشاوره هوش مصنوعی برای دانشآموزان دبیرستانی است – بسیاری از این دانشآموزان همنویسندگان او در مقالات میباشند – اداره میکند. ژو خود در سال ۲۰۱۸ دیپلم دبیرستان خود را بهدست آورد.
مقالاتی که او در دو سال گذشته منتشر کرده است، شامل موضوعاتی مانند بهکارگیری هوش مصنوعی برای شناسایی چوپانان کوچنشین در جنوب صحرای آفریقا، ارزیابی ضایعات پوستی، و ترجمه گویشهای اندونزیایی میشود. در صفحهٔ لینکدیناش، او ادعا میکند که «بیش از ۱۰۰ مقاله در کنفرانسهای برتر در سال گذشته» منتشر کرده و این مقالات «توسط OpenAI، مایکروسافت، گوگل، استنفورد، MIT، آکسفورد و دیگران» ارجاع داده شدهاند.
پپهای ژو یک «فاجعه» است، هانی فرید، استاد علوم کامپیوتر در برکلی، در مصاحبهای گفت. «من تقریباً مطمئن هستم که تمام این کار، از بالا تا پایین، صرفاً کدنویسی با هوش مصنوعی است»، او افزود، که به معنای استفاده از هوش مصنوعی برای ایجاد نرمافزار است.
فرید در یک پست اخیر در لینکدین به انتشار پراکندهای مقالات ژو اشاره کرد؛ این موضوع بحثی درباره موارد مشابه دیگر در میان پژوهشگران هوش مصنوعی برانگیخت، که گفتهاند این رشتهای که بهتازگی پرطرفدار شده، با سیلابی از مقالات کمکیفیت مواجه است؛ این مسأله ناشی از فشارهای دانشگاهی و، در برخی موارد، ابزارهای هوش مصنوعی است.
در پاسخ به سؤال گاردین، ژو اعلام کرد که بر ۱۳۱ مقاله نظارت داشته است؛ این مقالات «پروژههای تیمی» هستند که توسط شرکتش Algoverse اجرا میشوند. این شرکت برای دانشآموزان دبیرستانی و دورههای کارشناسی مبلغ ۳,۳۲۵ دلار بابت برنامهٔ انتخابی ۱۲ هفتهای مشاورهٔ آنلاین دریافت میکند – برنامهای که شامل کمک برای ارسال کارها به همایشها میشود.
«در حداقل، من به بررسی روششناسی و طراحی آزمایشی در پیشنهادها کمک میکنم و پیشنویسهای کامل مقالهها را پیش از ارسال میخوانم و نظراتم را اعلام میکنم»، او گفت و افزود که پروژههای مرتبط با حوزههای زبانشناسی، بهداشت یا آموزش شامل «پژوهشگر اصلی یا مربی با تخصص مرتبط» میشوند.
تیمها از «ابزارهای استاندارد بهرهوری نظیر مدیران ارجاع، بررسیکنندهٔ املایی، و گاهی مدلهای زبانی برای ویرایش متن یا بهبود وضوح» استفاده کردند، او در پاسخ به این سؤال که آیا مقالات با هوش مصنوعی نوشته شدهاند، گفت.
استانداردهای بازبینی مقالات در حوزه هوش مصنوعی با بیشتر حوزههای علمی دیگر متفاوت است. بیشتر کارهای هوش مصنوعی و یادگیری ماشین تحت فرآیند دقیق بررسی همتاهای علمی مانند در شیمی یا زیستشناسی قرار نمیگیرند؛ در عوض، مقالات اغلب بهصورت غیررسمیتر در همایشهای بزرگی چون NeurIPS – یکی از معتبرترین همایشهای جهانی یادگیری ماشین و هوش مصنوعی – که ژو قرار است در آن ارائه دهد، ارائه میشوند.
موارد ژو به یک مسألهٔ بزرگتر در پژوهش هوش مصنوعی اشاره میکند، فرید گفت. همایشهایی از جمله NeurIPS با افزایش قابل توجهی در تعداد مقالات دریافتی مواجه هستند: این همایش در سال جاری ۲۱٬۵۷۵ مقاله دریافت کرده است که در سال ۲۰۲۰ کمتر از ۱۰٬۰۰۰ مقاله دریافت میکرد. یک همایش برتر دیگر هوش مصنوعی، International Conference on Learning Representations (ICLR)، گزارش داد که تعداد مقالات سالانهٔ خود برای همایش ۲۰۲۶، ۷۰٪ افزایش یافته است و بهحدی نزدیک به ۲۰٬۰۰۰ مقاله رسیده؛ در مقایسه با بیش از ۱۱٬۰۰۰ مقاله در همایش ۲۰۲۵.
«نقادان از کیفیت پایین مقالات شکایت میکنند، حتی گمان میدارند که برخی بهوسیلۀ هوش مصنوعی تولید شدهاند. چرا این جشنوارهٔ علمی طعم خود را از دست داده؟» این سؤال توسط وبلاگ فناوری چینی ۳۶Kr در یک پست نوامبر درباره ICLR مطرح شد و به این نکته اشاره کرد که میانگین امتیازهای دادهشده به مقالات توسط بازبینها سال به سال کاهش یافته است.
در این میان، دانشجویان و پژوهشگران تحت فشار روزافزون برای افزایش تعداد مقالات و همسطحی شدن با همتایانشان قرار دارند. تولید دو رقمی (و حتی سه رقمی) مقالهٔ علمی با کیفیت بالا در زمینهٔ علوم کامپیوتری در یک سال، امری نادر است؛ محققان اظهار داشتند. فرید میگوید که گاهی دانشآموزان او برای افزایش شمار مقالات خود، مقالاتی را با کدنویسی هوش مصنوعی تهیه میکنند.
«بسیاری از جوانان میخواهند وارد هوش مصنوعی شوند. در حال حاضر یک هوس بزرگ وجود دارد»، فرید گفت.
NeurIPS مقالات ارسالی را بازبینی میکند، اما فرایند آن بسیار سریعتر و کمتر دقیق نسبت به ارزیابی همتاهای علمی استاندارد است، جفری والینگ، استادیار دانشگاه ویرجینیای تک، گفت. در سال جاری، این همایش از تعداد زیادی دانشجوی دکترا برای ارزیابی مقالات بهره گرفته است؛ که یک رئیس بخش NeurIPS اعلام کرد این أمر فرایند را بهخطر انداخته است.
«واقعیت این است که بسیاری از ارزیابان همایشها مجبورند در مدت زمان کوتاهی دهها مقاله را بررسی کنند و معمولاً امکان اصلاح یا بازنگری وجود ندارد»، والینگ گفت.
والینگ با فرید موافقت کرد که در حال حاضر تعداد زیادی مقاله منتشر میشود و گفت که با نویسندگانی که بیش از ۱۰۰ مقاله در یک سال منتشر کردهاند، مواجه شده است. «در دنیای آکادمیک، بیشتر برای حجم انتشار مقالات پاداش میدهند نه برای کیفیت… همه به افسانهٔ بهرهوری فوقالعاده علاقهمندند»، او افزود.
در صفحهٔ پرسشهای متداول (FAQ) Algoverse متعلق به ژو، توضیح داده میشود که چگونه برنامهٔ این شرکت میتواند افقهای تحصیلی یا شغلی درخواستکنندگان را ارتقا بخشد. او میگوید: «مهارتها، دستاوردها و انتشاراتی که اینجا بهدست میآورید، در جامعهٔ علمی بسیار مورد احترام است و میتواند بهطرز چشمگیری پروندهٔ پذیرش دانشگاه یا رزومهٔ شما را تقویت کند. این امر بهویژه در صورتی صادق است که پژوهش شما در یک همایش برتر پذیرفته شود – دستاوردی معتبر حتی برای پژوهشگران حرفهای.»
فرید میگوید که اکنون به دانشآموزان توصیه میکند از ورود به پژوهشهای هوش مصنوعی خودداری کنند، زیرا «هوس» موجود در این حوزه و حجم بالای کارهای کمکیفیت که افراد برای بهبود چشمانداز شغلی خود منتشر میکنند، در حال گسترش است.
کارهای برجستهای همچنان از این روند بهدست آمده است. بهعنوان مثال، مقالهٔ گوگل دربارهٔ ترانسفورمرها با عنوان «Attention Is All You Need» — که پایهٔ نظری پیشرفتهای هوش مصنوعی منجر به ChatGPT است — در سال ۲۰۱۷ در NeurIPS ارائه شد.
سازماندهندگان NeurIPS تصدیق کردند که این همایش تحت فشار است. در اظهار نظری به گاردین، یک سخنگوی این همایش گفت که رشد هوش مصنوعی بهعنوان حوزهای، «افزایش قابلتوجهی در تعداد مقالات ارسالی و ارزش افزوده در پذیرشهای بازبینی همتا در NeurIPS» را به همراه داشته است؛ که «بار سنگینی بر سیستم ارزیابی ما وارد کرده است».
مقالات ارسالی ژو عمدتاً در کارگاههای NeurIPS بودهاند، که فرآیند انتخاب متفاوتی نسبت به همایش اصلی دارند و معمولاً محلی برای ارائهٔ کارهای تازهکارانه هستند، بهنظر برگزارکنندگان NeurIPS. فرید افزود که این توجیهی قانعکننده برای اینکه یک نفر نام خود را بر بیش از ۱۰۰ مقاله بگذارد، بهنظر نمیرسد.
«این توجیه برای افزودن نام خود بر ۱۰۰ مقاله که بهطور معناداری نمیتوانستید در آنها مشارکت کنید، برایم قانعکننده نیست»، فرید گفت.
این مشکل بزرگتر از سیل مقالات در NeurIPS است. ICLR برای بررسی حجم زیادی از ارسالها از هوش مصنوعی بهره برد؛ که بهنظر میرسید منجر به ارجاعاتی «تخیلی» و بازخوردی «بسیار پرحرف با تعداد زیادی نکتهنامه» شده است، طبق مقالهای اخیر در Nature.
احساس کاهش کیفیت به حدی گسترده شد که یافتن راهحل برای این بحران خود بهعنوان موضوعی برای مقالات بدل گشت. مقالهٔ موضعیای که در ماه می ۲۰۲۵ منتشر شد — نسخهٔ علمی و مبتنی بر شواهدی از یک مقالهٔ سرخط روزنامه — توسط سه دانشمند کامپیوتر کرهٔ جنوبی تألیف شد که راهحلی برای «چالشهای بیسابقهٔ رشدی که در ارسال مقالات رخ داده، بههمراه نگرانیهای فزاینده درباره کیفیت ارزیابی و مسئولیت داوران» ارائه داد؛ این مقاله جوایز کار برتر را در همایش بینالمللی یادگیری ماشین ۲۰۲۵ به خود اختصاص داد.
در همین حال، به گفته فرید، شرکتهای بزرگ فناوری و سازمانهای کوچک ایمنی هوش مصنوعی کارهای خود را در arXiv بارگذاری میکنند؛ سایتی که پیشتر فقط برای پیشچاپهای با بازدید کم در حوزهٔ ریاضیات و فیزیک استفاده میشد، و این امر اینترنت را با کارهایی که بهعنوان علم ارائه میشوند پر کرده است — اما تحت استانداردهای بازبینی قرار ندارند.
هزینهٔ این وضعیت، به گفته فرید، این است که برای خبرنگاران، عموم مردم و حتی کارشناسان این حوزه تقریباً غیرممکن است بفهمند در هوش مصنوعی چه اتفاقی میافتد. «بهعنوان خوانندهٔ متوسط، شما شانس ندارید که بفهمید چه میگذرد در ادبیات علمی. نسبت سیگنال به نویز شما تقریباً یک است. من به سختی میتوانم به این همایشها بروم و بفهمم چه جهنمی در جریان است.»
«چیزی که به دانشجویان میگویم این است که اگر هدف شما انتشار مقالات است، صادقانه بگویم کار خیلی سختی نیست. فقط کارهای بسیار ضعیف و کمکیفیت انجام دهید و آنها را بهصورت انبوه به کنفرانسها بفرستید. اما اگر میخواهید کارهای دقیق و اندیشمندانه انجام دهید، در یک موقعیت نامساعد هستید، زیرا عملاً بهتنهایی سلاح ندارید»، او افزود.

بسیاری از شرکتها بهطور فزایندهای دسترسی به ChatGPT و ابزارهای مشابه هوش مصنوعی را مسدود میکنند، عمدتاً به دلیل نگرانی از نشت احتمالی دادهها.
سازمانها نگراناند که مدلهای هوش مصنوعی حاوی اطلاعات محرمانهای باشند، که میتواند منجر به آسیبپذیریهای امنیتی شود وقتی کاربران در سراسر جهان با درخواستهای خود سعی میکنند از این مدلها استخراج کنند.
در نتیجه، شرکتها سیاستهای دیجیتالی سختگیرانهتری را اعمال کرده و دسترسی به پلتفرمهای خارجی هوش مصنوعی را محدود میسازند، حتی اگر این ابزارها میتوانند بهرهوری و نوآوری را ارتقا دهند.
دانشگاهها و مؤسسات آموزشی نیز کنترلها را سختتر میکنند و از سامانههای تشخیص برای شناسایی محتواهای تولید شده توسط هوش مصنوعی در تکالیف استفاده مینمایند.
آموزگاران بر این باورند که استفادهٔ نامحدود از هوش مصنوعی میتواند رشد تفکر انتقادی، خلاقیت و مهارتهای بنیادی را مختل کند.
این موضع باعث بروز بحثهایی شده است که آیا چنین محدودیتهایی بهواقع محافظت از فرآیند یادگیری را تضمین میکند یا صرفاً مانع از ارتقای سواد فناورانهٔ دانشآموزان میشود؛ سواد فناورانهای که آیندهٔ آنان را شکل خواهد داد.
بهطور کلی، محدودیتهای افزایشی اعمالشده بر هوش مصنوعی سؤالات مهمی را دربارهٔ پیامدهای طولانیمدت برای خود مدلهای هوش مصنوعی و رابطهٔ جامعه با هوش مصنوعی نوظهور برانگیخته میکند.
محدود کردن استفاده میتواند آشنایی عمومی با هوش مصنوعی را کندتر کند و تنوع بهکارگیری آن را کاهش دهد.
در مسیر پیشرفت، یافتن تعادل میان امنیت، اخلاق و نوآوری برای اطمینان از اینکه هوش مصنوعی بهگونهای تکامل یابد که هم امنیت سازمانی و هم رشد شناختی انسان را پشتیبانی کند، امری اساسی خواهد بود.
نوشته جویی موراتس

متیو پرینس، مدیرعامل کلودفلر، اعلام کرد که شرکتش بیش از ۴۱۶ میلیارد درخواست رباتهای هوش مصنوعی را مسدود کرده است، از زمان اینکه در جولای امسال پس از اعلام ابتکار «روز استقلال محتوا» این گزینه را بهصورت پیشفرض فعال کرد. پرینس در مصاحبهای با Wired گفت این ویژگی به صاحبان وبسایتها اجازه میدهد که بهطور پیشفرض رباتهای هوش مصنوعی را مسدود کنند، مگر این که شرکت هوش مصنوعی برای دسترسی به محتوایشان هزینهای پرداخت کند.
«مدل کسبوکار اینترنت همواره بر پایه تولید محتوایی است که ترافیک را جذب میکند و سپس از طریق فروش کالاها، اشتراکها یا تبلیغات درآمدزایی میشود»، پرینس به Wired گفت. «اما چیزی که مردم معمولاً درک نمیکنند این است که هوش مصنوعی یک تحول سکو (پلتفرمی) است. مدل کسبوکار اینترنت در آستانه تغییر چشمگیری است. هنوز نمیدانم به چه سمتایی تغییر خواهد کرد، اما این مسألهای است که تقریباً تمام ساعتهای بیداریام را به فکر آن میگذرانم.»
اگرچه کلودفلر تقریباً تمام رباتهای هوش مصنوعی را مسدود میکند، یک ربات خاص وجود دارد که نمیتوان بدون تأثیر بر حضور آنلاین مشتریان آن را مسدود کرد — گوگل. این غول جستجو ترکیبکردن ربات جستجو و ربات هوش مصنوعی خود را به یک ربات ترکیبی درآورد، به این معنا که کاربرانی که از ربات هوش مصنوعی گوگل انصراف میدهند، در نتایج جستجوی گوگل نیز فهرست نمیشوند. پرینس ادامه داد: «نمیتوانید از یکی صرفنظر کنید بدون اینکه از هر دو انصراف دهید؛ این یک چالش واقعی است — دیوانهکننده است.» «نباید اینچنین باشد که بتوانید از موقعیت انحصاری دیروز خود بهرهبرداری کنید تا موقعیت انحصاری در بازار فردا بدست آورید.»
محتوای تولید شده توسط انسان برای شرکتهای هوش مصنوعی برای آموزش مدلهایشان حیاتی است؛ تحقیقات نشان دادهاند که مدلهای هوش مصنوعی زمانی که بر پایه دادههای تولید شده توسط هوش مصنوعی آموزش میبینند، کیفیت پایینتری تولید میکنند. خلاصهسازیهای هوش مصنوعی ثابت کردهاند که ترافیک وبسایتها را کاهش میدهند — بهویژه برای سایتهایی که به شدت به دیدهشدن و بازدید برای درآمد تبلیغاتی وابستهاند — اما قراردادهای مجوز میتوانند این کمبود را جبران کنند و به انتشارات آنلاین امکان میدهند که همچنان منبع درآمد قابلاعتمادی برای خالقان و ناشران باشند.
کلودفلر همچنین از اینترنت متنوعی که محتوای واقعی انسانها را میزبانی میکند، سود خواهد برد. مدیرعامل این شرکت به Wired گفت که بهدنبال آیندهای هستند که در آن خالقان و کسبوکارها بر روی یک سطح برابر رشد کنند، زیرا وبسایتهای بیشتری نیاز به محافظت دارند و این مسأله منجر به جذب مشتریان بیشتری برای کلودفلر میشود. این امر آن را به یکی از بزرگترین شبکههای تحویل محتوا در جهان تبدیل کرده است؛ بهطوریکه در سال ۲۰۲۲، ۷۹٫۹٪ از بازار را در اختیار داشته است. با این حال، این وضعیت اینترنت را در برابر خطرات آسیبپذیر میکند؛ همانطور که یک فایل پیکربندی اشتباه در نوامبر باعث از کار افتادن بخش عظیمی از وب شد.
این مسأله، مشکل فعلی زیرساخت وب جهانی را که وابسته به تنها چند شرکت بزرگ — از جمله AWS، Azure، کلودفلر، CrowdStrike و گوگل — برای سرویسدهی به تمام کره زمین است، برجسته میکند. اگرچه این نهادها کار را برای شرکتهایی که به اینترنت وابستهاند سادهتر و کارآمدتر کردهاند، اما به این معناست که حتی یک قطعی در این خدمات میتواند ضررهای میلیاردی و اختلالات شدید در سرتاسر جهان به بار آورد.

«پدرخوانده هوش مصنوعی» معتقد است که زمان آن رسیده که گوگل در مسابقه هوش مصنوعی پیشی بگیرد.
«بهنظر من، حتی شگفتانگیزتر است که گوگل اینقدر طول کشیده تا OpenAI را پیشی بگیرد»، گریفی هینتون، استاد بازنشسته دانشگاه تورنتو که پیش از این در Google Brain مشغول به کار بود، در مصاحبهای با Business Insider روز سهشنبه گفت.
گوگل پس از رونمایی پرتحسینی که از Gemini 3 انجام داد، بهنظر برخی متخصصان فناوری، این بهروزرسانی شرکت را به سطحی فراتر از GPT‑5 OpenAI ارتقا میدهد. مدل تصویر هوش مصنوعی Nano Banana Pro این شرکت نیز بهعنوان یک موفقیت ثابت شده است.
سهسال پس از آنکه گوگل بهطور گزارششده پس از انتشار ChatGPT اعلام «کد قرمز» کرد، گزارشهای اخیر نشان میدهند که حالا این OpenAI است که زنگ خطر را میزند.
هینتون درباره موقعیت گوگل نسبت به OpenAI گفت: «فکر میکنم در حال حاضر آنها در حال پیشی گرفتن است».
در کنار موفقیت انتشار آخرین مدل هوش مصنوعیاش، سهام گوگل بهدلیل گزارشهایی که ممکن است قرارداد میلیارد دلاری برای تأمین Meta با تراشههای هوش مصنوعی خود بسته شود، رشد کرد.
ساخت تراشههای خود، یک «مزیت بزرگ» برای گوگل است، هینتون گفت.
او گفت: «گوگل دارای پژوهشگران بسیار خوب، دادههای فراوان و مراکز دادهٔ متعدد است. حدس من این است که گوگل برنده خواهد شد.»
هینتون که در طول دوران کاری خود در Google Brain به پیشبرد پژوهشهای هوش مصنوعی کمک کرده بود، گفت که این غول جستجوگر روزی در خط مقدم هوش مصنوعی بود اما خود را محدود کرد.
او گفت: «گوگل مدت طولانی در صدر بود، نه؟» «گوگل مخازن (transformers) را اختراع کرد. گوگل پیش از دیگران چتباتهای بزرگ داشت.»
هینتون گفت گوگل پس از راهاندازی فاجعهبار چتبات هوش مصنوعی «Tay» مایکروسافت در سال ۲۰۱۶، که پس از انتشار توییتهای نژادپرستانه از سرویس خارج شد، محتاط شد.
او افزود: «گوگل، طبیعتاً، شناخت خوبی داشت و نگران بود که بهاینسان به اعتبار خود آسیب برساند.»
سندار پیشی، مدیرعامل گوگل، پیشتر گفته بود که شرکت در انتشار چتبات خود محتاط بوده است.
پیشی در اوایل امسال گفت: «ما هنوز به سطحی نرسیده بودیم که بتوانیم محصول را منتشر کنیم و مردم با انتشار آن توسط گوگل مشکلی نداشته باشند. آن زمان هنوز مشکلات زیادی داشت.»
در گذشته، این شرکت برخی عرضههای ناپایدار داشته است. فقط سال گذشته، گوگل مجبور شد تولیدکنندهٔ تصویر هوش مصنوعی خود را متوقف کند پس از اینکه برخی کاربران شکایت کردند که نتایج نشاندهندهٔ تصاویر تاریخی نادرست از افراد رنگینپوست که برای برخی بیش از حد حساس (woke) بود. خلاصههای جستجوی اولیهٔ هوش مصنوعی آنها مشاورههای بیمعنی، مانند چسباندن چسب به پیتزا برای جلوگیری از سقوط پنیر، تولید میکرد.
هینتون پیش از اعلام اینکه گوگل ۱۰ میلیون دلار کانادایی بهمنظور تأسیس کرسی هینتون در هوش مصنوعی در دانشگاه تورنتو اهدا میکند، با Business Insider گفتگو کرد. دانشگاهی که هینتون در دوره حضورش در گوگل زمان خود را بین این دو تقسیم میکرد، اعلام کرد که این کمک را همتا میکند.
هینتون در سال ۲۰۲۳ گوگل را ترک کرد و نگرانیهای خود دربارهٔ توسعه هوش مصنوعی را مطرح کرد. از آن زمان، او بهطور مکرر دربارهٔ خطرات هوش مصنوعی برای جامعه، از توانایی پیشی گرفتن از انسان تا جایگزینی مشاغل، سخن گفته است. در سال ۲۰۲۴، هینتون بهصورت مشترک جایزه نوبل فیزیک را دریافت کرد.
گوگل در بیانیهای گفت: «کارهای گریفی هینتون در زمینهٔ شبکههای عصبی — از دوران دانشگاهیاش تا دههای که در گوگل سپری کرد — بنای هوش مصنوعی مدرن را پایهگذاری کرد.» «این کرسی، به ارث او افتخار میکند و به دانشگاه کمک مینماید تا پژوهشگران بصیرتی را جذب کند که به همانگونه که هینتون تشویق میکرد، به تحقیق بنیادی و کنجکاویمحور متعهد باشند.»
چکپوینت 2025 دیسکورد: دیسکورد اولین خلاصهسالانهٔ فعالیت خود را به نام چکپوینت 2025 منتشر کرد. کاربران اکنون میتوانند تعداد پیامهای ارسالشده، ساعت صرفشده در کانالهای صوتی، ایموجیهای برتر، سرورهای پرکاربرد و دوستانی که بیشترین پیامهای خصوصی (DM) را با آنها رد و بدل کردهاند، مشاهده کنند. تزئینات اختصاصی آواتار نیز در دسترس است. این ویژگی بهصورت تدریجی در دسترس قرار میگیرد و برای استفاده از آن باید آخرین نسخهٔ برنامه نصب شده باشد.

این مقاله را بهصورت خلاصه گوش کنید

دیسکورد رسماً چکپوینت 2025 را راهاندازی کرد، اولین بازنگری جامع سالانه که به کاربران اجازه میدهد خلاصهای شخصیسازیشده از نحوهٔ استفادهاشان از پلتفرم در طول سال را ببینند. این انتشار اولین تلاش شرکت برای ارائه خلاصهای به سبک «خلاصهسالانهٔ دیسکورد» است و طرفداران آن را پیش از این انتظار میکردند.
ویژگی جدید چکپوینتهای دیسکورد، تصویری دقیق از فعالیتهای شما در سال 2025 را به همراه موارد زیر ارائه میدهد:
پس از تمام کردن مشاهدهٔ خلاصهسالانهٔ دیسکورد 2025، برنامه یکی از ده کارت چکپوینت را به شما اختصاص میدهد؛ هر کارت با یک تزئینات اختصاصی آواتار همراه است که میتوانید تا ۱۵ ژانویهٔ ۲۰۲۶ از آن استفاده کنید.
دیسکورد میگوید که کاربران باید برای دسترسی به خلاصهسالانه، آخرین نسخهٔ برنامه را بهروز کنند. مراحل برای کاربران موبایل و دسکتاپ کمی متفاوت است.

بسیاری از کاربران گزارش کردهاند که هنوز چکپوینت 2025 دیسکورد خود را مشاهده نکردهاند، اما این امر طبیعی است. دیسکورد تأیید کرده است که این ویژگی بهصورت تدریجی در دسترس قرار میگیرد، بهطوری که همه حسابها همزمان خلاصه را دریافت نخواهند کرد.
در موارد دیگر، ممکن است چکپوینت شما بهدلیل موارد زیر نمایش داده نشود:
این پایان مقاله است.
در حال حاضر رسانههای اجتماعی بیش از جستجو ترافیک بیشتری به کسبوکارهای کوچک و متوسط میرسانند و بسیاری از این کسبوکارها شروع به پیگیری ارجاعات تولیدشده توسط هوش مصنوعی کردهاند. آنها همچنین رقبایی که در خلاصههای هوش مصنوعی ظاهر میشوند را بهعنوان تهدیدی نوظهور میبینند، طبق دادههای جدید نظرسنجی که امروز توسط WordStream توسط LocaliQ منتشر شد.
چرا این موضوع مهم است. کسبوکارهای کوچک اکنون خلاصههای هوش مصنوعی را بهعنوان کانالی نوظهور و مهم میبینند. این خلاصهها تصمیمگیری اولیه خریداران را شکل میدهند و میتوانند آنها را به سمت محصولات رقیب سوق دهند. ارجاعات هوش مصنوعی نیز شفاف و قابل ردیابی شدهاند و کسبوکارها را قانع میکنند که میتوانند – و باید – برای آنها بهینهسازی کنند.
کاهش ترافیک گوگل در حال افزایش است. چهل درصد از کسبوکارهای کوچک میگویند که بهدلیل بهروزرسانیهای گوگل و جستجوی مبتنی بر هوش مصنوعی ترافیک خود را از دست دادهاند. شرکتهای بزرگتر بیشترین ضربه را دریافت کردهاند؛ تقریباً نیمی از آنها کاهش را گزارش کردند. با این حال، اکثر کسبوکارهای کوچک (۷۲٪) گفتند سئوی آنها «موثر» است.
رسانههای اجتماعی بر جستجو پیشی میگیرد. ۶۴ درصد، رسانههای اجتماعی را بهعنوان اصلیترین منبع ترافیک نام بردند که از جستجوی ارگانیک با ۵۲ درصد پیشی گرفتند.
توجه به هوش مصنوعی در حال افزایش است. جستجوی هوش مصنوعی هنوز بهعنوان عامل اصلی ترافیک محسوب نمیشود، اما در دید کسبوکارهای کوچک قرار دارد:
بزرگترین ناامیدی کسبوکارهای کوچک این است که رقبایشان بهجای آنها در خلاصههای هوش مصنوعی ظاهر میشوند؛ اما نکته مثبت این است که این مدلها اغلب اطلاعاتی از سایتهای بیش از دهتا برتر گوگل استخراج میکنند و به برندهای کوچک فرصتی نادر برای دیده شدن میدهند که معمولاً بهدست نمیآورند.
صفحات اصلی وبسایت حیاتی هستند. در میان کسبوکارهای کوچک که ترافیک هوش مصنوعی را ردیابی میکنند، پر بازدیدترین صفحات عبارتند از:
چگونگی سازگاری کسبوکارهای کوچک. برترین اقدامات برای افزایش دیده شدن در هوش مصنوعی، با اصول سئو همپوشانی دارد:
دربارهٔ دادهها. WordStream توسط LocaliQ بیش از ۳۰۰ کسبوکار کوچک در ایالات متحده را در ۲۴ حوزهی صنعتی مورد نظرسنجی کرد. پاسخها از شرکتهای دارای وبسایت و بدون وبسایت، از افراد خوداشتغال تا سازمانهای با ۱۰۰ نفر پرسنل دریافت شد.
گزارش. گزارش بزرگ روندهای وبسایت کسبوکارهای کوچک: سئو، GEO و آینده ترافیک
Search Engine Land متعلق به Semrush است. ما همچنان متعهد به ارائه پوشش با کیفیت بالا از موضوعات بازاریابی هستیم. مگر در مواردی که بهوضوح اعلام شده باشد، محتوای این صفحه توسط یک کارمند یا یک پیمانکار حقوقبگیر Semrush Inc. نوشته شده است.
ما معماری Titans و چارچوب MIRAS را معرفی میکنیم؛ اینها به مدلهای هوش مصنوعی اجازه میدهند سرعت کار را بهطور چشمگیری افزایش داده و زمینههای وسیع را با بهروزرسانی حافظهٔ اصلی در حین اجرای فعال، مدیریت کنند.
معماری ترنسفرمر با معرفی مکانیزم توجه، که به مدلها اجازه میدهد به ورودیهای قبلی نگاه کنند و دادههای مرتبط را اولویتبندی کنند، انقلابی در مدلسازی دنبالهها به وجود آورد. اما هزینهٔ محاسباتی با افزایش طول دنباله بهشدت متقارن میشود و این محدودیتی برای مقیاسپذیری مدلهای مبتنی بر ترنسفرمر در زمینههای بسیار طولانی ایجاد میکند؛ مانند درک کامل سند یا تجزیه و تحلیل ژنومیک.
جامعهٔ تحقیقاتی راهحلهای مختلفی را بررسی کرد، از جمله شبکههای عصبی بازگشتی خطی کارآمد (RNN) و مدلهای فضای حالت (SSM) همچون Mamba‑2. این مدلها با فشردهسازی زمینه به یک اندازهٔ ثابت، امکان مقیاسپذیری خطی سریع را فراهم میکنند. اما این فشردهسازی ثابت قادر به درک کامل اطلاعات غنی در دنبالههای بسیار طولانی نیست.
در دو مقالهٔ جدید، Titans و MIRAS، ما معماری و طرح نظری را معرفی میکنیم که سرعت RNNها را با دقت ترنسفرمرها ترکیب میکند. Titans معماری خاص (ابزار) است و MIRAS چارچوب نظری (طرح کلی) برای عمومیسازی این رویکردها. این دو با هم مفهوم حافظهٔ یادگیری در زمان آزمون را پیش میبرند؛ یعنی توانایی مدل هوش مصنوعی برای حفظ حافظهٔ طولانیمدت با بهکارگیری معیارهای «شگفتی» قدرتمندتر (یعنی اطلاعات غیرمنتظره) در حین اجرای مدل، بدون نیاز به آموزش آفلاین اختصاصی.
چارچوب MIRAS، همانطور که Titans نشان میدهد، تغییر معناداری به سمت سازگاری زمان واقعی ایجاد میکند. بهجای فشردهسازی اطلاعات در یک وضعیت ثابت، این معماری بهصورت فعال پارامترهای خود را هنگام ورود دادهها یاد میگیرد و بهروزرسانی میکند. این مکانیزم حیاتی به مدل اجازه میدهد تا جزئیات جدید و خاص را بهسرعت در دانش اصلی خود بگنجاند.
یک سیستم یادگیری مؤثر نیاز به ماژولهای حافظهٔ متمایز اما در همپیوند دارد که مشابه جداسازی حافظهٔ کوتاهمدت و بلندمدت در مغز انسان هستند.
در حالی که مکانیزمهای توجه برای حافظهٔ کوتاهمدت دقیق بسیار مؤثرند، Titans ماژول حافظهٔ طولانیمدت عصبی نوینی را معرفی میکند؛ این ماژول، برخلاف حافظهٔ برداری یا ماتریسی ثابتاندازه در RNNهای سنتی، بهعنوان یک شبکهٔ عصبی عمیق (بهویژه یک پرسپترون چندلایه) عمل میکند. این حافظهٔ عصبی توان بیان بهمراتب بالاتری دارد و به مدل امکان میدهد حجم بالایی از اطلاعات را بدون از دست دادن زمینهٔ مهم خلاصه کند. مدل تنها یادداشتبرداری نمیکند؛ بلکه کل داستان را میفهمد و ترکیب میسازد.
بهطور اساسی، Titans تنها بهصورت منفعل دادهها را ذخیره نمیکند؛ بلکه بهصورت فعال «چگونگی» شناسایی و نگهداری روابط مهم و تمهای مفهومی که توکنها را در سراسر ورودی به هم میپیوندد، یاد میگیرد. یکی از جنبههای کلیدی این توانایی، آنچه ما «معیار شگفتی» مینامیم، است. در روانشناسی انسانی، میدانیم که رویدادهای روتین و پیشبینیشده را بهسرعت و بهراحتی فراموش میکنیم، اما مواردی که الگو را میشکنند—رویدادهای غیرمنتظره، شگفتانگیز یا بسیار عاطفی— را به یاد میمانیم.

نمای کلی معماری Titans (MAC). این معماری از حافظهٔ طولانیمدت برای فشردهسازی دادههای گذشته استفاده میکند و سپس خلاصهٔ آن را به زمینه اضافه کرده و به مکانیزم توجه میفرستد. توجه میتواند تصمیم بگیرد که آیا نیاز به متمرکز شدن بر خلاصهٔ گذشته دارد یا خیر.
در چارچوب Titans، «معیار شگفتی» به این معناست که مدل اختلاف بزرگ بین آنچه در حال حاضر به یاد دارد و آنچه ورودی جدید به آن میگوید را تشخیص میدهد.
مدل از این سیگنال خطای داخلی (گرادیان) بهعنوان معادل ریاضی عبارت «این غیرمنتظره و مهم است!» استفاده میکند. این امکان را به معماری Titans میدهد که حافظهٔ طولانیمدت خود را بهصورت گزینشگرانه تنها با اطلاعات نوینترین و مخربترین از نظر زمینه بهروز کند، در حالی که کل فرآیند را سریع و کارآمد نگه میدارد.
Titan این مکانیزم را با ترکیب دو عنصر حیاتی بهبود میبخشد:
هر پیشرفت مهمی در مدلسازی توالی — از ترنسفرمرهای مدرن تا RNNهای خطی و فوقالعاده سریع جدید — در اصل یک چیز مشابه زیرساخت دارد: ماژول حافظهٔ انجمنی بسیار پیچیده.
بر این اساس، ویژگی منحصر بهفرد و عملی MIRAS، رویکردش به مدلسازی هوش مصنوعی است. بهجای مشاهدهٔ معماریهای متنوع، آن را بهعنوان روشهای مختلفی برای حل یک مسألهٔ یکسان میبیند: ترکیب کارآمد اطلاعات جدید با حافظههای قبلی بدون اینکه مفاهیم اساسی فراموش شوند.
MIRAS یک مدل توالی را از طریق چهار انتخاب طراحی اصلی تعریف میکند:
نمای کلی چارچوب MIRAS. در چارچوب MIRAS، هدف ما یادگیری حافظهٔ انجمنی است که بین کلیدها و مقادیر نگاشت میکند. برای هر توکن، ماژول حافظه بهصورت داخلی سوگیری توجهی داخلی خود را بهینه میکند در حالی که از دروازهٔ نگهداری استفاده میکند تا اطمینان حاصل شود که از حالت گذشته خود انحراف نمیکند. فرآیند بهینهسازی از طریق بهینهساز مبتنی بر گرادیان انجام میشود.
تقریباً تمام مدلهای موفق توالی موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطهضرب برای هر دو سوگیری و نگهداری وابستهاند. این وابستگی میتواند مدلها را نسبت به نقاط دور (outliers) حساس کرده و توان بیان آنها را محدود کند.
MIRAS این محدودیت را با ارائه چارچوبی مولد برای کاوش فضای طراحی غنیتر، با بهرهگیری از ادبیات بهینهسازی و آمار، پشت سر میگذارد. این امکان را میدهد که معماریهای جدیدی با اهداف غیر‑اقلیدسی و منظمسازیهای خاص ایجاد شوند.
با استفاده از MIRAS، ما سه مدل خاص بدون توجه (attention‑free) ساختیم:
ما Titans و گونههای MIRAS (YAAD، MONETA، MEMORA) را بهطور دقیق در مقایسه با معماریهای پیشرو، شامل Transformer++، Mamba‑2 و Gated DeltaNet، بررسی کردیم. همچنین با آزمایش Titans بر روی مدلسازی ژنتیکی (DNA) و پیشبینی سریهای زمانی، توانمندی این معماری برای تعمیم مؤثر فراتر از متن را ثابت کردیم.
در هر دو مجموعه دادهٔ مدلسازی زبانی استاندارد (C4، WikiText) و وظایف استدلال صفر‑شات (HellaSwag، PIQA)، مدلهای ما بهطور مستمر دقت بالاتر و پرپلکسیتی (معیاری برای میزان تعجب یک LLM هنگام مشاهدهٔ متن) نشان دادند.
مطالعات ابلاسیون به وضوح نشان میدهند که عمق معماری حافظه نقش حیاتی دارد. زمانی که ماژولهای حافظهٔ طولانیمدت با همان اندازه ولی عمق متفاوت مقایسه میشوند، ماژولهای دارای حافظهٔ عمیقتر بهطور مستمر پرپلکسیتی کمتری در مدلسازی زبان بهدست میآورند. علاوه بر این، این ماژولها ویژگیهای مقیاسپذیری بهتری نشان میدهند و عملکرد خود را حتی با افزایش چشمگیر طول دنباله حفظ میدارند.

تأثیر عمق حافظه بر پرپلکسیتی در مقیاسهای پارامتر ۳۶۰M و ۷۶۰M.
در وظایف مدلسازی زبان و استدلال عام، معماری Titans بر مدلهای بازگشتی خطی پیشرفته (مانند Mamba‑2 و Gated DeltaNet) و پایههای Transformer++ هماندازه برتری دارد. گونههای نوین MIRAS (MONETA، YAAD، MEMORA) نیز نسبت به این پایهها عملکرد بهبود یافتهای نشان میدهند که مزیت بررسی مکانیزمهای بهینهسازی مقاوم و غیر‑MSE را تأیید میکند. بهعلاوه، این مدلها آموزش کارآمد، قابلیت موازیسازی و سرعت استنتاج خطی سریع را حفظ میکنند.
برجستهترین مزیت این معماریهای جدید، توانایی آنها در پردازش زمینههای بسیار طولانی است. این نکته در بنچمارک BABILong که نیاز به استدلال در میان حقایق توزیعشده در اسناد بسیار طولانی دارد، بهوضوح نشان داده میشود. در این وضعیت چالشبرانگیز، Titans بر تمام پایهها، از جمله مدلهای بسیار بزرگ همچون GPT‑4، برتری پیدا میکند، در حالی که پارامترهای کمتری دارد. همچنین Titans توان مقیاسپذیری مؤثر به اندازه پنجرهٔ زمینهای بزرگتر از ۲ میلیون توکن را نشان میدهد.

عملکرد Titans در استدلال زمینهٔ بسیار طولانی.
معرفی Titans و چارچوب MIRAS گامی بزرگ در پیشرفت مدلسازی توالی است. با بهکارگیری شبکههای عصبی عمیق بهعنوان ماژولهای حافظه که در حین ورود دادهها بهخاطر میسپارند، این رویکردها محدودیتهای وضعیتهای بازگشتی ثابتاندازه را پشت سر میگذارند. علاوه بر این، MIRAS وحدت نظری قدرتمندی فراهم میکند که ارتباط بهینهسازی آنلاین، حافظهٔ انجمنی و طراحی معماری را آشکار میسازد. با فراتر رفتن از پارادایم اقلیدسی استاندارد، این تحقیق مسیر نسل جدیدی از مدلهای توالی را گشوده که ترکیبی از کارآیی RNNها و توان بیان مورد نیاز برای عصر هوش مصنوعی با زمینههای طولانی است.
گوگل پیکربندی مبتنی بر هوش مصنوعی برای کنسول جستجو و بررسیهای ناشناس در نقشهها را راهاندازی کرد. یک تست جدید برای حالت هوش مصنوعی میتواند بر ترافیک تأثیر بگذارد. در ادامه تغییراتی که برای کار شما رخ دادهاند، آورده شده است.

در این هفته گوگل کارهای زیادی انجام داد: کنسول جستجو پیکربندی مبتنی بر هوش مصنوعی را بهدست گرفت، نقشهها قانون نام واقعی برای نظرات را شل کردند و یک تست جدید افراد بیشتری را از مرورهای هوش مصنوعی به حالت هوش مصنوعی هدایت میکند.
در ادامه، معنای این تغییرات برای شما را بررسی میکنیم.
گوگل در کنسول جستجو ویژگی آزمایشی هوش مصنوعی را معرفی کرد که به شما اجازه میدهد گزارش مورد نظر خود را توصیف کنید و ابزار آن را برای شما بسازد.
این ویژگی که در یک پست بلاگ گوگل اعلام شد، در گزارش عملکرد نتایج جستجو قرار دارد. میتوانید عبارتی مانند «مقایسه کلیکها از بریتانیا نسبت به فرانسه» را بنویسید و سیستم فیلترها، مقایسهها و معیارهای مناسب را برای بازتاب منظور شما تنظیم میکند.
در حال حاضر، این ویژگی فقط بر دادههای نتایج جستجو محدود است؛ در حالی که گزارشهای Discover، News و ویدیو همچنان به همان شکل کار میکنند. گوگل اعلام کرده که با «مجموعهای محدود از وبسایتها» شروع میکند و دسترسی را بر اساس بازخوردها گسترش خواهد داد.
این بهروزرسانی مربوط به پیکربندی است، نه معیارهای جدید. میتواند در ایجاد جدول به شما کمک کند، اما نحوهسطرگذاری یا صادرات دادهها را تغییر نمیدهد و گزارش جداگانهای برای مرورهای هوش مصنوعی یا حالت هوش مصنوعی اضافه نمیکند.
اگر زمان زیادی را صرف بازسازی همان نوع گزارشها میکنید، این ویژگی میتواند زمان تنظیم را برای شما صرفهجویی کند. توصیف یک مقایسه در یک جمله آسانتر است تا به یاد آوردن اینکه ماه پیش کدام گزینهها و فیلترها را انتخاب کردهاید.
معایب این است که هنوز باید تأیید کنید هوش مصنوعی دقیقاً چه کاری انجام داده است. وقتی یک نما از یک درخواست نوشتاری بهدست میآید نه از یک سری کلیکهای دستی، احتمال بروز سوءتفاهمهای جزئی که بهصورت گزارش یا ایمیل مشتری ظاهر میشود، آسانتر است.
این جایگزینی برای درک نحوهسازماندهی گزارشهای شما نیست. همچنین جوابی برای سؤال بزرگتر سئوکاران درباره میزان ترافیکی که از سطوح هوش مصنوعی گوگل میآید، ارائه نمیدهد.
در لینکدین، مشاور سئو مستقل برودی کلارک راهاندازی را اینگونه خلاصه کرد:
«وای! کنسول جستجوی گوگل تازه یک جواهر دیگر را عرضه کرد: پیکربندی جدید مبتنی بر هوش مصنوعی برای تحلیل ترافیک جستجوی شما. این ویژگی جدید بهمنظور کاهش میزان تلاش لازم برای انتخاب، فیلتر و مقایسه دادههای شما طراحی شده است.»
سپس او نحوه اعمال فیلترها، تنظیم مقایسهها و انتخاب معیارها برای وظایف رایج را توضیح میدهد.
در زیر پست رسمی Search Central، یک کامنتکننده به شکلی شوخیآمیز به اختلاف بین پیکربندی و دادهها اشاره کرد:
«GSC: «نمای دادهای که میخواهید ببینید را توصیف کنید» من: «به من نشان بده چه مقدار ترافیک از مرورهای هوش مصنوعی و حالت هوش مصنوعی دریافت میکنم» :)»
در مجموع، این یک بهبود واقعی در کیفیت کار است، اما بسیاری از متخصصان سئو هنوز ترجیح میدهند گزارشهای سطح بالای مرورهای هوش مصنوعی و حالت هوش مصنوعی دریافت کنند تا یک روش دیگر برای تقسیم دادههای موجود نتایج جستجو.
مطالعهٔ کامل ما: اضافه شدن پیکربندی مبتنی بر هوش مصنوعی به کنسول جستجوی گوگل
نقشههای گوگل اکنون به کاربران این امکان را میدهد که نظرات را تحت نام نمایشی سفارشی و تصویر پروفایل، بهجای نام واقعی حساب گوگل خود، ثبت کنند. این تغییر بهصورت جهانی پیادهسازی شد و در بهروزرسانیهای اخیر نقشههای گوگل مستند شده است.
این تنظیم را در بخش مشارکتهای پروفایل خود انجام میدهید. پس از انتخاب نام نمایشی و تصویر نمایه، این شناسه در نظرات جدید ظاهر میشود و در صورت ویرایش، میتواند به نظرات قبلی نیز اعمال شود؛ در همین حال، گوگل همچنان تمام این موارد را به حساب واقعی با تاریخچه کامل فعالیتها متصل میکند.
این تغییر صرفاً ظاهری نیست؛ زیرا هویت نظرات، نحوهٔ تفسیر اعتماد و نیت افراد را هنگام بررسی نمایهٔ یک کسبوکار محلی تحتثثیر قرار میدهد.
نظرات همچنان یکی از قویترین عوامل رتبهبندی مکانی هستند، بر اساس نظرسنجی عوامل رتبهبندی جستجوی محلی ویٹسپارک. هنگامی که نامها به نامهای مستعار تبدیل میشوند، نحوهٔ خواندن بازخورد توسط صاحبان کسبوکار و مشتریان تغییر میکند.
برای کسبوکارهای محلی، تشخیص نظردهندگان بهسرعت دشوارتر میشود؛ بازبینی نظرات بهصورت دستیتری احساس میشود چرا که نامها کمتر کاربردی هستند؛ و مالکان ممکن است حس کنند دسترسی کمتری به اینکه چه کسی دربارهٔ کسبوکارشان نظردهی میکند دارند، اگرچه گوگل هنوز حسابهای زیرین را میبیند.
اگر شما بهمدیریت مشتریان محلی میپردازید، احتمالاً زمان صرف شرح این موضوع میکنید که این تغییر نظرات را کاملاً ناشناس نمیکند و استراتژیهای درخواست و پاسخ به نظرات همچنان اهمیت دارند.
در یک پست لینکدین، دارن شاو، بنیانگذار Whitespark، سعی کرد برخی از اضطرابها را کاهش دهد:
«نظرهای داغ: همه بهخاطر این که نظرات ناشناس گوگل موجب رشدی در اسپم نظرات تقلبی میشود، اضطراب دارند؛ اما من اینطور فکر نمیکنم.»
او اشاره میکند که هر کسی که قصد گذاشتن نقدهای تقلبی را دارد، قبلاً میتواند حسابهای موقت بسازد و میگوید که:
«نامهای نمایشی ناشناس ≠ حسابهای ناشناس»
گوگل همچنان دادههای دستگاه، الگوهای رفتاری و تاریخچهٔ کامل مشارکتها را میبیند. بهنظر او، نکتهٔ مهم این است که این تغییر موانع ارائهٔ بازخورد صادقانه در حوزههای «مصرفکننده خجالتی» مانند دفاع کیفری، توانبخشی و مشاورهٔ روانشناختی را کاهش میکند، جایی که افراد نام واقعی خود را در نتایج جستجو نمیخواهند.
نظرات افزوده شده نکات مفیدی میافزایند. کورتیس بویید انتظار دارد «در صنفهای مصرفکننده خجالتی، همزمان افزایش نظرات پنج ستاره و همچنین افزایش نظرات یک ستاره در تمام صنایع رخ دهد، چرا که گوگل مخفیسازی هویت را آسانتر میکند.»
بهطور کلی، این زنجیرهٔ نظرات نشان میدهد که باید به تغییرات حجم نظرات و ترکیب امتیازها، بهویژه در بخشهای حساس، نظارت کنید، بدون اینکه تصور کنید این بهروزرسانی بهتنهایی منجر به افزایش ناگهانی هرزنامه میشود.
مطالعهٔ کامل ما: نقشههای گوگل به کاربران اجازه میدهد نظرات را با نامهای مستعار ارسال کنند
گوگل در حال آزمایش یک جریان جدید موبایلی است که افراد را مستقیم از مرورهای هوش مصنوعی به حالت هوش مصنوعی هدایت میکند؛ وقتی روی «نمایش بیشتر» کلیک میکنند، طبق پستی از روبی استین، معاون محصول جستجوی گوگل.
در نمونههایی که گوگل نشان داده، یک مرور هوش مصنوعی در بالای صفحه نتایج دیده میشود. وقتی آن را گسترش میدهید، نوار «هر سؤال را بپرسید» در پایین ظاهر میشود و نوشتن در این نوار، حالت هوش مصنوعی را باز میکند و پرسوجوی اولیه شما بهصورت یک رشته گفتوگو در دسترس قرار میگیرد.
این تست محدود به دستگاههای موبایل و به کشورهایی است که حالت هوش مصنوعی قبلاً در دسترس است و گوگل هنوز اعلام نکرده که این آزمایش چه مدت ادامه خواهد یافت یا چه زمانی بهصورت گستردهتری اجرا میشود.
این آزمایش خط مرز بین مرورهای هوش مصنوعی بهعنوان ویژگی نتایج جستجو و حالت هوش مصنوعی بهعنوان محصول جداگانه را مخفی میکند. اگر ادامه یابد، کاربری که محتوای شما را در یک مرور میبیند، مسیر واضحی برای پرسیدن سؤالات پیگیری داخل حالت هوش مصنوعی خواهد داشت، بهجای حرکت به سمت نتایج ارگانیک.
در موبایل، جایی که این تست ابتدا اجرا میشود، تأثیر آن قویتر است، چرا که فضای صفحه محدود است. نوار برجسته «هر سؤال را بپرسید» در پایین صفحه، گزینهای واضح برای کاربران ارائه میدهد که نیازی به جستوجوی لینکهای آبی زیر تبلیغات، واحدهای خرید و سایر ویژگیها ندارند.
اگر صفحات شما اکنون در مرورهای هوش مصنوعی ظاهر میشوند، مراقبت از ترافیک موبایلی و نمایشهای مرتبط با هوش مصنوعی ضروری است تا در صورت گسترش این رفتار، دادههای پیش و پس از تغییر را داشته باشید.
در یک پست لینکدین که بهصورت گسترده به اشتراک گذاشته شد، لیلی ری، معاون استراتژی و پژوهش سئو در Amsive، نوشت:
«گوگل امروز اعلام کرد که یک روش جدید برای کاربران آزمایش خواهد کرد تا مستقیماً از مرورهای هوش مصنوعی به حالت هوش مصنوعی کلیک کنند.»
او اشاره میکند که بسیاری از کاربران احتمالاً انتظار دارند «نمایش بیشتر» به نتایج سنتی بازگردد، نه به یک واسط گفتوگو، و این تست را به وضعیت کلی صفحه نتایج پیوند میدهد، به این استدلال که تبلیغات و روشهای حمایتشده جدید، پیدا کردن فهرستهای ارگانیک را دشوارتر میسازند.
دقیقترین نکتهٔ رِی این است:
«در مقایسه با وضعیت فعلی پرآشفتگی نتایج جستجوی گوگل، حالت هوش مصنوعی حس بیاصطکاکی دارد.»
نظرهٔ او این است که گوگل جستجوی سنتی را شلوغتر میسازد، در حالی که حالت هوش مصنوعی تجربهای واضحتر و آسانتر فراهم میکند.
سئوکاران دیگر در نظرات مثالهای ملموسی میآورند. یکی اشاره میکند «تبلیغات پنهان حمایتشده اخیراً بهطور کامل از کنترل خارج شدهاند»، بهگونهای که اولین نتیجهٔ ارگانیک زیر «۵ تا ۶ تبلیغ حمایتشده» قرار میگیرد. دیگری میگوید «از سال ۲۰۰۷ با سئو کار میکنم» و تنها اخیراً مجبور شد پیش از کلیک بر نتایج، متوقف شود، چون نمیدانست آیا آن نتیجه ارگانیک است یا تبلیغ.
نارضایتیهایی نیز دربارهٔ محدودیتهای حالت هوش مصنوعی وجود دارد. یک کامنتکننده توضیح میدهد که «پنجرهٔ زمینه ناگهان تازه میشود و پس از حدود ۱۰ پرسش یا دور، همه چیز را فراموش میکند»، که باعث میشود جلسات تحقیق طولانی دشوار شوند اگرچه نقطهٔ ورود به حالت هوش مصنوعی روانتر میشود.
بهطور کلی، این زنجیرهٔ نظرات هشداری است مبنی بر این که حالت هوش مصنوعی ممکن است حس پاکتری بدهد، اما همچنان کاربران را در گوگل نگهمیدارَد و این تست گامی دیگر در جهت جلب جستجوکنندگان به این تجربه محسوب میشود.
مطالعهٔ کامل ما: اتصال مرورهای هوش مصنوعی به حالت هوش مصنوعی در موبایل توسط گوگل
هر سه بهروزرسانی در همان جهت حرکت میکنند: بخش بیشتری از مسیر جستجو داخل رابطهای خودگوگل اتفاق میافتد.
پیکربندی هوش مصنوعی در کنسول جستجو، زمان ماندن شما در گزارش عملکرد را طولانیتر میکند، چرا که برخی از کارهای تنظیم گزارش را بر عهده میگیرد. نامهای مستعار در نقشهها امکان صحبت آزادتر را فراهم میکند، اما بر روی پلتفرمی که گوگل نحوهٔ ارائه هویت را تعیین میکند. تست انتقال مرورهای هوش مصنوعی به حالت هوش مصنوعی، سؤالات پیگیری را به یک گفتوگو تبدیل میکند که تحت شرایط گوگل عمل میکند، نه شما.
اگرچه این موارد مزایای ملموسی برای استفادهپذیری فراهم میکند، ولی لحظات واضحی که جستجوکننده را از گوگل به سایت شما انتقال میدهد، کمتر میشود.
اگر میخواهید عمیقتر به داستانهای این هفته بپردازید، میتوانید اینها را بخوانید:
و برای درک گستردهتر:
تصویر ویژه: Pixel-Shot/Shutterstock
ردیت بهعنوان یکی از فضاهای انسانیترین باقیمانده در اینترنت شناخته میشود؛ اما مدیران و کاربران با پستهای بیکیفیت در پرطرفدارترین سابردیتها غرق شدهاند.

یک پست ردیت درباره عروسی که عروسی میخواهد مهمان عروسی رنگ خاصی، نامطلوب، بپوشد، بهطرز یقین خشم را برانگیخته میکند؛ حتی پستهایی درباره عروسدستهدار یا مادر داماد که میخواهند لباس سفید بپوشند، میتوانند بیشتر تحریککننده باشند. سناریویی که در آن والدین از کسی در هواپیما میخواهند صندلیاش را عوض کند تا بتوانند کنار فرزند کوچکشان بنشینند، نیز همینگونه احساس خشم را برانگیخته میکند. اما این پستها ممکن است دلسوزی یک مدیر ردیت را بهدلیل دیگری برانگیزند—آنها بهعنوان موضوعات رایجی در یک ژانر رو به رشد از پستهای جعلی تولیدشده توسط هوش مصنوعی شناخته میشوند.
اینها مثالهایی هستند که ذهن کاسی، یکی از دهها مدیر برای r/AmItheAsshole، به یاد میآورد. این سابردیت با بیش از ۲۴ میلیون عضو، یکی از بزرگترین سابردیتهاست و بهصراحت محتوای تولیدشده توسط هوش مصنوعی و داستانهای ساختگی دیگر را ممنوع میکند. از اواخر سال ۲۰۲۲، وقتی ChatGPT برای عموم عرضه شد، کاسی (که فقط میخواست با نام کوچکش صدا زده شود) و دیگر افرادی که وقت خود را برای نظارت بر پستهای ردیت صرف میکنند، با طوفان محتوای هوش مصنوعی روبهرو شدهاند. بخشی از این محتوا بهصورت کامل توسط هوش مصنوعی تولید میشود، در حالی که برخی دیگر کاربران پستها و نظرات خود را با برنامههای هوش مصنوعی مانند Grammarly ویرایش میکنند.
«احتمالاً این مشکل گستردهتر از آن است که کسی بخواهد بهراستی بپذیرد، چون فقط کافی است پست خود را به ChatGPT بدهید و بگویید: «هی، این را جذابتر کن»،» میگوید کاسی، که فکر میکند تا نیمی از تمام محتوای منتشر شده در ردیت بهنوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.
r/AmItheAsshole بهعنوان یکی از ارکان فرهنگ ردیت شناخته میشود؛ این قالب الهامبخش دهها، اگر نه صدها، زیرمجموعهمانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena است؛ این سابردیت با بیش از ۱۰۰ ۰۰۰ عضو، بهصورت «آیا من بدکارم، اما نسخه هندی» توصیف میشود. پستها معمولاً شامل داستانهای مربوط به تعارضات بینفردی هستند که در آن ردیتورهای مختلف میتوانند درباره اینکه چه کسی غلط کرده (“YTA” به معنای “شما بدکار هستید”، در حالی که “ESH” به معنای “همه اینجا بدکارند”)، چه کسی درست است و بهترین مسیر عمل در آینده چیست، نظر دهند. کاربران و مدیران در این زیرمجموعههای r/AmItheAsshole گزارش دادهاند که محتواهای بیشتری را مشاهده میکنند که احتمال میورزند هوش مصنوعی تولید کرده باشد، و دیگران میگویند که این یک مشکل سراسری در همه نوع سابردیتهاست.
«اگر یک سابردیت عمومی درباره عروسی یا AITA، روابط یا چیزی مشابه داشته باشید، بهسختی ضربه میخورد»، میگوید یک مدیر r/AITAH، شاخهای از r/AmItheAsshole که تقریباً ۷ میلیون عضو دارد. این مدیر، یک بازنشسته که تحت شرط ناشناسی صحبت کرد، به مدت ۱۸ سال—اکثراً تمام دورهٔ وجود ردیت—در این پلتفرم فعال بوده و پیش از آن دههها تجربه در حوزهٔ وب داشته است. او هوش مصنوعی را بهعنوان تهدیدی وجودی برای این بستر میداند.
«ردیت خود یا باید اقدامی انجام دهد، یا مار خود دم خود را میبلعد»، او میگوید. «به نقطهای رسیدهایم که هوش مصنوعی در حال تغذیه هوش مصنوعی است.»
در پاسخ به درخواست اظهار نظر، سخنگوی ردیت گفت: «ردیت انسانیترین مکان اینترنت است و ما میخواهیم اینگونه باقی بماند. ما محتوای دستکاریشده و رفتارهای نامصدق را ممنوع میکنیم، از جمله حسابهای ربات هوش مصنوعی که بهصورت گمراهکننده بهعنوان افراد ظاهر میشوند و کمپینهای تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که بهوضوح برچسبگذاری شده باشد، بهطور کلی مجاز است بهشرط اینکه با قوانین جامعهها و قوانین کلی سایت مطابقت داشته باشد.» سخنگو افزود که در نیمه اول سال ۲۰۲۵ بیش از ۴۰ میلیون حذف «هرزنامه و محتوای دستکاریشده» انجام شده است.
آلی، یک زن ۲۶ ساله که در یک کالج جامعهای در فلوریدا تدریس میکند و برای حفظ حریم شخصیاش فقط با نام کوچکش مورد خطاب قرار میگیرد، متوجه شده که ردیت در سال گذشته بهدلیل هوش مصنوعی «به طور واقعی بهسوی پایین رفت». احساسات او توسط سایر کاربران در سابردیتهایی مانند r/EntitledPeople، r/simpleliving و r/self نیز به اشتراک گذاشته شده؛ جایی که پستهای سال گذشته بهافزایش شبیهسازیهای مشکوک به هوش مصنوعی پرداختند. فقط امکان اینکه محتوا ممکن است توسط هوش مصنوعی تولید شده باشد، کافی است تا اعتماد بین کاربران را کاهش دهد. «هوش مصنوعی ردیت را به گویایی زباله تبدیل کرده است»، یک کاربر در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود خود هوش مصنوعی همانند داشتن یک جاسوس در اتاق است. شککردن بهخودی خود دشمنی است.» آلی قبلاً از خواندن سابردیتهای مانند r/AmIOverreacting لذت میبرد. اما اکنون نمیداند آیا تعاملات او واقعی هستند یا نه، و زمان کمتری را نسبت به سالهای گذشته در این پلتفرم میگذراند.
«هوش مصنوعی همه را خسته میکند»، میگوید مدیر r/AITAH. «میبینم مردم مقدار زیادی وقت و انرژی برای یافتن منابع صرف میکنند، فقط برای اینکه با پاسخهای «ها، تو افتادید به تله، این همه دروغ است» مواجه شوند.»
راههای مطمئنی برای اثبات اینکه چیزی هوش مصنوعی تولید شده است یا نه وجود ندارد، و اکثر مردم روزمره به حس ششم خود متکیاند. ارزیابی متن میتواند حتی دشوارتر از ارزیابی عکسها و ویدیوها باشد، که اغلب نشانههای واضحی دارند. پنج ردیتور که با WIRED مصاحبه کردند، هر کدام استراتژیهای متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی دارند. کاسی متوجه میشود که وقتی پستها عنوان خود را بهصورت کلمه به کلمه در متن بدنه تکرار میکنند یا از خط فاصله (dash)های طولانی استفاده میکنند، یا وقتی نویسنده در تاریخچه نظرات خود اشکالات جدی املا و نقطهگذاری دارد ولی پست با گرامر کامل میآید. آلی از حسابهای تازهساخته ردیت و پستهایی که در عنوان ایموجی دارند، دچار سردرگمی میشود. مدیر r/AITAH احساس «دریای ناخوشایند» (uncanny valley) را از برخی پستها دریافت میکند. اما این «نشانهها» میتوانند در پستهای غیرهوش مصنوعی نیز حضور داشته باشند.
«در این مرحله، این حس یکجوری «میدونی که وقتی میبینی» است»، میگوید تراویس لوید، دانشجوی دکتری در Cornell Tech که پژوهش در مورد چالشهای جدید ناشی از هوش مصنوعی که مدیران ردیت با آن مواجهند منتشر کرده است. «در حال حاضر ابزاری بینقص برای تشخیص آن بهصورت صد در صد وجود ندارد. بنابراین افراد استراتژیهای خود را دارند، اما لزوماً کاملاً تضمینکننده نیستند.»
علاوه بر این، همانطور که متنهای هوش مصنوعی بیشتری بهصورت عمومی ظاهر میشوند، مردم شروع به تقلید از ویژگیهای زبانی مشترک متنهای هوش مصنوعی میکنند، صرفنظر از اینکه خود از هوش مصنوعی استفاده میکنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی پیچیدهتر باشد، زیرا این پلتفرم از شرکتهای هوش مصنوعی مانند Anthropic و Perplexity بهدلیل استخراج بدون رضایت محتوای ردیت برای آموزش چتباتها شکایت کرده است. نتایج خلاصهسازی هوش مصنوعی گوگل بهطور پرآوازه از کامنتهای ردیت بهدستآمدهاند که در واقع جوکهای طنزآمیز هستند، مانند کاربری که پیشنهاد کرد از چسب برای بهتر چسباندن پنیر به لبه پیتزا استفاده شود.
«هوش مصنوعی از مردم آموزش میبیند و مردم آنچه را میبینند دیگران انجام میدهند، کپی میکنند»، میگوید کاسی. «مردم بیشتر شبیه هوش مصنوعی میشوند و هوش مصنوعی نیز شبیه مردم میشود.»
هر دو مدیر AITA میگویند که روندی از پستهای جلبخشم که میتوانند توسط هوش مصنوعی نوشته شوند و بهنظر میرسد فقط برای تخریب افراد ترنس و سایر جمعیتهای آسیبپذیر وجود دارند، مشاهده کردهاند. مدیر r/AITAH میگوید که این سابردیت در طول ماه پراید (ماه افتخار) با حجم عظیمی از محتوای ضدترنس مواجه شد، در حالی که کاسی میگوید این پستها بهصورت متناوب در صفهای مدیریت ظاهر میشوند.
«چیزهایی مثل ‘والدینم اسم انتخابیام را استفاده نکردند و من ترنس هستم و از آنها عصبان شدم چون چه جرأت کردند؟’ یا ‘کسی جنسیت من را فرض کرد و من سِیسجندر هستم، اما چه جرأت کردند فرض کنند؟’» میگوید کاسی. «هدفشان فقط تحریک خشم شما نسبت به افراد ترنس، همجنسگرایان، سیاهپوستان و زنان است.»
در سابردیتهایی که محوریت اخبار و سیاستها را دارند، هوش مصنوعی راههای جدیدی برای انتشار اطلاعات نادرست فراهم کرده است. این مسأله توسط تام، ردیتوری که بهمدت سه سال در مدیریت r/Ukraine نقش داشته و فقط با نام کوچک خود برای حفظ حریم شخصیاش سخن میگفت، در کنار تکنیکهای دستکاری اجتماعی مانند استروترفینگ که پیش از برنامههای نظیر ChatGPT وجود داشت، مشاهده شد. اما اکنون هوش مصنوعی میتواند این تاکتیکها را خودکار کند و این امر نظارت انسانی را دشوارتر میسازد.
«مثل مردی بود که ایستاده در یک تپه در برابر یک موج عظیم بود»، تام میگوید. «میتوانید با چنین هزینهای کم، صدای بسیار زیادی خلق کنید.»
در r/Ukraine که نزدیک به یک میلیون عضو دارد، تام بهیاد دارد که از سایر مدیران آموزش دریافت کرد تا انتشار تبلیغات روسیه را کاهش دهد و حتی از پشتیبانی تخصصی از سوی مدیران ردیت بهرهمند شد؛ این افراد یک قدم بالاتر از داوطلبان هستند و بهطور رسمی برای ردیت کار میکنند و حقوق میگیرند.
علاوه بر انگیزههای ایدئولوژیک، روشهای ناشناختهای برای کسب درآمد از محتوای ردیت نیز وجود دارد. برخی واضحتر هستند، مانند برنامه مشارکتکنندگان ردیت (Reddit Contributor Program)، که به پستکنندگان امکان میدهد با دریافت رأیهای مثبت (که بهعنوان «کارما» شناخته میشود) و جوایزی که دیگر کاربران میتوانند برایشان خریداری کنند، پول کسب کنند. افراد فعال در ردیت میتوانند بهصورت نظری از محتوای تولیدشده توسط هوش مصنوعی برای جمعآوری کارما، سود بردن از آن و حتی فروش حسابهای خود استفاده کنند.
«حساب ردیت من ارزش پول زیادی دارد و میدانم چون افراد مدام سعی میکنند آن را بخرید»، تام میگوید. «میتواند برای مقاصد نیرنگآمیز نیز استفاده شود، اما بهنظر میرسد بسیاری از این موارد توسط افرادی هستند که خسته و وقت دارند؛ آنها میگویند: «خب، میتوانم در یک ماه با انجام تقریباً هیچ کاری، صد دلار درآمد داشته باشم.»»
حسابهای دیگر برای بهدست آوردن کارما نیاز دارند تا بتوانند در سابردیتهای NSFW (محتوای بزرگسالان) که نیاز به حداقل کارما دارند، پست کنند؛ سپس میتوانند لینکهای OnlyFans را تبلیغ کنند. هم کاسی و هم مدیر r/AITAH متوجه شدهاند که حسابها در سابردیتهای بزرگترشان فعالیت میکنند تا کارما جمعآوری کنند و سپس به انتشار محتوای بزرگسالان بپردازند. برخی از این حسابها کلاهبردار هستند؛ در حالی که دیگران شاید فقط سعی دارند معیشت خود را تأمین کنند.
«گاهی واقعی است، گاهی یک تعارض واقعی که تجربه کردهاند، گاهی ساختگی است، اما بههر صورت توسط هوش مصنوعی تولید شده است»، میگوید کاسی. «تقریباً میخواهم آن را بازیوارسازی (gamification) بنامم، یعنی آنها فقط سعی دارند از سیستم به شیوهای که طراحی شده استفاده کنند.»
زمان اضافی که مدیران ردیت برای بررسی محتویات احتمالی هوش مصنوعی صرف میکنند، بازتابی است از اینکه محتواهای هوش مصنوعی بهطور کلی موانع جدیدی ایجاد کردهاند؛ امری که فراتر از حوزه نظارت بر شبکههای اجتماعی است.
«آنچه مدیران ردیت با آن مواجهاند همان مشکلی است که مردم در سراسر جهان اکنون با آن روبهرو هستند: سازگار شدن با دنیایی که تولید محتوای هوش مصنوعی با ظاهر قابل اطمینان بهطرز بینهایت آسان است، اما ارزیابی آن بسیار دشوارتر میشود»، میگوید لوید. «این بار سنگینی واقعی برای آنهاست، همانطوری که برای معلمان و دیگران نیز صادق است.»