بلاگ

  • برند کیف‌سفر Béis به‌خاطر ایمیل بازاریابی تقلبی با عنوان «هشدار تقلب» تحت بررسی است

    ایمیل Beis با عنوان "نیاز به اقدام: هشدار تقلب"
    ایمیل تقلبی «هشدار تقلب» Béis واکنش‌های منفی را برانگیخته است. (جسیکا لوینسون، لینکدین)

    نوشتهٔ اریکا ویلِس

    مصرف‌کنندگان و اینفلوئنسرها خشم خود را در شبکه‌های اجتماعی ابراز می‌کنند.

  • تحقیقات هوش مصنوعی با مشکل بی‌کیفیتی مواجه است؛ محققان می‌گویند: «وضعیت هرج‌ومرج است»

    تحقیقات هوش مصنوعی زیر سؤال قرار گرفته است؛ چرا که نویسنده ادعا می‌کند بیش از ۱۰۰ مقاله درباره هوش مصنوعی نوشته است؛ که یک کارشناس آن را «فاجعه» می‌نامد.

    یک فرد ادعا می‌کند که در این سال ۱۱۳ مقاله علمی در حوزه هوش مصنوعی منتشر کرده است؛ ۸۹ مقاله از اینها امشب در یکی از برترین همایش‌های جهان در زمینه هوش مصنوعی و یادگیری ماشین ارائه می‌شود؛ که این موضوع سؤالاتی را در میان محققان علوم کامپیوتر درباره وضعیت پژوهش‌های هوش مصنوعی برانگیخته است.

    نویسنده، کوین ژو، به‌تازگی مدرک لیسانس علوم کامپیوتر خود را از دانشگاه کالیفرنیا، برکلی دریافت کرده و اکنون شرکت Algoverse را که یک شرکت تحقیق و مشاوره هوش مصنوعی برای دانش‌آموزان دبیرستانی است – بسیاری از این دانش‌آموزان هم‌نویسندگان او در مقالات می‌باشند – اداره می‌کند. ژو خود در سال ۲۰۱۸ دیپلم دبیرستان خود را به‌دست آورد.

    مقالاتی که او در دو سال گذشته منتشر کرده است، شامل موضوعاتی مانند به‌کارگیری هوش مصنوعی برای شناسایی چوپانان کوچ‌نشین در جنوب صحرای آفریقا، ارزیابی ضایعات پوستی، و ترجمه گویش‌های اندونزیایی می‌شود. در صفحهٔ لینکدین‌اش، او ادعا می‌کند که «بیش از ۱۰۰ مقاله در کنفرانس‌های برتر در سال گذشته» منتشر کرده و این مقالات «توسط OpenAI، مایکروسافت، گوگل، استنفورد، MIT، آکسفورد و دیگران» ارجاع داده شده‌اند.

    پپ‌های ژو یک «فاجعه» است، هانی فرید، استاد علوم کامپیوتر در برکلی، در مصاحبه‌ای گفت. «من تقریباً مطمئن هستم که تمام این کار، از بالا تا پایین، صرفاً کدنویسی با هوش مصنوعی است»، او افزود، که به معنای استفاده از هوش مصنوعی برای ایجاد نرم‌افزار است.

    فرید در یک پست اخیر در لینکدین به انتشار پراکندهای مقالات ژو اشاره کرد؛ این موضوع بحثی درباره موارد مشابه دیگر در میان پژوهشگران هوش مصنوعی برانگیخت، که گفته‌اند این رشته‌ای که به‌تازگی پرطرفدار شده، با سیلابی از مقالات کم‌کیفیت مواجه است؛ این مسأله ناشی از فشارهای دانشگاهی و، در برخی موارد، ابزارهای هوش مصنوعی است.

    در پاسخ به سؤال گاردین، ژو اعلام کرد که بر ۱۳۱ مقاله نظارت داشته است؛ این مقالات «پروژه‌های تیمی» هستند که توسط شرکتش Algoverse اجرا می‌شوند. این شرکت برای دانش‌آموزان دبیرستانی و دوره‌های کارشناسی مبلغ ۳,۳۲۵ دلار بابت برنامهٔ انتخابی ۱۲ هفته‌ای مشاورهٔ آنلاین دریافت می‌کند – برنامه‌ای که شامل کمک برای ارسال کارها به همایش‌ها می‌شود.

    «در حداقل، من به بررسی روش‌شناسی و طراحی آزمایشی در پیشنهادها کمک می‌کنم و پیش‌نویس‌های کامل مقاله‌ها را پیش از ارسال می‌خوانم و نظراتم را اعلام می‌کنم»، او گفت و افزود که پروژه‌های مرتبط با حوزه‌های زبان‌شناسی، بهداشت یا آموزش شامل «پژوهشگر اصلی یا مربی با تخصص مرتبط» می‌شوند.

    تیم‌ها از «ابزارهای استاندارد بهره‌وری نظیر مدیران ارجاع، بررسی‌کنندهٔ املایی، و گاهی مدل‌های زبانی برای ویرایش متن یا بهبود وضوح» استفاده کردند، او در پاسخ به این سؤال که آیا مقالات با هوش مصنوعی نوشته شده‌اند، گفت.

    ناظران ربات‌ها در آشفتگی

    استانداردهای بازبینی مقالات در حوزه هوش مصنوعی با بیشتر حوزه‌های علمی دیگر متفاوت است. بیشتر کارهای هوش مصنوعی و یادگیری ماشین تحت فرآیند دقیق بررسی همتاهای علمی مانند در شیمی یا زیست‌شناسی قرار نمی‌گیرند؛ در عوض، مقالات اغلب به‌صورت غیررسمی‌تر در همایش‌های بزرگی چون NeurIPS – یکی از معتبرترین همایش‌های جهانی یادگیری ماشین و هوش مصنوعی – که ژو قرار است در آن ارائه دهد، ارائه می‌شوند.

    موارد ژو به یک مسألهٔ بزرگ‌تر در پژوهش هوش مصنوعی اشاره می‌کند، فرید گفت. همایش‌هایی از جمله NeurIPS با افزایش قابل توجهی در تعداد مقالات دریافتی مواجه هستند: این همایش در سال جاری ۲۱٬۵۷۵ مقاله دریافت کرده است که در سال ۲۰۲۰ کمتر از ۱۰٬۰۰۰ مقاله دریافت می‌کرد. یک همایش برتر دیگر هوش مصنوعی، International Conference on Learning Representations (ICLR)، گزارش داد که تعداد مقالات سالانهٔ خود برای همایش ۲۰۲۶، ۷۰٪ افزایش یافته است و به‌حدی نزدیک به ۲۰٬۰۰۰ مقاله رسیده؛ در مقایسه با بیش از ۱۱٬۰۰۰ مقاله در همایش ۲۰۲۵.

    «نقادان از کیفیت پایین مقالات شکایت می‌کنند، حتی گمان می‌دارند که برخی به‌وسیلۀ هوش مصنوعی تولید شده‌اند. چرا این جشنوارهٔ علمی طعم خود را از دست داده؟» این سؤال توسط وبلاگ فناوری چینی ۳۶Kr در یک پست نوامبر درباره ICLR مطرح شد و به این نکته اشاره کرد که میانگین امتیازهای داده‌شده به مقالات توسط بازبین‌ها سال به سال کاهش یافته است.

    در این میان، دانشجویان و پژوهشگران تحت فشار روزافزون برای افزایش تعداد مقالات و هم‌سطحی شدن با همتایانشان قرار دارند. تولید دو رقمی (و حتی سه رقمی) مقالهٔ علمی با کیفیت بالا در زمینهٔ علوم کامپیوتری در یک سال، امری نادر است؛ محققان اظهار داشتند. فرید می‌گوید که گاهی دانش‌آموزان او برای افزایش شمار مقالات خود، مقالاتی را با کدنویسی هوش مصنوعی تهیه می‌کنند.

    «بسیاری از جوانان می‌خواهند وارد هوش مصنوعی شوند. در حال حاضر یک هوس بزرگ وجود دارد»، فرید گفت.

    NeurIPS مقالات ارسالی را بازبینی می‌کند، اما فرایند آن بسیار سریع‌تر و کمتر دقیق نسبت به ارزیابی همتاهای علمی استاندارد است، جفری والینگ، استادیار دانشگاه ویرجینیای تک، گفت. در سال جاری، این همایش از تعداد زیادی دانشجوی دکترا برای ارزیابی مقالات بهره گرفته است؛ که یک رئیس بخش NeurIPS اعلام کرد این أمر فرایند را به‌خطر انداخته است.

    «واقعیت این است که بسیاری از ارزیابان همایش‌ها مجبورند در مدت زمان کوتاهی ده‌ها مقاله را بررسی کنند و معمولاً امکان اصلاح یا بازنگری وجود ندارد»، والینگ گفت.

    والینگ با فرید موافقت کرد که در حال حاضر تعداد زیادی مقاله منتشر می‌شود و گفت که با نویسندگانی که بیش از ۱۰۰ مقاله در یک سال منتشر کرده‌اند، مواجه شده است. «در دنیای آکادمیک، بیشتر برای حجم انتشار مقالات پاداش می‌دهند نه برای کیفیت… همه به افسانهٔ بهره‌وری فوق‌العاده علاقه‌مندند»، او افزود.

    در صفحهٔ پرسش‌های متداول (FAQ) Algoverse متعلق به ژو، توضیح داده می‌شود که چگونه برنامهٔ این شرکت می‌تواند افق‌های تحصیلی یا شغلی درخواست‌کنندگان را ارتقا بخشد. او می‌گوید: «مهارت‌ها، دستاوردها و انتشاراتی که اینجا به‌دست می‌آورید، در جامعهٔ علمی بسیار مورد احترام است و می‌تواند به‌طرز چشمگیری پروندهٔ پذیرش دانشگاه یا رزومهٔ شما را تقویت کند. این امر به‌ویژه در صورتی صادق است که پژوهش شما در یک همایش برتر پذیرفته شود – دستاوردی معتبر حتی برای پژوهشگران حرفه‌ای.»

    فرید می‌گوید که اکنون به دانش‌آموزان توصیه می‌کند از ورود به پژوهش‌های هوش مصنوعی خودداری کنند، زیرا «هوس» موجود در این حوزه و حجم بالای کارهای کم‌کیفیت که افراد برای بهبود چشم‌انداز شغلی خود منتشر می‌کنند، در حال گسترش است.

    سیل بی‌کیفیتی

    کارهای برجسته‌ای همچنان از این روند به‌دست آمده است. به‌عنوان مثال، مقالهٔ گوگل دربارهٔ ترانسفورمرها با عنوان «Attention Is All You Need» — که پایهٔ نظری پیشرفت‌های هوش مصنوعی منجر به ChatGPT است — در سال ۲۰۱۷ در NeurIPS ارائه شد.

    سازمان‌دهندگان NeurIPS تصدیق کردند که این همایش تحت فشار است. در اظهار نظری به گاردین، یک سخنگوی این همایش گفت که رشد هوش مصنوعی به‌عنوان حوزه‌ای، «افزایش قابل‌توجهی در تعداد مقالات ارسالی و ارزش افزوده در پذیرش‌های بازبینی همتا در NeurIPS» را به همراه داشته است؛ که «بار سنگینی بر سیستم ارزیابی ما وارد کرده است».

    مقالات ارسالی ژو عمدتاً در کارگاه‌های NeurIPS بوده‌اند، که فرآیند انتخاب متفاوتی نسبت به همایش اصلی دارند و معمولاً محلی برای ارائهٔ کارهای تازه‌کارانه هستند، به‌نظر برگزار‌کنندگان NeurIPS. فرید افزود که این توجیهی قانع‌کننده برای اینکه یک نفر نام خود را بر بیش از ۱۰۰ مقاله بگذارد، به‌نظر نمی‌رسد.

    «این توجیه برای افزودن نام خود بر ۱۰۰ مقاله که به‌طور معنا‌داری نمی‌توانستید در آن‌ها مشارکت کنید، برایم قانع‌کننده نیست»، فرید گفت.

    این مشکل بزرگ‌تر از سیل مقالات در NeurIPS است. ICLR برای بررسی حجم زیادی از ارسال‌ها از هوش مصنوعی بهره برد؛ که به‌نظر می‌رسید منجر به ارجاعاتی «تخیلی» و بازخوردی «بسیار پرحرف با تعداد زیادی نکته‌نامه» شده است، طبق مقاله‌ای اخیر در Nature.

    احساس کاهش کیفیت به حدی گسترده شد که یافتن راه‌حل برای این بحران خود به‌عنوان موضوعی برای مقالات بدل گشت. مقالهٔ موضعی‌ای که در ماه می ۲۰۲۵ منتشر شد — نسخهٔ علمی و مبتنی بر شواهدی از یک مقالهٔ سرخط روزنامه — توسط سه دانشمند کامپیوتر کرهٔ جنوبی تألیف شد که راه‌حلی برای «چالش‌های بی‌سابقهٔ رشدی که در ارسال مقالات رخ داده، به‌همراه نگرانی‌های فزاینده درباره کیفیت ارزیابی و مسئولیت داوران» ارائه داد؛ این مقاله جوایز کار برتر را در همایش بین‌المللی یادگیری ماشین ۲۰۲۵ به خود اختصاص داد.

    در همین حال، به گفته فرید، شرکت‌های بزرگ فناوری و سازمان‌های کوچک ایمنی هوش مصنوعی کارهای خود را در arXiv بارگذاری می‌کنند؛ سایتی که پیش‌تر فقط برای پیش‌چاپ‌های با بازدید کم در حوزهٔ ریاضیات و فیزیک استفاده می‌شد، و این امر اینترنت را با کارهایی که به‌عنوان علم ارائه می‌شوند پر کرده است — اما تحت استانداردهای بازبینی قرار ندارند.

    هزینهٔ این وضعیت، به گفته فرید، این است که برای خبرنگاران، عموم مردم و حتی کارشناسان این حوزه تقریباً غیرممکن است بفهمند در هوش مصنوعی چه اتفاقی می‌افتد. «به‌عنوان خوانندهٔ متوسط، شما شانس ندارید که بفهمید چه‌ می‌گذرد در ادبیات علمی. نسبت سیگنال به نویز شما تقریباً یک است. من به سختی می‌توانم به این همایش‌ها بروم و بفهمم چه جهنمی در جریان است.»

    «چیزی که به دانشجویان می‌گویم این است که اگر هدف شما انتشار مقالات است، صادقانه بگویم کار خیلی سختی نیست. فقط کارهای بسیار ضعیف و کم‌کیفیت انجام دهید و آنها را به‌صورت انبوه به کنفرانس‌ها بفرستید. اما اگر می‌خواهید کارهای دقیق و اندیشمندانه انجام دهید، در یک موقعیت نامساعد هستید، زیرا عملاً به‌تنهایی سلاح ندارید»، او افزود.

  • محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    بسیاری از شرکت‌ها به‌طور فزاینده‌ای دسترسی به ChatGPT و ابزارهای مشابه هوش مصنوعی را مسدود می‌کنند، عمدتاً به دلیل نگرانی از نشت احتمالی داده‌ها.

    سازمان‌ها نگران‌اند که مدل‌های هوش مصنوعی حاوی اطلاعات محرمانه‌ای باشند، که می‌تواند منجر به آسیب‌پذیری‌های امنیتی شود وقتی کاربران در سراسر جهان با درخواست‌های خود سعی می‌کنند از این مدل‌ها استخراج کنند.

    در نتیجه، شرکت‌ها سیاست‌های دیجیتالی سختگیرانه‌تری را اعمال کرده و دسترسی به پلتفرم‌های خارجی هوش مصنوعی را محدود می‌سازند، حتی اگر این ابزارها می‌توانند بهره‌وری و نوآوری را ارتقا دهند.

    دانشگاه‌ها و مؤسسات آموزشی نیز کنترل‌ها را سخت‌تر می‌کنند و از سامانه‌های تشخیص برای شناسایی محتواهای تولید شده توسط هوش مصنوعی در تکالیف استفاده می‌نمایند.

    آموزگاران بر این باورند که استفادهٔ نامحدود از هوش مصنوعی می‌تواند رشد تفکر انتقادی، خلاقیت و مهارت‌های بنیادی را مختل کند.

    این موضع باعث بروز بحث‌هایی شده است که آیا چنین محدودیت‌هایی به‌واقع محافظت از فرآیند یادگیری را تضمین می‌کند یا صرفاً مانع از ارتقای سواد فناورانهٔ دانش‌آموزان می‌شود؛ سواد فناورانه‌ای که آیندهٔ آنان را شکل خواهد داد.

    به‌طور کلی، محدودیت‌های افزایشی اعمال‌شده بر هوش مصنوعی سؤالات مهمی را دربارهٔ پیامدهای طولانی‌مدت برای خود مدل‌های هوش مصنوعی و رابطهٔ جامعه با هوش مصنوعی نوظهور برانگیخته می‌کند.

    محدود کردن استفاده می‌تواند آشنایی عمومی با هوش مصنوعی را کندتر کند و تنوع به‌کارگیری آن را کاهش دهد.

    در مسیر پیشرفت، یافتن تعادل میان امنیت، اخلاق و نوآوری برای اطمینان از این‌که هوش مصنوعی به‌گونه‌ای تکامل یابد که هم امنیت سازمانی و هم رشد شناختی انسان را پشتیبانی کند، امری اساسی خواهد بود.

  • کلودفلر می‌گوید که در پنج ماه ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است — مدیرعامل هشدار می‌دهد که مدل کسب‌وکار اینترنت به‌طور چشمگیری تغییر خواهد کرد

    نوشته جویی موراتس

    دفتر کلودفلر
    اعتبار تصویر: گتی ایمیجز / ساندری فوتوگرافی

    متیو پرینس، مدیرعامل کلودفلر، اعلام کرد که شرکتش بیش از ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است، از زمان اینکه در جولای امسال پس از اعلام ابتکار «روز استقلال محتوا» این گزینه را به‌صورت پیش‌فرض فعال کرد. پرینس در مصاحبه‌ای با Wired گفت این ویژگی به صاحبان وب‌سایت‌ها اجازه می‌دهد که به‌طور پیش‌فرض ربات‌های هوش مصنوعی را مسدود کنند، مگر این که شرکت هوش مصنوعی برای دسترسی به محتوایشان هزینه‌ای پرداخت کند.

    «مدل کسب‌وکار اینترنت همواره بر پایه تولید محتوایی است که ترافیک را جذب می‌کند و سپس از طریق فروش کالاها، اشتراک‌ها یا تبلیغات درآمدزایی می‌شود»، پرینس به Wired گفت. «اما چیزی که مردم معمولاً درک نمی‌کنند این است که هوش مصنوعی یک تحول سکو (پلتفرمی) است. مدل کسب‌وکار اینترنت در آستانه تغییر چشمگیری است. هنوز نمی‌دانم به چه سمت‌ایی تغییر خواهد کرد، اما این مسأله‌ای است که تقریباً تمام ساعت‌های بیداری‌ام را به فکر آن می‌گذرانم.»

    اگرچه کلودفلر تقریباً تمام ربات‌های هوش مصنوعی را مسدود می‌کند، یک ربات خاص وجود دارد که نمی‌توان بدون تأثیر بر حضور آنلاین مشتریان آن را مسدود کرد — گوگل. این غول جستجو ترکیب‌کردن ربات جستجو و ربات هوش مصنوعی خود را به یک ربات ترکیبی درآورد، به این معنا که کاربرانی که از ربات هوش مصنوعی گوگل انصراف می‌دهند، در نتایج جستجوی گوگل نیز فهرست نمی‌شوند. پرینس ادامه داد: «نمی‌توانید از یکی صرف‌نظر کنید بدون اینکه از هر دو انصراف دهید؛ این یک چالش واقعی است — دیوانه‌کننده است.» «نباید این‌چنین باشد که بتوانید از موقعیت انحصاری دیروز خود بهره‌برداری کنید تا موقعیت انحصاری در بازار فردا بدست آورید.»

    محتوای تولید شده توسط انسان برای شرکت‌های هوش مصنوعی برای آموزش مدل‌هایشان حیاتی است؛ تحقیقات نشان داده‌اند که مدل‌های هوش مصنوعی زمانی که بر پایه داده‌های تولید شده توسط هوش مصنوعی آموزش می‌بینند، کیفیت پایین‌تری تولید می‌کنند. خلاصه‌سازی‌های هوش مصنوعی ثابت کرده‌اند که ترافیک وب‌سایت‌ها را کاهش می‌دهند — به‌ویژه برای سایت‌هایی که به شدت به دیده‌شدن و بازدید برای درآمد تبلیغاتی وابسته‌اند — اما قراردادهای مجوز می‌توانند این کمبود را جبران کنند و به انتشارات آنلاین امکان می‌دهند که همچنان منبع درآمد قابل‌اعتمادی برای خالقان و ناشران باشند.

    کلودفلر همچنین از اینترنت متنوعی که محتوای واقعی انسان‌ها را میزبانی می‌کند، سود خواهد برد. مدیرعامل این شرکت به Wired گفت که به‌دنبال آینده‌ای هستند که در آن خالقان و کسب‌وکارها بر روی یک سطح برابر رشد کنند، زیرا وب‌سایت‌های بیشتری نیاز به محافظت دارند و این مسأله منجر به جذب مشتریان بیشتری برای کلودفلر می‌شود. این امر آن را به یکی از بزرگ‌ترین شبکه‌های تحویل محتوا در جهان تبدیل کرده است؛ به‌طوری‌که در سال ۲۰۲۲، ۷۹٫۹٪ از بازار را در اختیار داشته است. با این حال، این وضعیت اینترنت را در برابر خطرات آسیب‌پذیر می‌کند؛ همان‌طور که یک فایل پیکربندی اشتباه در نوامبر باعث از کار افتادن بخش عظیمی از وب شد.

    این مسأله، مشکل فعلی زیرساخت وب جهانی را که وابسته به تنها چند شرکت بزرگ — از جمله AWS، Azure، کلودفلر، CrowdStrike و گوگل — برای سرویس‌دهی به تمام کره زمین است، برجسته می‌کند. اگرچه این نهادها کار را برای شرکت‌هایی که به اینترنت وابسته‌اند ساده‌تر و کارآمدتر کرده‌اند، اما به این معناست که حتی یک قطعی در این خدمات می‌تواند ضررهای میلیاردی و اختلالات شدید در سرتاسر جهان به بار آورد.

  • «پدرخوانده هوش مصنوعی» گریفی هینتون می‌گوید گوگل در حال «پیشی گرفتن» از OpenAI است: «حدس من این است که گوگل بر خواهد شد»

    گریفی هینتون در یک رویداد سخن می‌گوید
    پیشرو هوش مصنوعی گریفی هینتون می‌گوید گوگل با ساخت سخت‌افزار خود برتری دارد. پونتوس لوندال/خبرگزاری تی‌تی/ای‌اف‌پی از طریق گتی ایمیجز
    • گریفی هینتون گفت از اینکه گوگل این‌قدر طول کشید تا در مسابقه هوش مصنوعی پیشی بگیرد، شگفت‌زده شد.
    • گوگل به‌دلیل عرضهٔ مدل‌های Gemini 3 و Nano Banana Pro تحسین‌های فراوانی دریافت کرد.
    • هینتون، پیشگام هوش مصنوعی که پیش از این در Google Brain کار می‌کرد، گفت این غول فناوری احتمالاً OpenAI را پشت سر خواهد گذاشت.

    «پدرخوانده هوش مصنوعی» معتقد است که زمان آن رسیده که گوگل در مسابقه هوش مصنوعی پیشی بگیرد.

    «به‌نظر من، حتی شگفت‌انگیزتر است که گوگل این‌قدر طول کشیده تا OpenAI را پیشی بگیرد»، گریفی هینتون، استاد بازنشسته دانشگاه تورنتو که پیش از این در Google Brain مشغول به کار بود، در مصاحبه‌ای با Business Insider روز سه‌شنبه گفت.

    گوگل پس از رونمایی پرتحسینی که از Gemini 3 انجام داد، به‌نظر برخی متخصصان فناوری، این به‌روزرسانی شرکت را به سطحی فراتر از GPT‑5 OpenAI ارتقا می‌دهد. مدل تصویر هوش مصنوعی Nano Banana Pro این شرکت نیز به‌عنوان یک موفقیت ثابت شده است.

    سه‌سال پس از آنکه گوگل به‌طور گزارش‌شده پس از انتشار ChatGPT اعلام «کد قرمز» کرد، گزارش‌های اخیر نشان می‌دهند که حالا این OpenAI است که زنگ خطر را می‌زند.

    هینتون درباره موقعیت گوگل نسبت به OpenAI گفت: «فکر می‌کنم در حال حاضر آن‌ها در حال پیشی گرفتن است».

    در کنار موفقیت انتشار آخرین مدل هوش مصنوعی‌اش، سهام گوگل به‌دلیل گزارش‌هایی که ممکن است قرارداد میلیارد دلاری برای تأمین Meta با تراشه‌های هوش مصنوعی خود بسته شود، رشد کرد.

    ساخت تراشه‌های خود، یک «مزیت بزرگ» برای گوگل است، هینتون گفت.

    او گفت: «گوگل دارای پژوهشگران بسیار خوب، داده‌های فراوان و مراکز دادهٔ متعدد است. حدس من این است که گوگل برنده خواهد شد.»

    هینتون که در طول دوران کاری خود در Google Brain به پیشبرد پژوهش‌های هوش مصنوعی کمک کرده بود، گفت که این غول جستجوگر روزی در خط مقدم هوش مصنوعی بود اما خود را محدود کرد.

    او گفت: «گوگل مدت طولانی در صدر بود، نه؟» «گوگل مخازن (transformers) را اختراع کرد. گوگل پیش از دیگران چت‌بات‌های بزرگ داشت.»

    هینتون گفت گوگل پس از راه‌اندازی فاجعه‌بار چت‌بات هوش مصنوعی «Tay» مایکروسافت در سال ۲۰۱۶، که پس از انتشار توییت‌های نژادپرستانه از سرویس خارج شد، محتاط شد.

    او افزود: «گوگل، طبیعتاً، شناخت خوبی داشت و نگران بود که به‌این‌سان به اعتبار خود آسیب برساند.»

    سندار پیشی، مدیرعامل گوگل، پیشتر گفته بود که شرکت در انتشار چت‌بات خود محتاط بوده است.

    پیشی در اوایل امسال گفت: «ما هنوز به سطحی نرسیده بودیم که بتوانیم محصول را منتشر کنیم و مردم با انتشار آن توسط گوگل مشکلی نداشته باشند. آن زمان هنوز مشکلات زیادی داشت.»

    در گذشته، این شرکت برخی عرضه‌های ناپایدار داشته است. فقط سال گذشته، گوگل مجبور شد تولیدکنندهٔ تصویر هوش مصنوعی خود را متوقف کند پس از اینکه برخی کاربران شکایت کردند که نتایج نشان‌دهندهٔ تصاویر تاریخی نادرست از افراد رنگین‌پوست که برای برخی بیش از حد حساس (woke) بود. خلاصه‌های جستجوی اولیهٔ هوش مصنوعی آن‌ها مشاوره‌های بی‌معنی، مانند چسباندن چسب به پیتزا برای جلوگیری از سقوط پنیر، تولید می‌کرد.

    گوگل به‌تازگی کمک مالی بزرگی به دانشگاه در احترام به هینتون ارائه داد

    هینتون پیش از اعلام اینکه گوگل ۱۰ میلیون دلار کانادایی به‌منظور تأسیس کرسی هینتون در هوش مصنوعی در دانشگاه تورنتو اهدا می‌کند، با Business Insider گفتگو کرد. دانشگاهی که هینتون در دوره حضورش در گوگل زمان خود را بین این دو تقسیم می‌کرد، اعلام کرد که این کمک را همتا می‌کند.

    هینتون در سال ۲۰۲۳ گوگل را ترک کرد و نگرانی‌های خود دربارهٔ توسعه هوش مصنوعی را مطرح کرد. از آن زمان، او به‌طور مکرر دربارهٔ خطرات هوش مصنوعی برای جامعه، از توانایی پیشی گرفتن از انسان تا جایگزینی مشاغل، سخن گفته است. در سال ۲۰۲۴، هینتون به‌صورت مشترک جایزه نوبل فیزیک را دریافت کرد.

    گوگل در بیانیه‌ای گفت: «کارهای گریفی هینتون در زمینهٔ شبکه‌های عصبی — از دوران دانشگاهی‌اش تا دهه‌ای که در گوگل سپری کرد — بنای هوش مصنوعی مدرن را پایه‌گذاری کرد.» «این کرسی، به ارث او افتخار می‌کند و به دانشگاه کمک می‌نماید تا پژوهشگران بصیرتی را جذب کند که به همان‌گونه که هینتون تشویق می‌کرد، به تحقیق بنیادی و کنجکاوی‌محور متعهد باشند.»

  • دیسکورد ‘Checkpoint 2025’ را راه‌اندازی کرد: ویژگی جامع بازنگری سالانه برای کاربران؛ این‌جا چطور می‌توانید خلاصه‌سالانه دیسکورد خود را ببینید

    چک‌پوینت 2025 دیسکورد: دیسکورد اولین خلاصه‌سالانهٔ فعالیت خود را به نام چک‌پوینت 2025 منتشر کرد. کاربران اکنون می‌توانند تعداد پیام‌های ارسال‌شده، ساعت صرف‌شده در کانال‌های صوتی، ایموجی‌های برتر، سرورهای پرکاربرد و دوستانی که بیشترین پیام‌های خصوصی (DM) را با آن‌ها رد و بدل کرده‌اند، مشاهده کنند. تزئینات اختصاصی آواتار نیز در دسترس است. این ویژگی به‌صورت تدریجی در دسترس قرار می‌گیرد و برای استفاده از آن باید آخرین نسخهٔ برنامه نصب شده باشد.

    این مقاله را به‌صورت خلاصه گوش کنید

    چک‌پوینت 2025 دیسکورد
    آیکون برنامهٔ دیسکورد در یک گوشی هوشمند.

    دیسکورد رسماً چک‌پوینت 2025 را راه‌اندازی کرد، اولین بازنگری جامع سالانه که به کاربران اجازه می‌دهد خلاصه‌ای شخصی‌سازی‌شده از نحوهٔ استفاده‌اشان از پلتفرم در طول سال را ببینند. این انتشار اولین تلاش شرکت برای ارائه خلاصه‌ای به سبک «خلاصه‌سالانهٔ دیسکورد» است و طرفداران آن را پیش از این انتظار می‌کردند.

    موارد موجود در چک‌پوینت 2025 دیسکورد

    ویژگی جدید چک‌پوینت‌های دیسکورد، تصویری دقیق از فعالیت‌های شما در سال 2025 را به‌ همراه موارد زیر ارائه می‌دهد:

    • مجموع پیام‌های ارسال‌شده
    • ساعات صرف‌شده در کانال‌های صوتی
    • ایموجی پرکاربرد شما
    • سرور فعال‌ترین شما
    • دوستی که بیشترین مکالمات خصوصی (DM) را با او داشته‌اید

    پس از تمام کردن مشاهدهٔ خلاصه‌سالانهٔ دیسکورد 2025، برنامه یکی از ده کارت چک‌پوینت را به شما اختصاص می‌دهد؛ هر کارت با یک تزئینات اختصاصی آواتار همراه است که می‌توانید تا ۱۵ ژانویهٔ ۲۰۲۶ از آن استفاده کنید.

    نحوه مشاهده خلاصه‌سالانه دیسکورد: چک‌پوینت را چگونه بررسی کنید

    دیسکورد می‌گوید که کاربران باید برای دسترسی به خلاصه‌سالانه، آخرین نسخهٔ برنامه را به‌روز کنند. مراحل برای کاربران موبایل و دسکتاپ کمی متفاوت است.

    لوگوی ET

    رویدادهای زنده

    نحوهٔ مشاهده چک‌پوینت دیسکورد در موبایل (چک‌پوینت موبایل)

    1. دیسکورد را به آخرین نسخه به‌روز کنید.
    2. برنامه را باز کنید و روی تصویر پروفایلتان ضربه بزنید.
    3. در بخش «شما»، بنر چک‌پوینت را جستجو کنید.
    4. برای مشاهدهٔ خلاصهٔ چک‌پوینت 2025 دیسکورد، ضربه بزنید.

    نحوهٔ بررسی چک‌پوینت دیسکورد در دسکتاپ

    1. دیسکورد را روی رایانه یا در مرورگر خود باز کنید.
    2. یک آیکون پرچم کوچک در گوشهٔ بالا-راست، در نزدیکی صندوق‌ورودی‌تان را پیدا کنید.
    3. روی آن کلیک کنید تا خلاصه‌سالانهٔ دیسکورد 2025 خود را باز کنید.

    چرا ممکن است چک‌پوینت دیسکورد شما نمایش داده نشود

    بسیاری از کاربران گزارش کرده‌اند که هنوز چک‌پوینت 2025 دیسکورد خود را مشاهده نکرده‌اند، اما این امر طبیعی است. دیسکورد تأیید کرده است که این ویژگی به‌صورت تدریجی در دسترس قرار می‌گیرد، به‌طوری که همه حساب‌ها همزمان خلاصه را دریافت نخواهند کرد.

    در موارد دیگر، ممکن است چک‌پوینت شما به‌دلیل موارد زیر نمایش داده نشود:

    • در سال 2025 فعالیت کافی در دیسکورد نداشته‌اید تا خلاصه‌ای معنادار تولید شود.
    • تنظیم «استفاده از داده‌ها برای شخصی‌سازی تجربهٔ دیسکورد من» را غیرفعال کرده‌اید. برای ایجاد چک‌پوینت، این تنظیم باید فعال باشد.

    این پایان مقاله است.

  • رسانه‌های اجتماعی، پیشی سئو را به عنوان منبع اصلی ترافیک کسب‌وکارهای کوچک و متوسط می‌گیرد؛ نظرسنجی می‌گوید

    اکنون رسانه‌های اجتماعی پیش از جستجو می‌آیند، کسب‌وکارهای کوچک از خلاصه‌های هوش مصنوعی خسته شده‌اند و بیشترین دیده شدن همچنان به صفحه اصلی وابسته است.

    در حال حاضر رسانه‌های اجتماعی بیش از جستجو ترافیک بیشتری به کسب‌وکارهای کوچک و متوسط می‌رسانند و بسیاری از این کسب‌وکارها شروع به پیگیری ارجاعات تولیدشده توسط هوش مصنوعی کرده‌اند. آن‌ها همچنین رقبایی که در خلاصه‌های هوش مصنوعی ظاهر می‌شوند را به‌عنوان تهدیدی نوظهور می‌بینند، طبق داده‌های جدید نظرسنجی که امروز توسط WordStream توسط LocaliQ منتشر شد.

    چرا این موضوع مهم است. کسب‌وکارهای کوچک اکنون خلاصه‌های هوش مصنوعی را به‌عنوان کانالی نوظهور و مهم می‌بینند. این خلاصه‌ها تصمیم‌گیری اولیه خریداران را شکل می‌دهند و می‌توانند آن‌ها را به سمت محصولات رقیب سوق دهند. ارجاعات هوش مصنوعی نیز شفاف و قابل ردیابی شده‌اند و کسب‌وکارها را قانع می‌کنند که می‌توانند – و باید – برای آن‌ها بهینه‌سازی کنند.

    کاهش ترافیک گوگل در حال افزایش است. چهل درصد از کسب‌وکارهای کوچک می‌گویند که به‌دلیل به‌روزرسانی‌های گوگل و جستجوی مبتنی بر هوش مصنوعی ترافیک خود را از دست داده‌اند. شرکت‌های بزرگتر بیشترین ضربه را دریافت کرده‌اند؛ تقریباً نیمی از آن‌ها کاهش را گزارش کردند. با این حال، اکثر کسب‌وکارهای کوچک (۷۲٪) گفتند سئوی آن‌ها «موثر» است.

    رسانه‌های اجتماعی بر جستجو پیشی می‌گیرد. ۶۴ درصد، رسانه‌های اجتماعی را به‌عنوان اصلی‌ترین منبع ترافیک نام بردند که از جستجوی ارگانیک با ۵۲ درصد پیشی گرفتند.

    • کارآفرینان تک‌نفره و کسب‌وکارهای میکرو، رسانه‌های اجتماعی را در رده نخست برتری دادند.
    • ۳۵٪ از کسب‌وکارهایی که وب‌سایت ندارند گفتند رسانه‌های اجتماعی و بازارهای آنلاین به‌اندازه کافی سرنخ فراهم می‌کنند تا نیازی به وب‌سایت ندارند.

    توجه به هوش مصنوعی در حال افزایش است. جستجوی هوش مصنوعی هنوز به‌عنوان عامل اصلی ترافیک محسوب نمی‌شود، اما در دید کسب‌وکارهای کوچک قرار دارد:

    • ۵۰٪ ارجاعات و ذکرهای هوش مصنوعی را مانیتور می‌کنند.
    • ۷۰٪ از کسب‌وکارهای بزرگ‌تر نیز همین کار را انجام می‌دهند.
    • آگاهی جغرافیایی (GEO) در میان تمام اندازه‌های کسب‌وکار در حال رشد است.

    بزرگ‌ترین ناامیدی کسب‌وکارهای کوچک این است که رقبایشان به‌جای آن‌ها در خلاصه‌های هوش مصنوعی ظاهر می‌شوند؛ اما نکته مثبت این است که این مدل‌ها اغلب اطلاعاتی از سایت‌های بیش از ده‌تا برتر گوگل استخراج می‌کنند و به برندهای کوچک فرصتی نادر برای دیده شدن می‌دهند که معمولاً به‌دست نمی‌آورند.

    صفحات اصلی وب‌سایت حیاتی هستند. در میان کسب‌وکارهای کوچک که ترافیک هوش مصنوعی را ردیابی می‌کنند، پر بازدیدترین صفحات عبارتند از:

    • صفحات اصلی (۵۷٪)
    • صفحات محصول یا خدمات (۴۸٪)
    • صفحات تماس (۳۴٪)

    چگونگی سازگاری کسب‌وکارهای کوچک. برترین اقدامات برای افزایش دیده شدن در هوش مصنوعی، با اصول سئو هم‌پوشانی دارد:

    • استفاده از سرفصل‌های واضح و توصیفی (۳۵٪)
    • بهبود خوانایی (۲۶٪)
    • رفع موارد پایه فنی مانند سرعت و عملکرد موبایل (۲۴٪)
    • کسب‌وکارهای بزرگ‌تر به‌سوی ساخت اشاره‌های خارجی به برند (۳۳٪) و افزودن داده‌های ساختاریافته (۳۰٪) حرکت می‌کنند

    دربارهٔ داده‌ها. WordStream توسط LocaliQ بیش از ۳۰۰ کسب‌وکار کوچک در ایالات متحده را در ۲۴ حوزه‌ی صنعتی مورد نظرسنجی کرد. پاسخ‌ها از شرکت‌های دارای وب‌سایت و بدون وب‌سایت، از افراد خوداشتغال تا سازمان‌های با ۱۰۰ نفر پرسنل دریافت شد.

    گزارش. گزارش بزرگ روندهای وب‌سایت کسب‌وکارهای کوچک: سئو، GEO و آینده ترافیک

    Search Engine Land متعلق به Semrush است. ما همچنان متعهد به ارائه پوشش با کیفیت بالا از موضوعات بازاریابی هستیم. مگر در مواردی که به‌وضوح اعلام شده باشد، محتوای این صفحه توسط یک کارمند یا یک پیمانکار حقوق‌بگیر Semrush Inc. نوشته شده است.

  • Titans + MIRAS: کمک به هوش مصنوعی برای داشتن حافظهٔ بلندمدت

    ما معماری Titans و چارچوب MIRAS را معرفی می‌کنیم؛ این‌ها به مدل‌های هوش مصنوعی اجازه می‌دهند سرعت کار را به‌طور چشمگیری افزایش داده و زمینه‌های وسیع را با به‌روزرسانی حافظهٔ اصلی در حین اجرای فعال، مدیریت کنند.

    معماری ترنسفرمر با معرفی مکانیزم توجه، که به مدل‌ها اجازه می‌دهد به ورودی‌های قبلی نگاه کنند و داده‌های مرتبط را اولویت‌بندی کنند، انقلابی در مدل‌سازی دنباله‌ها به وجود آورد. اما هزینهٔ محاسباتی با افزایش طول دنباله به‌شدت متقارن می‌شود و این محدودیتی برای مقیاس‌پذیری مدل‌های مبتنی بر ترنسفرمر در زمینه‌های بسیار طولانی ایجاد می‌کند؛ مانند درک کامل سند یا تجزیه و تحلیل ژنومیک.

    جامعهٔ تحقیقاتی راه‌حل‌های مختلفی را بررسی کرد، از جمله شبکه‌های عصبی بازگشتی خطی کارآمد (RNN) و مدل‌های فضای حالت (SSM) همچون Mamba‑2. این مدل‌ها با فشرده‌سازی زمینه به یک اندازهٔ ثابت، امکان مقیاس‌پذیری خطی سریع را فراهم می‌کنند. اما این فشرده‌سازی ثابت قادر به درک کامل اطلاعات غنی در دنباله‌های بسیار طولانی نیست.

    در دو مقالهٔ جدید، Titans و MIRAS، ما معماری و طرح نظری را معرفی می‌کنیم که سرعت RNNها را با دقت ترنسفرمرها ترکیب می‌کند. Titans معماری خاص (ابزار) است و MIRAS چارچوب نظری (طرح کلی) برای عمومی‌سازی این رویکردها. این دو با هم مفهوم حافظهٔ یادگیری در زمان آزمون را پیش می‌برند؛ یعنی توانایی مدل هوش مصنوعی برای حفظ حافظهٔ طولانی‌مدت با به‌کارگیری معیارهای «شگفتی» قدرتمندتر (یعنی اطلاعات غیرمنتظره) در حین اجرای مدل، بدون نیاز به آموزش آفلاین اختصاصی.

    چارچوب MIRAS، همان‌طور که Titans نشان می‌دهد، تغییر معناداری به سمت سازگاری زمان واقعی ایجاد می‌کند. به‌جای فشرده‌سازی اطلاعات در یک وضعیت ثابت، این معماری به‌صورت فعال پارامترهای خود را هنگام ورود داده‌ها یاد می‌گیرد و به‌روزرسانی می‌کند. این مکانیزم حیاتی به مدل اجازه می‌دهد تا جزئیات جدید و خاص را به‌سرعت در دانش اصلی خود بگنجاند.

    Titans: یادگیری زمینهٔ جدید به‌صورت آنی

    یک سیستم یادگیری مؤثر نیاز به ماژول‌های حافظهٔ متمایز اما در هم‌پیوند دارد که مشابه جداسازی حافظهٔ کوتاه‌مدت و بلندمدت در مغز انسان هستند.

    در حالی که مکانیزم‌های توجه برای حافظهٔ کوتاه‌مدت دقیق بسیار مؤثرند، Titans ماژول حافظهٔ طولانی‌مدت عصبی نوینی را معرفی می‌کند؛ این ماژول، برخلاف حافظهٔ برداری یا ماتریسی ثابت‌اندازه در RNNهای سنتی، به‌عنوان یک شبکهٔ عصبی عمیق (به‌ویژه یک پرسپترون چندلایه) عمل می‌کند. این حافظهٔ عصبی توان بیان به‌مراتب بالاتری دارد و به مدل امکان می‌دهد حجم بالایی از اطلاعات را بدون از دست دادن زمینهٔ مهم خلاصه کند. مدل تنها یادداشت‌برداری نمی‌کند؛ بلکه کل داستان را می‌فهمد و ترکیب می‌سازد.

    به‌طور اساسی، Titans تنها به‌صورت منفعل داده‌ها را ذخیره نمی‌کند؛ بلکه به‌صورت فعال «چگونگی» شناسایی و نگهداری روابط مهم و تم‌های مفهومی که توکن‌ها را در سراسر ورودی به هم می‌پیوندد، یاد می‌گیرد. یکی از جنبه‌های کلیدی این توانایی، آنچه ما «معیار شگفتی» می‌نامیم، است. در روان‌شناسی انسانی، می‌دانیم که رویدادهای روتین و پیش‌بینی‌شده را به‌سرعت و به‌راحتی فراموش می‌کنیم، اما مواردی که الگو را می‌شکنند—رویدادهای غیرمنتظره، شگفت‌انگیز یا بسیار عاطفی— را به یاد می‌مانیم.

    نموداری که معماری عصبی را با سه لایه نشان می‌دهد: حافظهٔ زمینه‌ای (یادگیری)، هسته (یادگیری درون‌متنی) و حافظهٔ پایدار (وزن‌های ثابت).

    نمای کلی معماری Titans (MAC). این معماری از حافظهٔ طولانی‌مدت برای فشرده‌سازی داده‌های گذشته استفاده می‌کند و سپس خلاصهٔ آن را به زمینه اضافه کرده و به مکانیزم توجه می‌فرستد. توجه می‌تواند تصمیم بگیرد که آیا نیاز به متمرکز شدن بر خلاصهٔ گذشته دارد یا خیر.

    در چارچوب Titans، «معیار شگفتی» به این معناست که مدل اختلاف بزرگ بین آنچه در حال حاضر به یاد دارد و آنچه ورودی جدید به آن می‌گوید را تشخیص می‌دهد.

    • شگفتی کم: اگر واژهٔ جدید «گربه» باشد و وضعیت حافظهٔ مدل قبلاً واژهٔ حیوانی را انتظار داشته باشد، گرادیان (شگفتی) کم است. بنابراین می‌تواند به‌طور ایمن از به‌خاطرسپارگی واژهٔ «گربه» در حافظهٔ طولانی‌مدت ثابت صرف‌نظر کند.
    • شگفتی زیاد: اگر وضعیت حافظهٔ مدل در حال خلاصه‌سازی یک گزارش مالی جدی باشد و ورودی جدید یک تصویر از پوست موز باشد (رویداد غیرمنتظره)، گرادیان (شگفتی) بسیار زیاد خواهد شد. این نشان می‌دهد که ورودی جدید مهم یا ناهنجار است و باید برای ذخیره‌سازی دائمی در ماژول حافظهٔ طولانی‌مدت در اولویت قرار گیرد.

    مدل از این سیگنال خطای داخلی (گرادیان) به‌عنوان معادل ریاضی عبارت «این غیرمنتظره و مهم است!» استفاده می‌کند. این امکان را به معماری Titans می‌دهد که حافظهٔ طولانی‌مدت خود را به‌صورت گزینش‌گرانه تنها با اطلاعات نوین‌ترین و مخرب‌ترین از نظر زمینه به‌روز کند، در حالی که کل فرآیند را سریع و کارآمد نگه می‌دارد.

    Titan این مکانیزم را با ترکیب دو عنصر حیاتی بهبود می‌بخشد:

    1. شتاب: مدل هم «شگفتی لحظه‌ای» (ورودی جاری) و هم «شگفتی گذشته» (جریان اخیر زمینه) را در نظر می‌گیرد. این کار تضمین می‌کند که اطلاعات مرتبط پسین نیز ضبط شود، حتی اگر توکن‌های آن به‌طور جداگانه شگفتی‌آور نباشند.
    2. فراموشی (کاهش وزن): برای مدیریت ظرفیت محدود حافظه در مواجهه با دنباله‌های بسیار طولانی، Titans از مکانیزم کاهش وزن تطبیقی استفاده می‌کند. این مکانیزم به‌عنوان یک دروازهٔ فراموشی عمل می‌کند و به مدل اجازه می‌دهد اطلاعاتی که دیگر نیازی به آن‌ها نیست را حذف کند.

    MIRAS: نگاهی یکپارچه به مدل‌سازی توالی

    هر پیشرفت مهمی در مدل‌سازی توالی — از ترنسفرمرهای مدرن تا RNNهای خطی و فوق‌العاده سریع جدید — در اصل یک چیز مشابه زیرساخت دارد: ماژول حافظهٔ انجمنی بسیار پیچیده.

    بر این اساس، ویژگی منحصر به‌فرد و عملی MIRAS، رویکردش به مدل‌سازی هوش مصنوعی است. به‌جای مشاهدهٔ معماری‌های متنوع، آن را به‌عنوان روش‌های مختلفی برای حل یک مسألهٔ یکسان می‌بیند: ترکیب کارآمد اطلاعات جدید با حافظه‌های قبلی بدون اینکه مفاهیم اساسی فراموش شوند.

    MIRAS یک مدل توالی را از طریق چهار انتخاب طراحی اصلی تعریف می‌کند:

    • معماری حافظه: ساختاری که اطلاعات را ذخیره می‌کند (مثلاً بردار، ماتریس، یا یک پرسپترون چندلایهٔ عمیق، همانند Titans).
    • سوگیری توجهی: هدف یادگیری داخلی که مدل برای بهینه‌سازی آن تلاش می‌کند و تعیین می‌کند چه چیزی در اولویت است.
    • دروازهٔ نگهداری: تنظیم‌کنندهٔ حافظه. MIRAS مکانیزم‌های «فراموشی» را به‌عنوان شکل‌های خاصی از منظم‌سازی (regularization) بازتعریف می‌کند که یادگیری جدید را با نگهداری دانش گذشته تعادل می‌بخشد.
    • الگوریتم حافظه: الگوریتم بهینه‌سازی که برای به‌روزرسانی حافظه استفاده می‌شود.

    نمای کلی چارچوب MIRAS. در چارچوب MIRAS، هدف ما یادگیری حافظهٔ انجمنی است که بین کلیدها و مقادیر نگاشت می‌کند. برای هر توکن، ماژول حافظه به‌صورت داخلی سوگیری توجهی داخلی خود را بهینه می‌کند در حالی که از دروازهٔ نگهداری استفاده می‌کند تا اطمینان حاصل شود که از حالت گذشته‌ خود انحراف نمی‌کند. فرآیند بهینه‌سازی از طریق بهینه‌ساز مبتنی بر گرادیان انجام می‌شود.

    فراتر رفتن از پارادایم خطای میانگین مربعات

    تقریباً تمام مدل‌های موفق توالی موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطه‌ضرب برای هر دو سوگیری و نگهداری وابسته‌اند. این وابستگی می‌تواند مدل‌ها را نسبت به نقاط دور (outliers) حساس کرده و توان بیان آن‌ها را محدود کند.

    MIRAS این محدودیت را با ارائه چارچوبی مولد برای کاوش فضای طراحی غنی‌تر، با بهره‌گیری از ادبیات بهینه‌سازی و آمار، پشت سر می‌گذارد. این امکان را می‌دهد که معماری‌های جدیدی با اهداف غیر‑اقلیدسی و منظم‌سازی‌های خاص ایجاد شوند.

    با استفاده از MIRAS، ما سه مدل خاص بدون توجه (attention‑free) ساختیم:

    • YAAD: ما این گونهٔ MIRAS را طوری طراحی کردیم که نسبت به خطاهای بزرگ یا «نقاط دور» (مانند یک اشتباه تایپی در یک سند بزرگ) حساسیت کمتری داشته باشد. این مدل از یک جریمهٔ ریاضی ملایم‌تر (از دست دادن هُبر) برای خطاها استفاده می‌کند، بنابراین به مشکلات تک‌بار واکنش بیش از حد نشان نمی‌دهد. این ویژگی باعث می‌شود مدل هنگام مواجهه با داده‌های نامنظم یا ناسازگار، مقاوم‌تر باشد.
    • MONETA: این مدل به بررسی استفاده از جریمه‌های ریاضی پیچیده‌تر و سخت‌گیرانه‌تر (که به «نُرم‌های کلی» می‌گویند) می‌پردازد. این پژوهش بررسی می‌کند که آیا به‌کارگیری این قواعد منظم‌تر برای هر دو جنبهٔ توجه مدل و فراموشی، می‌تواند به سیستم حافظهٔ طولانی‌مدت قدرتمندتر و پایدارتری منجر شود یا نه.
    • MEMORA: این مدل بر دستیابی به بالاترین پایداری حافظه تمرکز دارد، با این کار که حافظهٔ خود را به‌مانند یک نقشهٔ احتمالی دقیق اجباری می‌کند. با استفاده از این قید، اطمینان می‌یابد که هر بار که وضعیت حافظه به‌روزرسانی می‌شود، تغییرات تحت کنترل و متعادل هستند. این امر یک فرآیند پاک و پایدار برای ترکیب اطلاعات جدید تضمین می‌کند. تقریباً تمامی مدل‌های توالی موفق موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطه‌ضرب برای سوگیری و نگهداری تکیه می‌کنند؛ این وابستگی می‌تواند مدل‌ها را نسبت به نقاط دور حساس کرده و توان بیان آن‌ها را محدود سازد.

    آزمایش‌ها و نتایج

    ما Titans و گونه‌های MIRAS (YAAD، MONETA، MEMORA) را به‌طور دقیق در مقایسه با معماری‌های پیشرو، شامل Transformer++، Mamba‑2 و Gated DeltaNet، بررسی کردیم. همچنین با آزمایش Titans بر روی مدل‌سازی ژنتیکی (DNA) و پیش‌بینی سری‌های زمانی، توانمندی این معماری برای تعمیم مؤثر فراتر از متن را ثابت کردیم.

    در هر دو مجموعه دادهٔ مدل‌سازی زبانی استاندارد (C4، WikiText) و وظایف استدلال صفر‑شات (HellaSwag، PIQA)، مدل‌های ما به‌طور مستمر دقت بالاتر و پرپلکسیتی (معیاری برای میزان تعجب یک LLM هنگام مشاهدهٔ متن) نشان دادند.

    قدرت حافظهٔ عمیق

    مطالعات ابلاسیون به وضوح نشان می‌دهند که عمق معماری حافظه نقش حیاتی دارد. زمانی که ماژول‌های حافظهٔ طولانی‌مدت با همان اندازه ولی عمق متفاوت مقایسه می‌شوند، ماژول‌های دارای حافظهٔ عمیق‌تر به‌طور مستمر پرپلکسیتی کمتری در مدل‌سازی زبان به‌دست می‌آورند. علاوه بر این، این ماژول‌ها ویژگی‌های مقیاس‌پذیری بهتری نشان می‌دهند و عملکرد خود را حتی با افزایش چشمگیر طول دنباله حفظ می‌دارند.

    دو نمودار خطی نشان می‌دهد که مدل‌های LMM و MM با افزایش طول دنباله، پرپلکسیتی پایین‌تری نسبت به Mamba در مقیاس‌های ۳۶۰M و ۷۶۰M پارامتر حفظ می‌کنند.

    تأثیر عمق حافظه بر پرپلکسیتی در مقیاس‌های پارامتر ۳۶۰M و ۷۶۰M.

    مدل‌سازی زبان و کارآیی

    در وظایف مدل‌سازی زبان و استدلال عام، معماری Titans بر مدل‌های بازگشتی خطی پیشرفته (مانند Mamba‑2 و Gated DeltaNet) و پایه‌های Transformer++ هم‌اندازه برتری دارد. گونه‌های نوین MIRAS (MONETA، YAAD، MEMORA) نیز نسبت به این پایه‌ها عملکرد بهبود یافته‌ای نشان می‌دهند که مزیت بررسی مکانیزم‌های بهینه‌سازی مقاوم و غیر‑MSE را تأیید می‌کند. به‌علاوه، این مدل‌ها آموزش کارآمد، قابلیت موازی‌سازی و سرعت استنتاج خطی سریع را حفظ می‌کنند.

    بازیابی زمینهٔ طولانی‌متن افراطی

    برجسته‌ترین مزیت این معماری‌های جدید، توانایی آن‌ها در پردازش زمینه‌های بسیار طولانی است. این نکته در بنچمارک BABILong که نیاز به استدلال در میان حقایق توزیع‌شده در اسناد بسیار طولانی دارد، به‌وضوح نشان داده می‌شود. در این وضعیت چالش‌برانگیز، Titans بر تمام پایه‌ها، از جمله مدل‌های بسیار بزرگ همچون GPT‑4، برتری پیدا می‌کند، در حالی که پارامترهای کمتری دارد. همچنین Titans توان مقیاس‌پذیری مؤثر به اندازه پنجرهٔ زمینه‌ای بزرگ‌تر از ۲ میلیون توکن را نشان می‌دهد.

    نمودار خطی نشان می‌دهد که Titans (MAC)-FT با افزایش طول دنباله، دقت بهبود یافته‌تری نسبت به GPT‑4، Mamba‑FT و سایر مدل‌ها حفظ می‌کند.

    عملکرد Titans در استدلال زمینهٔ بسیار طولانی.

    نتیجه‌گیری

    معرفی Titans و چارچوب MIRAS گامی بزرگ در پیشرفت مدل‌سازی توالی است. با به‌کارگیری شبکه‌های عصبی عمیق به‌عنوان ماژول‌های حافظه که در حین ورود داده‌ها به‌خاطر می‌سپارند، این رویکردها محدودیت‌های وضعیت‌های بازگشتی ثابت‌اندازه را پشت سر می‌گذارند. علاوه بر این، MIRAS وحدت نظری قدرتمندی فراهم می‌کند که ارتباط بهینه‌سازی آنلاین، حافظهٔ انجمنی و طراحی معماری را آشکار می‌سازد. با فراتر رفتن از پارادایم اقلیدسی استاندارد، این تحقیق مسیر نسل جدیدی از مدل‌های توالی را گشوده که ترکیبی از کارآیی RNNها و توان بیان مورد نیاز برای عصر هوش مصنوعی با زمینه‌های طولانی است.

  • SEO Pulse: به‌روزرسانی‌های گوگل برای کنسول جستجو، نقشه‌ها و جریان حالت هوش مصنوعی

    گوگل پیکربندی مبتنی بر هوش مصنوعی برای کنسول جستجو و بررسی‌های ناشناس در نقشه‌ها را راه‌اندازی کرد. یک تست جدید برای حالت هوش مصنوعی می‌تواند بر ترافیک تأثیر بگذارد. در ادامه تغییراتی که برای کار شما رخ داده‌اند، آورده شده است.

    SEO Pulse: به‌روزرسانی‌های گوگل برای کنسول جستجو، نقشه‌ها و جریان حالت هوش مصنوعی

    در این هفته گوگل کارهای زیادی انجام داد: کنسول جستجو پیکربندی مبتنی بر هوش مصنوعی را به‌دست گرفت، نقشه‌ها قانون نام واقعی برای نظرات را شل کردند و یک تست جدید افراد بیشتری را از مرورهای هوش مصنوعی به حالت هوش مصنوعی هدایت می‌کند.

    در ادامه، معنای این تغییرات برای شما را بررسی می‌کنیم.

    آزمون پیکربندی گزارش مبتنی بر هوش مصنوعی در کنسول جستجوی گوگل

    گوگل در کنسول جستجو ویژگی آزمایشی هوش مصنوعی را معرفی کرد که به شما اجازه می‌دهد گزارش مورد نظر خود را توصیف کنید و ابزار آن را برای شما بسازد.

    این ویژگی که در یک پست بلاگ گوگل اعلام شد، در گزارش عملکرد نتایج جستجو قرار دارد. می‌توانید عبارتی مانند «مقایسه کلیک‌ها از بریتانیا نسبت به فرانسه» را بنویسید و سیستم فیلترها، مقایسه‌ها و معیارهای مناسب را برای بازتاب منظور شما تنظیم می‌کند.

    در حال حاضر، این ویژگی فقط بر داده‌های نتایج جستجو محدود است؛ در حالی که گزارش‌های Discover، News و ویدیو همچنان به همان شکل کار می‌کنند. گوگل اعلام کرده که با «مجموعه‌ای محدود از وب‌سایت‌ها» شروع می‌کند و دسترسی را بر اساس بازخوردها گسترش خواهد داد.

    این به‌روزرسانی مربوط به پیکربندی است، نه معیارهای جدید. می‌تواند در ایجاد جدول به شما کمک کند، اما نحوه‌سطرگذاری یا صادرات داده‌ها را تغییر نمی‌دهد و گزارش جداگانه‌ای برای مرورهای هوش مصنوعی یا حالت هوش مصنوعی اضافه نمی‌کند.

    چرا سئوها باید به این موضوع توجه کنند

    اگر زمان زیادی را صرف بازسازی همان نوع گزارش‌ها می‌کنید، این ویژگی می‌تواند زمان تنظیم را برای شما صرفه‌جویی کند. توصیف یک مقایسه در یک جمله آسان‌تر است تا به یاد آوردن این‌که ماه پیش کدام گزینه‌ها و فیلترها را انتخاب کرده‌اید.

    معایب این است که هنوز باید تأیید کنید هوش مصنوعی دقیقاً چه کاری انجام داده است. وقتی یک نما از یک درخواست نوشتاری به‌دست می‌آید نه از یک سری کلیک‌های دستی، احتمال بروز سوءتفاهم‌های جزئی که به‌صورت گزارش یا ایمیل مشتری ظاهر می‌شود، آسان‌تر است.

    این جایگزینی برای درک نحوه‌سازماندهی گزارش‌های شما نیست. همچنین جوابی برای سؤال بزرگتر سئوکاران درباره میزان ترافیکی که از سطوح هوش مصنوعی گوگل می‌آید، ارائه نمی‌دهد.

    نظرات متخصصان سئو

    در لینکدین، مشاور سئو مستقل برودی کلارک راه‌اندازی را این‌گونه خلاصه کرد:

    «وای! کنسول جستجوی گوگل تازه یک جواهر دیگر را عرضه کرد: پیکربندی جدید مبتنی بر هوش مصنوعی برای تحلیل ترافیک جستجوی شما. این ویژگی جدید به‌منظور کاهش میزان تلاش لازم برای انتخاب، فیلتر و مقایسه داده‌های شما طراحی شده است.»

    سپس او نحوه اعمال فیلترها، تنظیم مقایسه‌ها و انتخاب معیارها برای وظایف رایج را توضیح می‌دهد.

    در زیر پست رسمی Search Central، یک کامنت‌کننده به شکلی شوخی‌آمیز به اختلاف بین پیکربندی و داده‌ها اشاره کرد:

    «GSC: «نمای داده‌ای که می‌خواهید ببینید را توصیف کنید» من: «به من نشان بده چه مقدار ترافیک از مرورهای هوش مصنوعی و حالت هوش مصنوعی دریافت می‌کنم» :)»

    در مجموع، این یک بهبود واقعی در کیفیت کار است، اما بسیاری از متخصصان سئو هنوز ترجیح می‌دهند گزارش‌های سطح بالای مرورهای هوش مصنوعی و حالت هوش مصنوعی دریافت کنند تا یک روش دیگر برای تقسیم داده‌های موجود نتایج جستجو.

    مطالعهٔ کامل ما: اضافه شدن پیکربندی مبتنی بر هوش مصنوعی به کنسول جستجوی گوگل

    نقشه‌های گوگل دیگر نیازی به نام واقعی ندارند

    نقشه‌های گوگل اکنون به کاربران این امکان را می‌دهد که نظرات را تحت نام نمایشی سفارشی و تصویر پروفایل، به‌جای نام واقعی حساب گوگل خود، ثبت کنند. این تغییر به‌صورت جهانی پیاده‌سازی شد و در به‌روزرسانی‌های اخیر نقشه‌های گوگل مستند شده است.

    این تنظیم را در بخش مشارکت‌های پروفایل خود انجام می‌دهید. پس از انتخاب نام نمایشی و تصویر نمایه، این شناسه در نظرات جدید ظاهر می‌شود و در صورت ویرایش، می‌تواند به نظرات قبلی نیز اعمال شود؛ در همین حال، گوگل همچنان تمام این موارد را به حساب واقعی با تاریخچه کامل فعالیت‌ها متصل می‌کند.

    این تغییر صرفاً ظاهری نیست؛ زیرا هویت نظرات، نحوهٔ تفسیر اعتماد و نیت افراد را هنگام بررسی نمایهٔ یک کسب‌وکار محلی تحت‌ثثیر قرار می‌دهد.

    چرا سئوها باید به این موضوع توجه کنند

    نظرات همچنان یکی از قوی‌ترین عوامل رتبه‌بندی مکانی هستند، بر اساس نظرسنجی عوامل رتبه‌بندی جستجوی محلی ویٹسپارک. هنگامی که نام‌ها به نام‌های مستعار تبدیل می‌شوند، نحوهٔ خواندن بازخورد توسط صاحبان کسب‌وکار و مشتریان تغییر می‌کند.

    برای کسب‌وکارهای محلی، تشخیص نظردهندگان به‌سرعت دشوارتر می‌شود؛ بازبینی نظرات به‌صورت دستی‌تری احساس می‌شود چرا که نام‌ها کمتر کاربردی هستند؛ و مالکان ممکن است حس کنند دسترسی کمتری به اینکه چه کسی دربارهٔ کسب‌وکارشان نظردهی می‌کند دارند، اگرچه گوگل هنوز حساب‌های زیرین را می‌بیند.

    اگر شما به‌مدیریت مشتریان محلی می‌پردازید، احتمالاً زمان صرف شرح این موضوع می‌کنید که این تغییر نظرات را کاملاً ناشناس نمی‌کند و استراتژی‌های درخواست و پاسخ به نظرات همچنان اهمیت دارند.

    نظرات متخصصان سئو محلی درباره این به‌روزرسانی

    در یک پست لینکدین، دارن شاو، بنیانگذار Whitespark، سعی کرد برخی از اضطراب‌ها را کاهش دهد:

    «نظره‌ای داغ: همه به‌خاطر این که نظرات ناشناس گوگل موجب رشدی در اسپم نظرات تقلبی می‌شود، اضطراب دارند؛ اما من اینطور فکر نمی‌کنم.»

    او اشاره می‌کند که هر کسی که قصد گذاشتن نقدهای تقلبی را دارد، قبلاً می‌تواند حساب‌های موقت بسازد و می‌گوید که:

    «نام‌های نمایشی ناشناس ≠ حساب‌های ناشناس»

    گوگل همچنان داده‌های دستگاه، الگوهای رفتاری و تاریخچهٔ کامل مشارکت‌ها را می‌بیند. به‌نظر او، نکتهٔ مهم این است که این تغییر موانع ارائهٔ بازخورد صادقانه در حوزه‌های «مصرف‌کننده خجالتی» مانند دفاع کیفری، توانبخشی و مشاورهٔ روان‌شناختی را کاهش می‌کند، جایی که افراد نام واقعی خود را در نتایج جستجو نمی‌خواهند.

    نظرات افزوده شده نکات مفیدی می‌افزایند. کورتیس بویید انتظار دارد «در صنف‌های مصرف‌کننده خجالتی، هم‌زمان افزایش نظرات پنج ستاره و همچنین افزایش نظرات یک ستاره در تمام صنایع رخ دهد، چرا که گوگل مخفی‌سازی هویت را آسان‌تر می‌کند.»

    به‌طور کلی، این زنجیرهٔ نظرات نشان می‌دهد که باید به تغییرات حجم نظرات و ترکیب امتیازها، به‌ویژه در بخش‌های حساس، نظارت کنید، بدون اینکه تصور کنید این به‌روزرسانی به‌تنهایی منجر به افزایش ناگهانی هرزنامه می‌شود.

    مطالعهٔ کامل ما: نقشه‌های گوگل به کاربران اجازه می‌دهد نظرات را با نام‌های مستعار ارسال کنند

    گوگل آزمون انتقال صاف مرورهای هوش مصنوعی به حالت هوش مصنوعی

    گوگل در حال آزمایش یک جریان جدید موبایلی است که افراد را مستقیم از مرورهای هوش مصنوعی به حالت هوش مصنوعی هدایت می‌کند؛ وقتی روی «نمایش بیشتر» کلیک می‌کنند، طبق پستی از روبی استین، معاون محصول جستجوی گوگل.

    در نمونه‌هایی که گوگل نشان داده، یک مرور هوش مصنوعی در بالای صفحه نتایج دیده می‌شود. وقتی آن را گسترش می‌دهید، نوار «هر سؤال را بپرسید» در پایین ظاهر می‌شود و نوشتن در این نوار، حالت هوش مصنوعی را باز می‌کند و پرس‌وجوی اولیه شما به‌صورت یک رشته گفت‌وگو در دسترس قرار می‌گیرد.

    این تست محدود به دستگاه‌های موبایل و به کشورهایی است که حالت هوش مصنوعی قبلاً در دسترس است و گوگل هنوز اعلام نکرده که این آزمایش چه مدت ادامه خواهد یافت یا چه زمانی به‌صورت گسترده‌تری اجرا می‌شود.

    چرا سئوها باید به این موضوع توجه کنند

    این آزمایش خط مرز بین مرورهای هوش مصنوعی به‌عنوان ویژگی نتایج جستجو و حالت هوش مصنوعی به‌عنوان محصول جداگانه را مخفی می‌کند. اگر ادامه یابد، کاربری که محتوای شما را در یک مرور می‌بیند، مسیر واضحی برای پرسیدن سؤالات پیگیری داخل حالت هوش مصنوعی خواهد داشت، به‌جای حرکت به سمت نتایج ارگانیک.

    در موبایل، جایی که این تست ابتدا اجرا می‌شود، تأثیر آن قوی‌تر است، چرا که فضای صفحه محدود است. نوار برجسته «هر سؤال را بپرسید» در پایین صفحه، گزینه‌ای واضح برای کاربران ارائه می‌دهد که نیازی به جست‌وجوی لینک‌های آبی زیر تبلیغات، واحدهای خرید و سایر ویژگی‌ها ندارند.

    اگر صفحات شما اکنون در مرورهای هوش مصنوعی ظاهر می‌شوند، مراقبت از ترافیک موبایلی و نمایش‌های مرتبط با هوش مصنوعی ضروری است تا در صورت گسترش این رفتار، داده‌های پیش و پس از تغییر را داشته باشید.

    نظرات متخصصان سئو درباره این تست

    در یک پست لینکدین که به‌صورت گسترده به اشتراک گذاشته شد، لیلی ری، معاون استراتژی و پژوهش سئو در Amsive، نوشت:

    «گوگل امروز اعلام کرد که یک روش جدید برای کاربران آزمایش خواهد کرد تا مستقیماً از مرورهای هوش مصنوعی به حالت هوش مصنوعی کلیک کنند.»

    او اشاره می‌کند که بسیاری از کاربران احتمالاً انتظار دارند «نمایش بیشتر» به نتایج سنتی بازگردد، نه به یک واسط گفت‌وگو، و این تست را به وضعیت کلی صفحه نتایج پیوند می‌دهد، به این استدلال که تبلیغات و روش‌های حمایت‌شده جدید، پیدا کردن فهرست‌های ارگانیک را دشوارتر می‌سازند.

    دقیق‌ترین نکتهٔ رِی این است:

    «در مقایسه با وضعیت فعلی پرآشفتگی نتایج جستجوی گوگل، حالت هوش مصنوعی حس بی‌اصطکاکی دارد.»

    نظرهٔ او این است که گوگل جستجوی سنتی را شلوغ‌تر می‌سازد، در حالی که حالت هوش مصنوعی تجربه‌ای واضح‌تر و آسان‌تر فراهم می‌کند.

    سئوکاران دیگر در نظرات مثال‌های ملموسی می‌آورند. یکی اشاره می‌کند «تبلیغات پنهان حمایت‌شده اخیراً به‌طور کامل از کنترل خارج شده‌اند»، به‌گونه‌ای که اولین نتیجهٔ ارگانیک زیر «۵ تا ۶ تبلیغ حمایت‌شده» قرار می‌گیرد. دیگری می‌گوید «از سال ۲۰۰۷ با سئو کار می‌کنم» و تنها اخیراً مجبور شد پیش از کلیک بر نتایج، متوقف شود، چون نمی‌دانست آیا آن نتیجه ارگانیک است یا تبلیغ.

    نارضایتی‌هایی نیز دربارهٔ محدودیت‌های حالت هوش مصنوعی وجود دارد. یک کامنت‌کننده توضیح می‌دهد که «پنجرهٔ زمینه ناگهان تازه می‌شود و پس از حدود ۱۰ پرسش یا دور، همه چیز را فراموش می‌کند»، که باعث می‌شود جلسات تحقیق طولانی دشوار شوند اگرچه نقطهٔ ورود به حالت هوش مصنوعی روان‌تر می‌شود.

    به‌طور کلی، این زنجیرهٔ نظرات هشداری است مبنی بر این که حالت هوش مصنوعی ممکن است حس پاک‌تری بدهد، اما همچنان کاربران را در گوگل نگه‌می‌دارَد و این تست گامی دیگر در جهت جلب جستجوکنندگان به این تجربه محسوب می‌شود.

    مطالعهٔ کامل ما: اتصال مرورهای هوش مصنوعی به حالت هوش مصنوعی در موبایل توسط گوگل

    موضوع هفته: تقویت کنترل گوگل بر مسیر جستجو

    هر سه به‌روزرسانی در همان جهت حرکت می‌کنند: بخش بیشتری از مسیر جستجو داخل رابط‌های خودگوگل اتفاق می‌افتد.

    پیکربندی هوش مصنوعی در کنسول جستجو، زمان ماندن شما در گزارش عملکرد را طولانی‌تر می‌کند، چرا که برخی از کارهای تنظیم گزارش را بر عهده می‌گیرد. نام‌های مستعار در نقشه‌ها امکان صحبت آزادتر را فراهم می‌کند، اما بر روی پلتفرمی که گوگل نحوهٔ ارائه هویت را تعیین می‌کند. تست انتقال مرورهای هوش مصنوعی به حالت هوش مصنوعی، سؤالات پیگیری را به یک گفت‌وگو تبدیل می‌کند که تحت شرایط گوگل عمل می‌کند، نه شما.

    اگرچه این موارد مزایای ملموسی برای استفاده‌پذیری فراهم می‌کند، ولی لحظات واضحی که جستجوکننده را از گوگل به سایت شما انتقال می‌دهد، کمتر می‌شود.

    اگر می‌خواهید عمیق‌تر به داستان‌های این هفته بپردازید، می‌توانید این‌ها را بخوانید:

    • گوگل پیکربندی مبتنی بر هوش مصنوعی را به کنسول جستجو اضافه می‌کند
    • نقشه‌های گوگل به کاربران اجازه می‌دهد نظرات را با نام‌های مستعار ارسال کنند
    • گوگل مرورهای هوش مصنوعی را به حالت هوش مصنوعی در موبایل متصل می‌کند

    و برای درک گسترده‌تر:

    • سال جستجوی 2025 گوگل: ابزارهای هوش مصنوعی بر روندهای جهانی تسلط دارند
    • دوران قدیمی جستجوی گوگل به پایان رسیده است – این‌جا نگاه واقعی به سئو در سال 2026
    • چگونه اشاره‌های برند را در هوش مصنوعی مولد به‌دست آوریم

    تصویر ویژه: Pixel-Shot/Shutterstock

  • پست‌های بی‌کیفیت هوش مصنوعی ردیت را برای همه خراب می‌کند

    ردیت به‌عنوان یکی از فضاهای انسانی‌ترین باقی‌مانده در اینترنت شناخته می‌شود؛ اما مدیران و کاربران با پست‌های بی‌کیفیت در پرطرفدارترین ساب‌ردیت‌ها غرق شده‌اند.

    تصویر ممکن است شامل صورت و سر یک شخص باشد
    عکس-تصویر: تیم WIRED؛ Getty Images

    یک پست ردیت درباره عروسی که عروسی می‌خواهد مهمان عروسی رنگ خاصی، نامطلوب، بپوشد، به‌طرز یقین خشم را برانگیخته می‌کند؛ حتی پست‌هایی درباره عروس‌دسته‌دار یا مادر داماد که می‌خواهند لباس سفید بپوشند، می‌توانند بیشتر تحریک‌کننده باشند. سناریویی که در آن والدین از کسی در هواپیما می‌خواهند صندلی‌اش را عوض کند تا بتوانند کنار فرزند کوچکشان بنشینند، نیز همین‌گونه احساس خشم را برانگیخته می‌کند. اما این پست‌ها ممکن است دل‌سوزی یک مدیر ردیت را به‌دلیل دیگری برانگیزند—آن‌ها به‌عنوان موضوعات رایجی در یک ژانر رو به رشد از پست‌های جعلی تولیدشده توسط هوش مصنوعی شناخته می‌شوند.

    این‌ها مثال‌هایی هستند که ذهن کاسی، یکی از ده‌ها مدیر برای r/AmItheAsshole، به یاد می‌آورد. این ساب‌ردیت با بیش از ۲۴ میلیون عضو، یکی از بزرگ‌ترین ساب‌ردیت‌هاست و به‌صراحت محتوای تولیدشده توسط هوش مصنوعی و داستان‌های ساختگی دیگر را ممنوع می‌کند. از اواخر سال ۲۰۲۲، وقتی ChatGPT برای عموم عرضه شد، کاسی (که فقط می‌خواست با نام کوچکش صدا زده شود) و دیگر افرادی که وقت خود را برای نظارت بر پست‌های ردیت صرف می‌کنند، با طوفان محتوای هوش مصنوعی روبه‌رو شده‌اند. بخشی از این محتوا به‌صورت کامل توسط هوش مصنوعی تولید می‌شود، در حالی که برخی دیگر کاربران پست‌ها و نظرات خود را با برنامه‌های هوش مصنوعی مانند Grammarly ویرایش می‌کنند.

    «احتمالاً این مشکل گسترده‌تر از آن است که کسی بخواهد به‌راستی بپذیرد، چون فقط کافی است پست خود را به ChatGPT بدهید و بگویید: «هی، این را جذاب‌تر کن»،» می‌گوید کاسی، که فکر می‌کند تا نیمی از تمام محتوای منتشر شده در ردیت به‌نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.

    r/AmItheAsshole به‌عنوان یکی از ارکان فرهنگ ردیت شناخته می‌شود؛ این قالب الهام‌بخش ده‌ها، اگر نه صدها، زیرمجموعه‌مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena است؛ این ساب‌ردیت با بیش از ۱۰۰ ۰۰۰ عضو، به‌صورت «آیا من بدکارم، اما نسخه هندی» توصیف می‌شود. پست‌ها معمولاً شامل داستان‌های مربوط به تعارضات بین‌فردی هستند که در آن ردیتورهای مختلف می‌توانند درباره اینکه چه کسی غلط کرده (“YTA” به معنای “شما بدکار هستید”، در حالی که “ESH” به معنای “همه اینجا بدکارند”)، چه کسی درست است و بهترین مسیر عمل در آینده چیست، نظر دهند. کاربران و مدیران در این زیرمجموعه‌های r/AmItheAsshole گزارش داده‌اند که محتواهای بیشتری را مشاهده می‌کنند که احتمال می‌ورزند هوش مصنوعی تولید کرده باشد، و دیگران می‌گویند که این یک مشکل سراسری در همه نوع ساب‌ردیت‌هاست.

    «اگر یک ساب‌ردیت عمومی درباره عروسی یا AITA، روابط یا چیزی مشابه داشته باشید، به‌سختی ضربه می‌خورد»، می‌گوید یک مدیر r/AITAH، شاخه‌ای از r/AmItheAsshole که تقریباً ۷ میلیون عضو دارد. این مدیر، یک بازنشسته که تحت شرط ناشناسی صحبت کرد، به مدت ۱۸ سال—اکثراً تمام دورهٔ وجود ردیت—در این پلتفرم فعال بوده و پیش از آن دهه‌ها تجربه در حوزهٔ وب داشته است. او هوش مصنوعی را به‌عنوان تهدیدی وجودی برای این بستر می‌داند.

    «ردیت خود یا باید اقدامی انجام دهد، یا مار خود دم خود را می‌بلعد»، او می‌گوید. «به نقطه‌ای رسیده‌ایم که هوش مصنوعی در حال تغذیه هوش مصنوعی است.»

    در پاسخ به درخواست اظهار نظر، سخنگوی ردیت گفت: «ردیت انسانی‌ترین مکان اینترنت است و ما می‌خواهیم این‌گونه باقی بماند. ما محتوای دستکاری‌شده و رفتارهای نامصدق را ممنوع می‌کنیم، از جمله حساب‌های ربات هوش مصنوعی که به‌صورت گمراه‌کننده به‌عنوان افراد ظاهر می‌شوند و کمپین‌های تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به‌وضوح برچسب‌گذاری شده باشد، به‌طور کلی مجاز است به‌شرط این‌که با قوانین جامعه‌ها و قوانین کلی سایت مطابقت داشته باشد.» سخنگو افزود که در نیمه اول سال ۲۰۲۵ بیش از ۴۰ میلیون حذف «هرزنامه و محتوای دستکاری‌شده» انجام شده است.

    تغییر جو به‌سوی بدتر

    آلی، یک زن ۲۶ ساله که در یک کالج جامعه‌ای در فلوریدا تدریس می‌کند و برای حفظ حریم شخصی‌اش فقط با نام کوچکش مورد خطاب قرار می‌گیرد، متوجه شده که ردیت در سال گذشته به‌دلیل هوش مصنوعی «به‌ طور واقعی به‌سوی پایین‌ رفت». احساسات او توسط سایر کاربران در ساب‌ردیت‌هایی مانند r/EntitledPeople، r/simpleliving و r/self نیز به اشتراک گذاشته شده؛ جایی که پست‌های سال گذشته به‌افزایش شبیه‌سازی‌های مشکوک به هوش مصنوعی پرداختند. فقط امکان اینکه محتوا ممکن است توسط هوش مصنوعی تولید شده باشد، کافی است تا اعتماد بین کاربران را کاهش دهد. «هوش مصنوعی ردیت را به گویایی زباله تبدیل کرده است»، یک کاربر در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود خود هوش مصنوعی همانند داشتن یک جاسوس در اتاق است. شک‌کردن به‌خودی خود دشمنی است.» آلی قبلاً از خواندن ساب‌ردیت‌های مانند r/AmIOverreacting لذت می‌برد. اما اکنون نمی‌داند آیا تعاملات او واقعی هستند یا نه، و زمان کمتری را نسبت به سال‌های گذشته در این پلتفرم می‌گذراند.

    «هوش مصنوعی همه را خسته می‌کند»، می‌گوید مدیر r/AITAH. «می‌بینم مردم مقدار زیادی وقت و انرژی برای یافتن منابع صرف می‌کنند، فقط برای اینکه با پاسخ‌های «ها، تو افتادید به تله، این همه دروغ است» مواجه شوند.»

    تشخیص هوش مصنوعی

    راه‌های مطمئنی برای اثبات اینکه چیزی هوش مصنوعی تولید شده است یا نه وجود ندارد، و اکثر مردم روزمره به حس ششم خود متکی‌اند. ارزیابی متن می‌تواند حتی دشوارتر از ارزیابی عکس‌ها و ویدیوها باشد، که اغلب نشانه‌های واضحی دارند. پنج ردیتور که با WIRED مصاحبه کردند، هر کدام استراتژی‌های متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی دارند. کاسی متوجه می‌شود که وقتی پست‌ها عنوان خود را به‌صورت کلمه به کلمه در متن بدنه تکرار می‌کنند یا از خط فاصله (dash)های طولانی استفاده می‌کنند، یا وقتی نویسنده در تاریخچه نظرات خود اشکالات جدی املا و نقطه‌گذاری دارد ولی پست با گرامر کامل می‌آید. آلی از حساب‌های تازه‌ساخته ردیت و پست‌هایی که در عنوان ایموجی دارند، دچار سردرگمی می‌شود. مدیر r/AITAH احساس «دریای ناخوشایند» (uncanny valley) را از برخی پست‌ها دریافت می‌کند. اما این «نشانه‌ها» می‌توانند در پست‌های غیرهوش مصنوعی نیز حضور داشته باشند.

    «در این مرحله، این حس یک‌جوری «می‌دونی که وقتی می‌بینی» است»، می‌گوید تراویس لوید، دانشجوی دکتری در Cornell Tech که پژوهش در مورد چالش‌های جدید ناشی از هوش مصنوعی که مدیران ردیت با آن مواجهند منتشر کرده است. «در حال حاضر ابزاری بی‌نقص برای تشخیص آن به‌صورت صد در صد وجود ندارد. بنابراین افراد استراتژی‌های خود را دارند، اما لزوماً کاملاً تضمین‌کننده نیستند.»

    علاوه بر این، همان‌طور که متن‌های هوش مصنوعی بیشتری به‌صورت عمومی ظاهر می‌شوند، مردم شروع به تقلید از ویژگی‌های زبانی مشترک متن‌های هوش مصنوعی می‌کنند، صرف‌نظر از اینکه خود از هوش مصنوعی استفاده می‌کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی پیچیده‌تر باشد، زیرا این پلتفرم از شرکت‌های هوش مصنوعی مانند Anthropic و Perplexity به‌دلیل استخراج بدون رضایت محتوای ردیت برای آموزش چت‌بات‌ها شکایت کرده است. نتایج خلاصه‌سازی هوش مصنوعی گوگل به‌طور پرآوازه از کامنت‌های ردیت به‌دست‌آمده‌اند که در واقع جوک‌های طنزآمیز هستند، مانند کاربری که پیشنهاد کرد از چسب برای بهتر چسباندن پنیر به لبه پیتزا استفاده شود.

    «هوش مصنوعی از مردم آموزش می‌بیند و مردم آنچه را می‌بینند دیگران انجام می‌دهند، کپی می‌کنند»، می‌گوید کاسی. «مردم بیشتر شبیه هوش مصنوعی می‌شوند و هوش مصنوعی نیز شبیه مردم می‌شود.»

    جلب خشم هدف‌گیری اقلیت‌ها

    هر دو مدیر AITA می‌گویند که روندی از پست‌های جلب‌خشم که می‌توانند توسط هوش مصنوعی نوشته شوند و به‌نظر می‌رسد فقط برای تخریب افراد ترنس و سایر جمعیت‌های آسیب‌پذیر وجود دارند، مشاهده کرده‌اند. مدیر r/AITAH می‌گوید که این ساب‌ردیت در طول ماه پراید (ماه افتخار) با حجم عظیمی از محتوای ضد‌ترنس مواجه شد، در حالی که کاسی می‌گوید این پست‌ها به‌صورت متناوب در صف‌های مدیریت ظاهر می‌شوند.

    «چیزهایی مثل ‘والدینم اسم انتخابی‌ام را استفاده نکردند و من ترنس هستم و از آن‌ها عصبان شدم چون چه جرأت کردند؟’ یا ‘کسی جنسیت من را فرض کرد و من سِیس‌جندر هستم، اما چه جرأت کردند فرض کنند؟’» می‌گوید کاسی. «هدفشان فقط تحریک خشم شما نسبت به افراد ترنس، همجنس‌گرایان، سیاه‌پوستان و زنان است.»

    در ساب‌ردیت‌هایی که محوریت اخبار و سیاست‌ها را دارند، هوش مصنوعی راه‌های جدیدی برای انتشار اطلاعات نادرست فراهم کرده است. این مسأله توسط تام، ردیتوری که به‌مدت سه سال در مدیریت r/Ukraine نقش داشته و فقط با نام کوچک خود برای حفظ حریم شخصی‌اش سخن می‌گفت، در کنار تکنیک‌های دستکاری اجتماعی مانند استروترفینگ که پیش از برنامه‌های نظیر ChatGPT وجود داشت، مشاهده شد. اما اکنون هوش مصنوعی می‌تواند این تاکتیک‌ها را خودکار کند و این امر نظارت انسانی را دشوارتر می‌سازد.

    «مثل مردی بود که ایستاده در یک تپه در برابر یک موج عظیم بود»، تام می‌گوید. «می‌توانید با چنین هزینه‌ای کم، صدای بسیار زیادی خلق کنید.»

    در r/Ukraine که نزدیک به یک میلیون عضو دارد، تام به‌یاد دارد که از سایر مدیران آموزش دریافت کرد تا انتشار تبلیغات روسیه را کاهش دهد و حتی از پشتیبانی تخصصی از سوی مدیران ردیت بهره‌مند شد؛ این افراد یک قدم بالاتر از داوطلبان هستند و به‌طور رسمی برای ردیت کار می‌کنند و حقوق می‌گیرند.

    درآمدزایی از کارما

    علاوه بر انگیزه‌های ایدئولوژیک، روش‌های ناشناخته‌ای برای کسب درآمد از محتوای ردیت نیز وجود دارد. برخی واضح‌تر هستند، مانند برنامه مشارکت‌کنندگان ردیت (Reddit Contributor Program)، که به پست‌کنندگان امکان می‌دهد با دریافت رأی‌های مثبت (که به‌عنوان «کارما» شناخته می‌شود) و جوایزی که دیگر کاربران می‌توانند برایشان خریداری کنند، پول کسب کنند. افراد فعال در ردیت می‌توانند به‌صورت نظری از محتوای تولیدشده توسط هوش مصنوعی برای جمع‌آوری کارما، سود بردن از آن و حتی فروش حساب‌های خود استفاده کنند.

    «حساب ردیت من ارزش پول زیادی دارد و می‌دانم چون افراد مدام سعی می‌کنند آن را بخرید»، تام می‌گوید. «می‌تواند برای مقاصد نیرنگ‌آمیز نیز استفاده شود، اما به‌نظر می‌رسد بسیاری از این موارد توسط افرادی هستند که خسته و وقت دارند؛ آنها می‌گویند: «خب، می‌توانم در یک ماه با انجام تقریباً هیچ‌ کاری، صد دلار درآمد داشته باشم.»»

    حساب‌های دیگر برای به‌دست آوردن کارما نیاز دارند تا بتوانند در ساب‌ردیت‌های NSFW (محتوای بزرگسالان) که نیاز به حداقل کارما دارند، پست کنند؛ سپس می‌توانند لینک‌های OnlyFans را تبلیغ کنند. هم کاسی و هم مدیر r/AITAH متوجه شده‌اند که حساب‌ها در ساب‌ردیت‌های بزرگ‌ترشان فعالیت می‌کنند تا کارما جمع‌آوری کنند و سپس به انتشار محتوای بزرگسالان بپردازند. برخی از این حساب‌ها کلاهبردار هستند؛ در حالی که دیگران شاید فقط سعی دارند معیشت خود را تأمین کنند.

    «گاهی واقعی است، گاهی یک تعارض واقعی که تجربه کرده‌اند، گاهی ساختگی است، اما به‌هر صورت توسط هوش مصنوعی تولید شده است»، می‌گوید کاسی. «تقریباً می‌خواهم آن را بازی‌وارسازی (gamification) بنامم، یعنی آن‌ها فقط سعی دارند از سیستم به شیوه‌ای که طراحی شده استفاده کنند.»

    زمان اضافی که مدیران ردیت برای بررسی محتویات احتمالی هوش مصنوعی صرف می‌کنند، بازتابی است از این‌که محتواهای هوش مصنوعی به‌طور کلی موانع جدیدی ایجاد کرده‌اند؛ امری که فراتر از حوزه نظارت بر شبکه‌های اجتماعی است.

    «آنچه مدیران ردیت با آن مواجه‌اند همان مشکلی است که مردم در سراسر جهان اکنون با آن روبه‌رو هستند: سازگار شدن با دنیایی که تولید محتوای هوش مصنوعی با ظاهر قابل اطمینان به‌طرز بی‌نهایت آسان است، اما ارزیابی آن بسیار دشوارتر می‌شود»، می‌گوید لوید. «این بار سنگینی واقعی برای آن‌هاست، همان‌طوری که برای معلمان و دیگران نیز صادق است.»