دسته: هوش مصنوعی

  • درام پیش از انتشار رِنگِیدز در دستینی ۲: شایعات دستینی ۳ و اتهامات هوش مصنوعی

    رنگیدز ۲
    دستینی ۲

    بونگی اخیراً زمان زیادی را صرف صحبت درباره‌ی بسته‌ی الحاقی رِنگِیدز برای دستینی ۲ کرده که هفته‌ی آینده، در ۲ دسامبر، منتشر می‌شود. یک استریم، یک ویدیو مستند و یک تریلر وجود داشت و جو کلی برای این بسته‌ی الحاقی که به شدت تحت تأثیر جنگ ستارگان است و با همکاری خود لوکاس‌فیلم ساخته شده، مثبت بوده. اما حالا، دو خبر جداگانه جامعه را به هم ریخته.

    اولین مورد، گزارشی از چند نفوذگر بونگی است که می‌گوید دستینی ۳ در «مرحله‌ی ابتدایی بسیار اولیه» در حال توسعه است. این برای جامعه خبر تازه‌ای است، چون به نظر نمی‌رسید چنین چیزی در برنامه باشد و اگر هم باشد، سال‌ها طول می‌کشد تا به دست ما برسد.

    دومین مورد، اتهامی است عمدتاً از سوی @MGecko117 که بونگی از هوش مصنوعی برای خلق هنر مفهومی استفاده کرده که تازه از شرور اصلی بسته‌ی رِنگِیدز، درِدگِن بِیل، به اشتراک گذاشته. گِکو حدود دوازده قطعه از این هنر را بررسی می‌کند که به طور قاطع معتقد است با هوش مصنوعی ساخته شده، و پست‌های او به تنهایی نیم میلیون بازدید در توییتر گرفته، با بازدیدهای بیشتری از طریق نقل‌قول‌های توییت‌ها در این موضوع.

    هنر مفهومی دستینی
    هنر مفهومی دستینی

    پس، نظرات من:

    دستینی ۳ – کمی تعجب‌آور خواهد بود اگر بونگی حداقل در حال بحث درباره‌ی آن نباشد، چون «مرحله‌ی ابتدایی بسیار اولیه» می‌تواند به معنای همین باشد. اما سؤال اینجاست که آیا بازی‌های فعلی بونگی عملکرد خوبی خواهند داشت تا این اتفاق ممکن شود.

    انتشار قریب‌الوقوع ماراتن برای بونگی کاملاً حیاتی است، چون اگر فاجعه‌بار باشد، سرنوشت کل استودیو ممکن است در خطر بیفتد. اگر نه، خب، فضای بسیار بیشتری برای آینده باز می‌شود.

    خود دستینی ۲، چه با بسته‌ی الحاقی جنگ ستارگان‌وار محکم یا نه، نشانه‌های کمی از توانایی برگرداندن تعداد بازیکنانش نشان می‌دهد و جامعه عمدتاً موافق است که تنها چیزی که می‌تواند سری را احیا کند، یک دنباله است. اما بله، ساختن یک دنباله‌ی واقعی برای بازی‌ای مثل دستینی احتمالاً بیش از پنج سال طول می‌کشد و فکر کردن به چنین چیزی برای بونگی در حال حاضر، در بهترین حالت، نظری است. انتظار نداشته باشید بونگی در این باره نظری بدهد.

    بِیل
    دستینی ۲

    اتهامات هوش مصنوعی – راستش، من باور نمی‌کنم. این هنر مفهومی اولیه است و اگر یک دهه دستینی را دنبال کرده باشید، هنر مفهومی زیادی در این سبک خواهید دید. فقط آن زمان، مردم اتهامات هوش مصنوعی را با سرعت هزار مایل در ساعت پرتاب نمی‌کردند، همان‌طور که حالا هر روز هنرمندان بااستعداد، حتی مشهورها، متهم به استفاده از هوش مصنوعی می‌شوند.

    برای چیزی مثل هنر مفهومی، هیچ‌کدام از این جزئیات «هوش مصنوعی‌وار» چندان عجیب به نظر نمی‌رسد. مثلاً، یک شمشیر نوری بدون دسته از دست بِیل بیرون می‌آید. منظورم این است که این کاملاً مثل یک اثبات مفهوم به نظر می‌رسد که کسی یک PNG از تیغه‌ی شمشیر نوری را روی آن زده تا ببیند چطور به نظر می‌رسد. منظورم این است که هوش مصنوعی می‌تواند در این مرحله کسی را که شمشیر نوری در دست دارد، متقاعدکننده نشان دهد. توضیحات متعددی وجود دارد، از روش‌های قدیمی مثل فوتوبَشینگ تا، در بدترین حالت، نوعی ارتقای هوش مصنوعی که همان ژنراتور هوش مصنوعی نیست.

    با این حال، کمک نمی‌کند که بونگی در طول سال‌ها با نیم دوجین رسوایی سرقت ادبی روبرو شده، اخیراً با ماراتن، پس بخش هنری‌شان در حال حاضر کاملاً مورد اعتماد نیست. با این وجود، سرقت ادبی و ژنراتور هوش مصنوعی انواع متفاوتی از رسوایی هستند. من فقط… فکر نمی‌کنم این اتفاق افتاده باشد، اما یک بیانیه‌ی قطعی از بونگی مطمئناً کمک می‌کند. تصور نمی‌کنم بخواهند درست روزی که ویدیوها و مقالات سازندگان درباره‌ی رِنگِیدز منتشر می‌شود، این کار را بکنند، اما حالا وقتش است و خب، بهتر است همین حالا برخورد کنند.

    آیا امروز بدون رسوایی‌های بیشتر جان سالم به در خواهیم برد؟ خب، ساعت ۹ صبح است، پس فکر کنم خواهیم دید.

    من را در توییتر، یوتیوب، بلوسکی و اینستاگرام دنبال کنید.

    رمان‌های علمی-تخیلی من، سری هیروکیلر و سه‌گانه ارث‌بورن را تهیه کنید.

  • زباله‌های هوش مصنوعی ردیت را برای همه نابود می‌کند

    تصویر ممکن است شامل صورت و سر شخص باشد

    عکس-تصویرسازی: کارکنان WIRED؛ Getty Images

    پستی در ردیت درباره عروس‌ای که از یک مهمان عروسی می‌خواهد رنگ خاصی بپوشد که به او نمی‌آید، مطمئناً خشم زیادی برمی‌انگیزد، چه برسد به پستی درباره ساقدوش یا مادر داماد که می‌خواهد لباس سفید بپوشد. سناریویی که در آن والدینی از کسی در هواپیما می‌خواهند صندلی‌اش را عوض کند تا بتوانند کنار کودک کوچک‌شان بنشینند، احتمالاً همان موج خشم را ایجاد می‌کند. اما این پست‌ها ممکن است moderator ردیت را به دلیلی متفاوت عصبانی کنند—این‌ها تم‌های رایجی در ژانر رو به رشدی از پست‌های جعلی تولیدشده توسط هوش مصنوعی هستند.

    این‌ها مثال‌هایی هستند که برای کِسی، یکی از ده‌ها moderator subreddit r/AmItheAsshole به ذهن می‌رسد. با بیش از ۲۴ میلیون عضو، این یکی از بزرگ‌ترین subredditها است و صراحتاً محتوای تولیدشده توسط هوش مصنوعی و داستان‌های ساختگی دیگر را ممنوع می‌کند. از اواخر ۲۰۲۲، زمانی که ChatGPT برای عموم راه‌اندازی شد، کِسی (که خواست فقط با نام کوچکش ذکر شود) و دیگر داوطلبانی که زمان‌شان را برای moderation پست‌های ردیت صرف می‌کنند، با هجوم محتوای هوش مصنوعی دست و پنجه نرم کرده‌اند. برخی از این محتواها کاملاً توسط هوش مصنوعی تولید شده‌اند، در حالی که کاربران دیگر پست‌ها و کامنت‌های‌شان را با برنامه‌های هوش مصنوعی مانند Grammarly ویرایش می‌کنند.

    «احتمالاً بیشتر از آنچه کسی بخواهد واقعاً اعتراف کند شایع است، چون فقط خیلی آسان است که پست‌تان را در ChatGPT بریزید و بگویید ‘هی، این را هیجان‌انگیزتر کن’»، می‌گوید کِسی، که فکر می‌کند ممکن است نیمی از تمام محتوایی که در ردیت پست می‌شود، به نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.

    r/AmItheAsshole ستونی از فرهنگ ردیت است، فرمت‌ای که ده‌ها اگر نه صدها مشتق مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena را الهام بخشیده است—subredditی با بیش از ۱۰۰ هزار عضو که توصیف شده به عنوان «آیا من احمقم، اما نسخه هندی‌اش». پست‌ها معمولاً داستان‌هایی درباره درگیری‌های بین‌فردی هستند، جایی که ردیتورها می‌توانند نظر دهند که چه کسی اشتباه کرده («YTA» یعنی «تو احمقی»، در حالی که «ESH» یعنی «همه افتضاح‌اند»)، چه کسی درست می‌گوید، و بهترین اقدام پیش رو چیست. کاربران و moderatorها در این واریانت‌های r/AmItheAsshole گزارش داده‌اند که محتوای مشکوک به تولید توسط هوش مصنوعی بیشتری می‌بینند، و دیگران می‌گویند این یک مسئله سایت‌محور است که در انواع subredditها رخ می‌دهد.

    «اگر subreddit عمومی عروسی یا AITA، روابط، یا چیزی شبیه به آن داشته باشید، به شدت ضربه خواهید خورد»، می‌گوید moderator subreddit r/AITAH، واریانتی از r/AmItheAsshole با تقریباً ۷ میلیون عضو. این moderator، بازنشسته‌ای که به شرط ناشناس ماندن صحبت کرد، ۱۸ سال در ردیت فعال بوده—بیشتر عمر آن—و همچنین دهه‌ها تجربه در کسب‌وکار وب قبل از آن داشته است. او هوش مصنوعی را تهدیدی وجودی بالقوه برای پلتفرم می‌بیند.

    «خود ردیت یا باید کاری کند، یا مار دم خودش را می‌بلعد»، می‌گوید او. «به جایی رسیده که هوش مصنوعی هوش مصنوعی را تغذیه می‌کند.»

    در پاسخ به درخواست نظر، سخنگوی ردیت گفت: «ردیت انسانی‌ترین مکان در اینترنت است و ما می‌خواهیم این‌طور بماند. ما محتوای دستکاری‌شده و رفتارهای غیراصیل را ممنوع می‌کنیم، از جمله حساب‌های ربات هوش مصنوعی misleading که خود را به جای افراد جا می‌زنند و کمپین‌های تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به وضوح برچسب‌گذاری شده، معمولاً مجاز است به شرطی که در چارچوب قوانین جامعه و قوانین سایت‌محور ما باشد.» سخنگو افزود که بیش از ۴۰ میلیون «حذف اسپم و محتوای دستکاری‌شده» در نیمه اول ۲۰۲۵ وجود داشته است.

    تغییر جو به سمت بدتر

    آلی، ۲۶ ساله که در کالج جامعه‌ای در فلوریدا تدریس خصوصی می‌کند و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، متوجه شده که ردیت در سال گذشته «واقعاً رو به وخامت رفته» به خاطر هوش مصنوعی. احساسات او توسط کاربران دیگر در subredditهایی مانند r/EntitledPeople، r/simpleliving و r/self به اشتراک گذاشته می‌شود، جایی که پست‌ها در سال گذشته از افزایش محتوای مشکوک به هوش مصنوعی شکایت کرده‌اند. صرف احتمال اینکه چیزی توسط هوش مصنوعی تولید شده باشد، اعتماد بین کاربران را فرسوده است. «هوش مصنوعی ردیت را به توده‌ای آشغال تبدیل می‌کند»، یک حساب در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود هوش مصنوعی مثل داشتن جاسوس در اتاق است. خود شک، دشمن است.» آلی قبلاً از خواندن subredditهایی مانند r/AmIOverreacting لذت می‌برد. اما حالا نمی‌داند تعاملاتش واقعی هستند یا نه، و زمان کمتری نسبت به سال‌های گذشته در پلتفرم صرف می‌کند.

    «هوش مصنوعی همه را خسته می‌کند»، می‌گوید moderator r/AITAH. «می‌بینم مردم تلاش عظیمی برای یافتن منابع برای دیگران می‌کنند، فقط برای اینکه با ‘ها، گول خوردی، این همه دروغ است’ پاسخ داده شوند.»

    تشخیص هوش مصنوعی

    راه‌های مطمئن کمی برای اثبات اینکه چیزی هوش مصنوعی است یا نه وجود دارد، و بیشتر مردم عادی به شهود خودشان تکیه می‌کنند. متن حتی سخت‌تر از عکس‌ها و ویدیوها ارزیابی می‌شود، که اغلب نشانه‌های قطعی دارند. پنج ردیتوری که با WIRED صحبت کردند، استراتژی‌های متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی داشتند. کِسی متوجه می‌شود وقتی پست‌ها عنوان‌شان را کلمه به کلمه در بدنه تکرار می‌کنند یا از خط تیره بلند استفاده می‌کنند، و همچنین وقتی پست‌کننده در تاریخچه کامنت‌هایش املا و نقطه‌گذاری افتضاحی دارد اما چیزی با دستور زبان کامل پست می‌کند. آلی از حساب‌های تازه‌تأسیس ردیت و پست‌هایی با ایموجی در عنوان جا می‌خورد. moderator r/AITAH از پست‌های خاصی حس «دره ناآشنا» می‌گیرد. اما این «نشانه‌ها» ممکن است در پستی که اصلاً از هوش مصنوعی استفاده نمی‌کند هم وجود داشته باشد.

    «در این مرحله، کمی حس ‘وقتی می‌بینی می‌دونی’ است»، می‌گوید تراویس لوید، دانشجوی دکترا در Cornell Tech که تحقیقاتی درباره چالش‌های جدید مبتنی بر هوش مصنوعی که moderatorهای ردیت با آن روبرو هستند، منتشر کرده است. «در حال حاضر، ابزارهای قابل اعتمادی برای تشخیص ۱۰۰ درصدی آن وجود ندارد. پس مردم استراتژی‌های خودشان را دارند، اما لزوماً ضدگلوله نیستند.»

    علاوه بر این، با ظاهر شدن متن‌های هوش مصنوعی بیشتر در دنیای واقعی، مردم شروع به تقلید از ویژگی‌های رایج زبان تولیدشده توسط هوش مصنوعی می‌کنند، چه از هوش مصنوعی استفاده کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی incestuousتر باشد، زیرا پلتفرم شرکت‌های هوش مصنوعی مانند Anthropic و Perplexity را به خاطر allegedly scraping محتوای ردیت بدون اجازه برای آموزش چت‌بات‌ها، شکایت کرده است. نتایج خلاصه هوش مصنوعی گوگل به طور infamous از کامنت‌های ردیت که در واقع جوک‌های sarcastic هستند، کشیده شده، مانند کاربری که پیشنهاد داد از چسب برای چسباندن بهتر پنیر به خمیر پیتزا استفاده شود.

    «هوش مصنوعی از مردم آموزش می‌بیند، و مردم آنچه دیگران را می‌بینند کپی می‌کنند»، می‌گوید کِسی. «مردم بیشتر شبیه هوش مصنوعی می‌شوند، و هوش مصنوعی بیشتر شبیه مردم.»

    طعمه خشم علیه اقلیت‌ها

    هر دو moderator AITA می‌گویند که روند پست‌های طعمه خشم را مشاهده کرده‌اند که ممکن است با هوش مصنوعی نوشته شده باشند و به نظر می‌رسد فقط برای بدنام کردن افراد ترنس و دیگر جمعیت‌های آسیب‌پذیر وجود دارند. moderator r/AITAH می‌گوید subreddit در ماه پراید با هجوم محتوای ضدترنس روبرو شد، در حالی که کِسی می‌گوید به طور متناوب در صف moderation ظاهر می‌شود.

    «چیزهایی مثل ‘والدینم از نام انتخابی‌ام استفاده نکردند و من ترنس هستم و به خاطرش منفجر شدم چون چطور جرأت کردند’ یا ‘کسی جنسیت من را فرض کرد و من سیس هستم اما چطور جرأت کردند جنسیت من را فرض کنند’»، می‌گوید کِسی. «این‌ها فقط برای عصبانی کردن از افراد ترنس، افراد گی، افراد سیاه‌پوست، زنان طراحی شده‌اند.»

    در subredditهایی که حول اخبار و سیاست می‌چرخند، هوش مصنوعی راه‌های جدیدی برای انتشار disinformation فراهم کرده است. این چیزی است که تام، ردیتوری که سه سال به moderation r/Ukraine کمک کرد و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، همراه با تکنیک‌های دستکاری اجتماعی مانند astroturfing که قبل از برنامه‌هایی مانند ChatGPT وجود داشتند، تجربه کرد. اما حالا، هوش مصنوعی می‌تواند این تاکتیک‌ها را اتوماتیک کند، و نگه داشتن آن برای moderatorهای انسانی را حتی سخت‌تر می‌کند.

    «مثل یک نفر ایستاده در مزرعه در برابر موج جزر و مدی بود»، می‌گوید تام. «می‌توانید با تلاش بسیار کم، نویز زیادی ایجاد کنید.»

    در r/Ukraine، که نزدیک به یک میلیون عضو دارد، تام به یاد می‌آورد که از دیگر modها آموزش گرفته تا گسترش پروپاگاندای روسی را کاهش دهد و حتی حمایت تخصصی از ادمین‌های ردیت دریافت کرده، که یک قدم بالاتر از داوطلبان هستند و واقعاً برای ردیت کار می‌کنند و حقوق می‌گیرند.

    پول‌سازی از کارما

    علاوه بر انگیزه‌های ایدئولوژیک، راه‌های کمتر شناخته‌شده‌ای برای پول‌سازی از محتوای ردیت هم وجود دارد. برخی واضح‌تر هستند، مانند برنامه Reddit Contributor، که به پست‌کننده‌ها اجازه می‌دهد از گرفتن upvotes (که به عنوان «کارما» شناخته می‌شود) و جوایزی که کاربران دیگر می‌توانند برای‌شان بخرند، پول دربیاورند. hustlerهای ردیت theoretically می‌توانند از محتوای تولیدشده توسط هوش مصنوعی برای جمع کردن کارما، سود بردن از آن، و حتی فروش حساب‌های‌شان استفاده کنند.

    «حساب ردیت من ارزش پولی زیادی دارد، و می‌دانم چون مردم مدام سعی می‌کنند بخرندش»، می‌گوید تام. «می‌تواند برای اهداف شیطانی هم استفاده شود، اما مشکوکم که بیشترش افراد بی‌حوصله‌ای هستند که زمان دارند، مثل ‘خب، می‌توانم در یک ماه صد دلار کنار دربیاورم با تقریباً هیچ کاری’.»

    حساب‌های دیگر به کارما نیاز دارند تا به subredditهای NSFW با الزامات کارما دسترسی پیدا کنند، جایی که سپس می‌توانند چیزهایی مانند لینک‌های OnlyFans را تبلیغ کنند. هر دو کِسی و moderator r/AITAH متوجه حساب‌هایی شده‌اند که در subredditهای بزرگ‌تر پست می‌کنند تا کارما جمع کنند قبل از رفتن به پست محتوای بزرگسالانه. برخی از آن‌ها کلاهبردار هستند. دیگران ممکن است فقط سعی در امرار معاش داشته باشند.

    «گاهی واقعی است، گاهی درگیری واقعی‌ای است که واقعاً داشته‌اند، گاهی جعلی، گاهی هر طور که باشد توسط هوش مصنوعی تولید شده»، می‌گوید کِسی. «تقریباً می‌خواهم اسمش را gamification بگذارم، جایی که فقط سعی می‌کنند سیستم را همان‌طور که تنظیم شده استفاده کنند.»

    زمان اضافی که moderatorهای ردیت برای غربال کردن مواد مشکوک به هوش مصنوعی صرف می‌کنند، بازتابی از این است که محتوای هوش مصنوعی به طور کلی موانع جدیدی ایجاد کرده، که فراتر از حوزه moderation رسانه‌های اجتماعی گسترش می‌یابد.

    «آنچه moderatorهای ردیت با آن دست و پنجه نرم می‌کنند، همان چیزی است که مردم همه جا الان با آن روبرو هستند، یعنی سازگاری با دنیایی که ایجاد محتوای تولیدشده توسط هوش مصنوعی که plausible به نظر می‌رسد، تلاش بسیار کمی می‌برد، و ارزیابی آن تلاش بسیار بیشتری می‌برد»، می‌گوید لوید. «این بار واقعی‌ای روی دوش‌شان است، مثل معلمان و هر کس دیگر.»

  • آیا هوش مصنوعی می‌تواند به پیش‌بینان‌ها کمک کند تا طوفان‌های ویرانگر را بهتر پیش‌بینی کنند؟

    مرکز ملی طوفان‌های گرمسیری قابلیت‌های گوگل دیپ‌مایند را آزمایش کرد.


    در این عکس آرشیوی از ۳۰ مه ۲۰۲۵، هواشناس تحلیل طوفان‌های گرمسیری، آیدان ماهونی، در ایستگاه خود در مرکز ملی طوفان‌های اداره ملی اقیانوسی و جوی (NOAA) در میامی مشغول به کار است.
    چنددان خانا/ای‌اف‌پی از طریق گتی ایمیجز، آرشیو

    چرا هیچ طوفانی در سال ۲۰۲۵ به خاک ایالات متحده نرسید

    طبق گزارش NOAA، پس از افزودن مدل دیپ‌مایند به جعبه ابزار گسترده پیش‌بینان‌ها، این مدل در برخی موارد عملکرد بهتری نسبت به همتایان سنتی و حجیم خود داشت.

    این سازمان پیش‌بینی طوفان ملیسا را به عنوان مثالی برجسته ذکر کرد.

    مدل دیپ‌مایند، و همچنین نسخه هوش مصنوعی مدل اروپایی، به پیش‌بینان‌های مرکز ملی طوفان‌ها (NHC) درجه‌ای غیرمعمول از اطمینان داد که طوفان ملیسا به سرعت به یک طوفان عمده دسته ۵ تبدیل خواهد شد و پیش از آن ضربه ویرانگری به جامائیکا وارد خواهد کرد.

    «من واقعاً از توانایی [مدل دیپ‌مایند] در مدیریت تشدید سریع تحت تأثیر قرار گرفتم، زیرا این موضوعی چالش‌برانگیز برای بسیاری از این نوع مدل‌ها بوده است»، گفت مت لانزا، ویراستار مدیر وبلاگ The Eyewall. «کاری که در طول ملیسا انجام داد، بدون شک در هشدار دادن درباره ریسک بسیار بالا نقش حیاتی ایفا کرد»، لانزا افزود.

    به طور کلی، NOAA گزارش می‌دهد که مدل دیپ‌مایند دقیق‌ترین مدل برای مسیر طوفان و شدت آن بود و تنها پیش‌بینی که از آن در دقت پیشی گرفت، پیش‌بینی‌های رسمی NHC بود.

    ساختمان‌ها و سازه‌های آسیب‌دیده در منطقه سنت الیزابت، جامائیکا، در ۲۹ اکتبر ۲۰۲۵، پس از عبور طوفان ملیسا از جزیره دیده می‌شود.
    ای‌اف‌پی ویدئوگرافیک/ای‌اف‌پی از طریق گتی ایمیجز، آرشیو

    طوفان ملیسا یکی از قوی‌ترین طوفان‌های آتلانتیک ثبت‌شده در تاریخ است که به خشکی رسیده

    جیمز فرانکلین، رئیس سابق شاخه NHC، در شبکه‌های اجتماعی نتایج را تحلیل کرد و آن را «سال طلایی» برای مدل گوگل دیپ‌مایند نامید.

    سخنگوی تیم گوگل دیپ‌مایند گفت که اگرچه این عملکرد قوی برای قابلیت‌های پیش‌بینی آب و هوای مدل بود، اما توصیه می‌کنند عملکرد مدل را بر اساس یک طوفان یا معیار واحد توصیف نکنند.

    چگونه کار می‌کند؟

    مدل‌های سنتی آب و هوا – مانند مدل اروپایی و سیستم پیش‌بینی جهانی آمریکایی که NHC به طور منظم از آن استفاده می‌کند – بر شبیه‌سازی‌های پیچیده تکیه دارند که از معادلات جوی و فیزیکی استفاده می‌کنند و برای اجرا به زمان و قدرت محاسباتی قابل توجهی نیاز دارند.

    مدل‌های هوش مصنوعی آب و هوا، مانند مدل دیپ‌مایند، به قدرت محاسباتی کمتری نیاز دارند و سریع‌تر هستند. آن‌ها با بررسی داده‌های تاریخی آب و هوا، شناسایی الگوها و روابط از طوفان‌های گذشته، یاد می‌گیرند پیش‌بینی کنند و پیش‌بینی‌های خود را در ثانیه‌ها تکمیل می‌کنند.

    «مدل‌های هوش مصنوعی/یادگیری ماشین از اطلاعات میدان‌های آب و هوایی گذشته استفاده می‌کنند، معمولاً بیش از ۴۰ سال از وضعیت جو در فواصل ۶ ساعته، تا «یاد بگیرند» جو چگونه با گذشت زمان تکامل می‌یابد»، گفت رایان تورن، استاد و پژوهشگر در دانشگاه آلبانی که متخصص مدل‌سازی آب و هوا است.

    «پس از اینکه مدل هوش مصنوعی/یادگیری ماشین جو را یاد گرفت، می‌توانید اطلاعات وضعیت فعلی جو را به آن بدهید تا پیش‌بینی ایجاد کند»، تورن افزود.

    در مورد مدل هوش مصنوعی دیپ‌مایند، گوگل می‌گوید که صدها سناریوی مختلف آب و هوایی را از یک نقطه شروع واحد در عرض چند دقیقه تولید می‌کند، در حالی که مدل‌های سنتی ساعت‌ها طول می‌کشد تا همین کار را انجام دهند.

    طوفان ملیسا.
    NOAA

    با وجود مزایای استفاده از هوش مصنوعی در فصل طوفان‌های ۲۰۲۵، تحقیقات و آزمایش‌های بیشتری لازم است تا مدل‌های مبتنی بر هوش مصنوعی بر پیش‌بینی مسلط شوند.

    لانزا گفت مدل‌هایی مانند دیپ‌مایند هنوز باید خود را با طوفان‌های خلیج ثابت کنند، زیرا فصل طوفان امسال به طور غیرعادی آرام بود.

    «وقتی به آب و هوای شدید و تغییرات آب و هوایی فکر می‌کنید، باید به این هم فکر کنید که رویدادهایی خارج از مرزهای انتظار رخ خواهند داد و مدل‌سازی هوش مصنوعی ممکن است آن ریسک را ثبت نکند»، گفت لانزا. «اینجاست که مدل‌سازی مبتنی بر فیزیک سنتی ممکن است همچنان ضروری بماند»، لانزا افزود.

    تورن نیز بر اهمیت مدل‌های سنتی تأکید کرد، در حالی که مدل‌های هوش مصنوعی سعی می‌کنند خطاهای ناشی از تغییرات ناگهانی آب و هوا یا شکاف‌های داده‌های آب و هوایی را با هموار کردن تفاوت‌ها کاهش دهند.

    «پخش کردن تفاوت‌ها در سطح وسیع‌تری فاقد معنای فیزیکی است و پیش‌بینی را بعداً تحت تأثیر قرار خواهد داد»، گفت تورن. «مدل‌های کاملاً فیزیکی ما در این زمینه عملکرد بهتری دارند زیرا قوانین فیزیکی را در مدل‌ها گنجانده‌ایم.»

    سخنگوی تیم گوگل دیپ‌مایند گفت که در حالی که مدل‌های هوش مصنوعی آب و هوا معادلات پیچیده فیزیکی و جوی را مانند همتایان سنتی خود پردازش نمی‌کنند، آن‌ها را با استفاده از مدل‌های سنتی برای آموزش و شرایط اولیه تکمیل می‌کنند – ترکیبی از سرعت و دقت برای بهبود پیش‌بینی‌ها.

  • آیا تست DNA انجام داده‌اید؟ این چت‌بات درباره نتایج شما صحبت خواهد کرد.

    الکس کوتلار، مؤسس Bystro AI، در دفترهای استارتاپ در بوستون.
    الکس کوتلار، مؤسس Bystro AI، در دفترهای استارتاپ در بوستون. دیوید ال. رایان/کارکنان گلوب

    آزمون‌های ژنتیکی ارسال‌شونده که میلیون‌ها نفر برای ردیابی پیشینهٔ خود از آن استفاده می‌کنند، می‌توانند به مردم در داشتن زندگی سالم‌تر نیز کمک کنند. این دقیقاً پیام Bystro AI است؛ استارتاپی بوستونی که با به‌کارگیری هوش مصنوعی، به افراد کمک می‌کند تا از DNA خود درس‌های کلیدی زندگی را بیاموزند.

    Bystro که در سال ۲۰۲۱ تأسیس شد، ثبت‌نام کاربران برای چت‌بات هوش مصنوعی جدید خود را آغاز کرده است. کاربران می‌توانند نتایج آزمون ژنتیکی خود را به آن وارد کنند و سپس سؤالاتی دربارهٔ بهینه‌سازی رژیم غذایی، بهترین نوع تمرینات یا احتمال ابتلا به بیماری‌های جدی مانند بیماری کلیه یا آلزایمر بپرسند.

    «من فکر می‌کنم در آدم‌ها تمایل پنهانی برای کنترل سلامت خود وجود دارد»، الکس کوتلار، بنیان‌گذار شرکت، گفت. «و تا جایی که می‌توانم، می‌خواهم به آن‌ها توانمندی این‌کار را اعطا کنم.»

    ویدئوی ویژه

    Bystro از سامانه‌ای هوش مصنوعی استفاده می‌کند که بر پایهٔ حجم عظیمی از پژوهش‌های مربوط به ژنتیک انسان و سلامت آموزش‌دیده است. این سامانه در نسخهٔ تجاری عرضه می‌شود تا به پزشکان و دانشمندان کمک کند داده‌های ژنتیکی مهم را به‌سرعت استخراج کرده و هم برای پژوهش و هم برای درمان بیماران به‌کار ببرند. شرکت انتظار دارد برای نسخهٔ حرفه‌ای، ماهانه بین ۲۰۰ تا ۳۰۰ دلار هزینه دریافت کند و همچنین قصد دارد مجوزهایی برای کاربران دانشگاهی و شرکتی ارائه دهد.

    اما Bystro همچنین قصد دارد نسخه‌ای مصرف‌کننده‌محور به‌قیمت ۱۰ دلار در ماه ارائه دهد که برای افرادی است که اطلاعات ژنومیک خود را از سرویس‌های تحلیل ژنوم‌های انسانی که برای پیگیری تاریخچهٔ خانوادگی افراد ارائه می‌شود، مانند Ancestry یا 23andMe، خریداری کرده‌اند.

    برخی پژوهشگران متخصص در ژنتیک و بیماری‌ها، تردید خود را نسبت به این‌که چنین خدمتی به مصرف‌کنندگان سود می‌رساند، ابراز کردند. آن‌ها استدلال می‌کنند که ژنتیک نقش نسبتاً کمی در اکثر وضعیت‌های پزشکی ایفا می‌کند، در حالی که محیط و سبک زندگی اهمیت بیشتری دارند. لیندسی فارر، استادیورژیک در دانشگاه بوستون، گفت: «پروفایل‌های ژنتیکی اکثر افراد خطر ابتلا به بیماری‌های شایع دوران بزرگسالی و سالمندی را تنها تا کسری که معمولاً به‌مرّ کمتر از ۵۰ درصد است، افزایش می‌دهند. نه ۱۰۰ درصد.»

    یک نگرانی دیگر می‌تواند حریم شخصی باشد. کوتلار می‌داند که DNA یک فرد از جملهٔ خصوصی‌ترین اطلاعات است. او می‌گوید Bystro سامانهٔ هوش مصنوعی خود را بر پایهٔ پژوهش‌های علمی آموزش می‌دهد، نه بر روی اطلاعات ژنتیکی کاربران. «ما نیازی نداریم که از داده‌های افراد یاد بگیریم»، او افزود. «مجموعهٔ داده‌ها تا زمانی که کاربر بخواهد از آن استفاده کند، باقی می‌ماند، اما ما کاری با آن انجام نمی‌دهیم.»

    کوتلار بر این باور است که افرادی که نگران سلامت خود هستند، حق دسترسی به تمام اطلاعاتی که می‌توانند به‌دست آورند را دارند.

    یک تصویر صفحه‌ای از پاسخ چت‌بات AI Bystro به درخواست ارزیابی ریسک ابتلا به بیماری کلیوی یک شخص، با استفاده از DNA یک فرد ناشناس به‌عنوان آزمایش.
    یک تصویر صفحه‌ای از پاسخ چت‌بات AI Bystro به درخواست ارزیابی ریسک ابتلا به بیماری کلیوی یک شخص، با استفاده از DNA یک فرد ناشناس به‌عنوان آزمایش. Bystro

    او در مارس ۱۹۸۶ در اوکراین به‌دنیا آمد، زمانی که این کشور هنوز جزو اتحاد جماهیر شوروی بود؛ یک ماه پس از آن انفجار راکتور هسته‌ای در چرنوبیل رخ داد. کوتلار و خانواده‌اش از منطقهٔ رادیواکتیو فرار کردند، هرچند دولت مقیاس فاجعه را مخفی نگه داشت. «ما فقط به این دلیل می‌دانستیم که باید فرار کنیم که کودکان افراد ثروتمند شوروی در حال فرار بودند»، او گفت.

    پس از سال‌ها آزارهای ضد یهودی، کوتلار و مادرش در سال ۱۹۹۱ به آمریکا مهاجرت کردند؛ او در آن زمان پنج ساله بود. در همین دوران، خانواده با مشکلات سلامتی متعددی مواجه شدند — شامل لوسمی، سرطان ریه و مری و کم‌کاری تیروئید. خود کوتلار نیز برای ترمیم کارتیل‌های شکنندهٔ شانه‌هایش به چندین عمل جراحی نیاز داشت.

    کوتلار برنامهٔ مهندسی زیست‌پزشکی را در دانشگاه بوستون آغاز کرد، اما بعداً به رشتهٔ مدیریت بازرگانıی تغییر مسیر داد؛ با این حال علاقه‌اش به پزشکی هرگز کم‌رنگ نشد. «من به‌مدت ۱۲ ساعت در روز PubMed (پایگاه دادهٔ آنلاین پزشکی) مطالعه می‌کردم تا بفهمم چه مشکلی در من وجود دارد و چگونه می‌توانم خانواده‌ام را در برابر آن محافظت کنم.»

    در دانشگاه ایموری آتلانتا، کوتلار دکترای ژنتیک را دریافت کرد و تمرکز خود را بر توسعه ابزارهایی گذاشت که به افراد کمک می‌کند تا اطلاعات مفید را از حجم عظیم داده‌های ژنتیکی استخراج کنند. ظهور سیستم‌هایی نظیر ChatGPT گزینهٔ قدرتمند جدیدی فراهم کرد — هوش مصنوعی‌ای که می‌تواند گفتار عادی انسان را درک کرده و به زبانی پاسخ دهد که افراد غیرمتخصص به‌راحتی درک کنند.

    اموری در تأمین هدیهٔ یک میلیون دلاری از یک خیرکار ناشناس برای راه‌اندازی Bystro کمک کرد. نام این شرکت ربطی به رستوران‌های صمیمی ندارد؛ این واژهٔ روسی به معنای «سریع» است.

    کاربران Bystro می‌توانند بپرسند آیا ویژگی‌های ژنتیکی خاصی دارند که ممکن است در آینده منجر به مشکلات سلامتی شوند. برای مثال، بسیاری از افراد با سابقهٔ افریقایی ژنی دارند که در برابر بیماری‌های انگلی محافظت می‌کند، اما به‌طرز قابل‌توجهی احتمال ابتلا به بیماری کلیوی را افزایش می‌دهد.

    یا کاربری می‌تواند بپرسد آیا یک مشکل پزشکی موجود ممکن است ریشهٔ ژنتیکی داشته باشد. به‌عنوان مثال، فردی که به‌طور مکرر دچار سوءهاضمه است، می‌تواند دریابد که به‌صورت ژنتیکی مستعد عدم تحمل لاکتوز است.

    اما ساموئل اسکاپینو، مدیر هوش مصنوعی و علوم زندگی در مؤسسهٔ AI تجربی در دانشگاه نورث‌ایسترن، گفت عوامل محیطی برای اکثر افراد به‌مرّ بیش از ژنتیک اهمیت دارند. «حتی اگر سیگنالی از کد ژنتیک استخراج شود، احتمالاً توسط انتخاب‌های سبک زندگی شما یا مکانی که به‌دنیا آمده‌اید، کم‌رنگ می‌شود»، اسکاپینو اظهار کرد. «همهٔ این عوامل متنوع تأثیر بسیار بزرگ‌تری خواهند داشت.»

    با این حال، نظرسنجی‌ای توسط مرکز پزشکی دانشگاه تگزاس سوت‌وِست‌رن نشان می‌دهد که ۴۰ درصد از ساکنان ایالات متحده از نوعی آزمایش ژنتیکی استفاده کرده‌اند. کوتلار بر این باور است که بسیاری از آن‌ها خوش‌حالانه برای یک چت‌بات DNA ثبت‌نام خواهند کرد.

    «با Bystro، هر کسی که ژنوم و سؤال دارد می‌تواند گفت‌و‌گویی با زیست‌شناسی خود آغاز کند»، او گفت.

  • هوش مصنوعی می‌تواند تا ۲۰۲۶، یک‌سوم از فیلم‌ها و انیمیشن‌های بلند را به‌دست گیرد، بر اساس گفته تِنست چین

    سون ژونگ‌هوای
    HIIFF

    هوش مصنوعی مولد آماده است تا عرضه محتواهای برتر تصویری را متحول کند؛ نایب رئیس غول رسانه‌های آنلاین چینی تِنست و مدیرعامل تِنست ویدیو، سون ژونگ‌هوای، پیش‌بینی می‌کند که تا یک‌سوم از فیلم‌ها و انیمیشن‌های بلند می‌تواند «توسط هوش مصنوعی تسلط پیدا کند یا به‌طور عمیق درگیر هوش مصنوعی باشد» در طول دو سال آینده، اگرچه نگرانی‌های ماندگار دربارهٔ دقت عملکرد و انسجام بصری باقی‌مانده‌اند.

    در جلسه‌ای که در 7ام جشنواره بین‌المللی فیلم جزیره هینان (HIIFF) برگزار شد، سون پیش‌بینی کرد که در سال‌های آینده تحول چشمگیری در تولید محتوای تلویزیونی و فیلم‌های برتر رخ خواهد داد.

    «از منظر زمانی، با نگاه به یک یا دو سال آینده، دلایل کافی داریم تا انتظار داشته باشیم تغییرات مشهودی در ساختار عرضه محتواهای این پلتفرم رخ دهد،» سون اظهار کرد. «در دسته‌های اصلی مانند فیلم، تلویزیون و انیمیشن، آثار تحت تسلط یا به‌طور عمیق درگیر هوش مصنوعی می‌توانند به‌احتمال ۱۰ تا ۳۰ درصد از کل سهم برسند.»

    با اشاره به محتوای کوتاه‌مدت، سون نتیجه‌گیری کرد که مسابقه‌ توسط محصولات هوش مصنوعی مولد پیشاپیش به‌دست آمده است.

    سون گفت: «محتوای کوتاه شبیه کالاهای مصرفی پرسرعت (FMCG) است که بی‌رحمانه به دنبال کارایی می‌گردد.» او افزود: «در این زمینه، درام‌های کوتاه و انیمیشن‌های کوتاهی که می‌شناسیم پیشتاز شده‌اند و هزینه‌ها را به‌طرز چشمگیری کاهش داده‌اند. ما برآورد می‌کنیم که شرکت‌های بومی هوش مصنوعی در زمینه انیمیشن‌های کوتاه هم‌اکنون تقریباً ۳۰٪ از بازار را تشکیل می‌دهند.»

    علیرغم پیش‌بینی خوش‌بینانه، عوامل متعددی همچنان به‌عنوان موانع برای هوش مصنوعی مولد در محتوای بلندمدت باقی مانده‌اند، از جمله توانایی حفظ ثبات و عدم توانایی در تکرار عملکردهای انسانی.

    سون توضیح داد: «فناوری ویدئوی هوش مصنوعی هنوز نتوانسته است مسائلی چون ثبات بصری و قابلیت کنترل را حل کند.» او افزود: «با افزایش مدت زمان صحنه‌ها، تغییرات جزئیات در شخصیت‌ها به‌وضوح آشکار می‌شود.»

    سون همچنین اشاره کرد که بازی‌های انسانی شامل میکرو‑ابرازات و میکرو‑حرکات است که نسل فعلی هوش مصنوعی قادر به بازتولید آن‌ها نیست، که این امر در ایجاد تنش و ظرافت عاطفی خلأهایی به‌وجود می‌آورد.

    او همچنین ذکر کرد که اکثر محتوای تولیدشده توسط هوش مصنوعی به‌صورت رزولوشن ۱۰۸۰p HD محدود است، که با استانداردهای ۴K یا انتشار در سالن‌های سینمایی DCI مطابقت ندارد.

    با این حال، سون تأکید کرد که این موانع موقت هستند و پیش‌بینی کرد که هوش مصنوعی به فیلمسازان امکان می‌دهد به ژانرهای بلندپروازانه‌ای بازگردند که پیشتر به‌دلیل ریسک مالی زیاد، برای استودیوها غیرقابل تأیید بودند.

    سون گفت: «ژانرهایی که پیش‌تر به‌دلیل ریسک‌های بازار نادیده گرفته می‌شدند، مانند علمی‑تخیلی بزرگ و روایت‌های عظیم «عصر کشفیات»، با کاهش هزینه‌ای که هوش مصنوعی فراهم می‌کند، احیا خواهند شد.»

    برای سازگاری با این آینده، سون فاش کرد که تِنست ویدیو به‌طور فعال ابزارهای هوش مصنوعی را در جریان کارهای سنتی خود می‌گنجاند؛ او گفت که در حال حاضر هوش مصنوعی در مراحل اولیه طراحی مفهوم، پیش‑نمایش (pre‑vis) و روت‌اسکاپینگ به‌کار گرفته می‌شود. در تولید مجازی با LED، هوش مصنوعی برای ساخت صحنه‌های دیجیتال پیچیده‌ای که به‌عنوان پس‌زمینه مورد نیاز است، استفاده می‌شود.

    سون به انتقادهایی که هوش مصنوعی سبب بیکاری در صنایع خلاق می‌شود پاسخ داد و بیان کرد که تِنست توسعه استعدادها را به‌عنوان اولویت اصلی در شرکت می‌داند.

    سون گفت: «مدل استعدادی برای تولید فیلم‌های آینده به افراد با توانایی‌های چندوجهی (پُلی‌مت) نیاز دارد؛ به زبان ساده‌تر، ما به مهندسان هنر یا هنرمندان فنی نیاز داریم و با برترین دانشگاه‌ها و مؤسسات برای پرورش این افراد همکاری می‌کنیم.»

    سون گفت: «ما واقعاً خوش‌شانسیم که می‌توانیم دورهٔ رنسانس واقعی را در صنعت فیلم تجربه کنیم. هیجان‌انگیزترین تجربه‌های انسانی هنگام عبور از حالت عدم‌اطمینان به سمت یقین رخ می‌دهد.»

  • تحقیقات هوش مصنوعی با مشکل بی‌کیفیتی مواجه است؛ محققان می‌گویند: «وضعیت هرج‌ومرج است»

    تحقیقات هوش مصنوعی زیر سؤال قرار گرفته است؛ چرا که نویسنده ادعا می‌کند بیش از ۱۰۰ مقاله درباره هوش مصنوعی نوشته است؛ که یک کارشناس آن را «فاجعه» می‌نامد.

    یک فرد ادعا می‌کند که در این سال ۱۱۳ مقاله علمی در حوزه هوش مصنوعی منتشر کرده است؛ ۸۹ مقاله از اینها امشب در یکی از برترین همایش‌های جهان در زمینه هوش مصنوعی و یادگیری ماشین ارائه می‌شود؛ که این موضوع سؤالاتی را در میان محققان علوم کامپیوتر درباره وضعیت پژوهش‌های هوش مصنوعی برانگیخته است.

    نویسنده، کوین ژو، به‌تازگی مدرک لیسانس علوم کامپیوتر خود را از دانشگاه کالیفرنیا، برکلی دریافت کرده و اکنون شرکت Algoverse را که یک شرکت تحقیق و مشاوره هوش مصنوعی برای دانش‌آموزان دبیرستانی است – بسیاری از این دانش‌آموزان هم‌نویسندگان او در مقالات می‌باشند – اداره می‌کند. ژو خود در سال ۲۰۱۸ دیپلم دبیرستان خود را به‌دست آورد.

    مقالاتی که او در دو سال گذشته منتشر کرده است، شامل موضوعاتی مانند به‌کارگیری هوش مصنوعی برای شناسایی چوپانان کوچ‌نشین در جنوب صحرای آفریقا، ارزیابی ضایعات پوستی، و ترجمه گویش‌های اندونزیایی می‌شود. در صفحهٔ لینکدین‌اش، او ادعا می‌کند که «بیش از ۱۰۰ مقاله در کنفرانس‌های برتر در سال گذشته» منتشر کرده و این مقالات «توسط OpenAI، مایکروسافت، گوگل، استنفورد، MIT، آکسفورد و دیگران» ارجاع داده شده‌اند.

    پپ‌های ژو یک «فاجعه» است، هانی فرید، استاد علوم کامپیوتر در برکلی، در مصاحبه‌ای گفت. «من تقریباً مطمئن هستم که تمام این کار، از بالا تا پایین، صرفاً کدنویسی با هوش مصنوعی است»، او افزود، که به معنای استفاده از هوش مصنوعی برای ایجاد نرم‌افزار است.

    فرید در یک پست اخیر در لینکدین به انتشار پراکندهای مقالات ژو اشاره کرد؛ این موضوع بحثی درباره موارد مشابه دیگر در میان پژوهشگران هوش مصنوعی برانگیخت، که گفته‌اند این رشته‌ای که به‌تازگی پرطرفدار شده، با سیلابی از مقالات کم‌کیفیت مواجه است؛ این مسأله ناشی از فشارهای دانشگاهی و، در برخی موارد، ابزارهای هوش مصنوعی است.

    در پاسخ به سؤال گاردین، ژو اعلام کرد که بر ۱۳۱ مقاله نظارت داشته است؛ این مقالات «پروژه‌های تیمی» هستند که توسط شرکتش Algoverse اجرا می‌شوند. این شرکت برای دانش‌آموزان دبیرستانی و دوره‌های کارشناسی مبلغ ۳,۳۲۵ دلار بابت برنامهٔ انتخابی ۱۲ هفته‌ای مشاورهٔ آنلاین دریافت می‌کند – برنامه‌ای که شامل کمک برای ارسال کارها به همایش‌ها می‌شود.

    «در حداقل، من به بررسی روش‌شناسی و طراحی آزمایشی در پیشنهادها کمک می‌کنم و پیش‌نویس‌های کامل مقاله‌ها را پیش از ارسال می‌خوانم و نظراتم را اعلام می‌کنم»، او گفت و افزود که پروژه‌های مرتبط با حوزه‌های زبان‌شناسی، بهداشت یا آموزش شامل «پژوهشگر اصلی یا مربی با تخصص مرتبط» می‌شوند.

    تیم‌ها از «ابزارهای استاندارد بهره‌وری نظیر مدیران ارجاع، بررسی‌کنندهٔ املایی، و گاهی مدل‌های زبانی برای ویرایش متن یا بهبود وضوح» استفاده کردند، او در پاسخ به این سؤال که آیا مقالات با هوش مصنوعی نوشته شده‌اند، گفت.

    ناظران ربات‌ها در آشفتگی

    استانداردهای بازبینی مقالات در حوزه هوش مصنوعی با بیشتر حوزه‌های علمی دیگر متفاوت است. بیشتر کارهای هوش مصنوعی و یادگیری ماشین تحت فرآیند دقیق بررسی همتاهای علمی مانند در شیمی یا زیست‌شناسی قرار نمی‌گیرند؛ در عوض، مقالات اغلب به‌صورت غیررسمی‌تر در همایش‌های بزرگی چون NeurIPS – یکی از معتبرترین همایش‌های جهانی یادگیری ماشین و هوش مصنوعی – که ژو قرار است در آن ارائه دهد، ارائه می‌شوند.

    موارد ژو به یک مسألهٔ بزرگ‌تر در پژوهش هوش مصنوعی اشاره می‌کند، فرید گفت. همایش‌هایی از جمله NeurIPS با افزایش قابل توجهی در تعداد مقالات دریافتی مواجه هستند: این همایش در سال جاری ۲۱٬۵۷۵ مقاله دریافت کرده است که در سال ۲۰۲۰ کمتر از ۱۰٬۰۰۰ مقاله دریافت می‌کرد. یک همایش برتر دیگر هوش مصنوعی، International Conference on Learning Representations (ICLR)، گزارش داد که تعداد مقالات سالانهٔ خود برای همایش ۲۰۲۶، ۷۰٪ افزایش یافته است و به‌حدی نزدیک به ۲۰٬۰۰۰ مقاله رسیده؛ در مقایسه با بیش از ۱۱٬۰۰۰ مقاله در همایش ۲۰۲۵.

    «نقادان از کیفیت پایین مقالات شکایت می‌کنند، حتی گمان می‌دارند که برخی به‌وسیلۀ هوش مصنوعی تولید شده‌اند. چرا این جشنوارهٔ علمی طعم خود را از دست داده؟» این سؤال توسط وبلاگ فناوری چینی ۳۶Kr در یک پست نوامبر درباره ICLR مطرح شد و به این نکته اشاره کرد که میانگین امتیازهای داده‌شده به مقالات توسط بازبین‌ها سال به سال کاهش یافته است.

    در این میان، دانشجویان و پژوهشگران تحت فشار روزافزون برای افزایش تعداد مقالات و هم‌سطحی شدن با همتایانشان قرار دارند. تولید دو رقمی (و حتی سه رقمی) مقالهٔ علمی با کیفیت بالا در زمینهٔ علوم کامپیوتری در یک سال، امری نادر است؛ محققان اظهار داشتند. فرید می‌گوید که گاهی دانش‌آموزان او برای افزایش شمار مقالات خود، مقالاتی را با کدنویسی هوش مصنوعی تهیه می‌کنند.

    «بسیاری از جوانان می‌خواهند وارد هوش مصنوعی شوند. در حال حاضر یک هوس بزرگ وجود دارد»، فرید گفت.

    NeurIPS مقالات ارسالی را بازبینی می‌کند، اما فرایند آن بسیار سریع‌تر و کمتر دقیق نسبت به ارزیابی همتاهای علمی استاندارد است، جفری والینگ، استادیار دانشگاه ویرجینیای تک، گفت. در سال جاری، این همایش از تعداد زیادی دانشجوی دکترا برای ارزیابی مقالات بهره گرفته است؛ که یک رئیس بخش NeurIPS اعلام کرد این أمر فرایند را به‌خطر انداخته است.

    «واقعیت این است که بسیاری از ارزیابان همایش‌ها مجبورند در مدت زمان کوتاهی ده‌ها مقاله را بررسی کنند و معمولاً امکان اصلاح یا بازنگری وجود ندارد»، والینگ گفت.

    والینگ با فرید موافقت کرد که در حال حاضر تعداد زیادی مقاله منتشر می‌شود و گفت که با نویسندگانی که بیش از ۱۰۰ مقاله در یک سال منتشر کرده‌اند، مواجه شده است. «در دنیای آکادمیک، بیشتر برای حجم انتشار مقالات پاداش می‌دهند نه برای کیفیت… همه به افسانهٔ بهره‌وری فوق‌العاده علاقه‌مندند»، او افزود.

    در صفحهٔ پرسش‌های متداول (FAQ) Algoverse متعلق به ژو، توضیح داده می‌شود که چگونه برنامهٔ این شرکت می‌تواند افق‌های تحصیلی یا شغلی درخواست‌کنندگان را ارتقا بخشد. او می‌گوید: «مهارت‌ها، دستاوردها و انتشاراتی که اینجا به‌دست می‌آورید، در جامعهٔ علمی بسیار مورد احترام است و می‌تواند به‌طرز چشمگیری پروندهٔ پذیرش دانشگاه یا رزومهٔ شما را تقویت کند. این امر به‌ویژه در صورتی صادق است که پژوهش شما در یک همایش برتر پذیرفته شود – دستاوردی معتبر حتی برای پژوهشگران حرفه‌ای.»

    فرید می‌گوید که اکنون به دانش‌آموزان توصیه می‌کند از ورود به پژوهش‌های هوش مصنوعی خودداری کنند، زیرا «هوس» موجود در این حوزه و حجم بالای کارهای کم‌کیفیت که افراد برای بهبود چشم‌انداز شغلی خود منتشر می‌کنند، در حال گسترش است.

    سیل بی‌کیفیتی

    کارهای برجسته‌ای همچنان از این روند به‌دست آمده است. به‌عنوان مثال، مقالهٔ گوگل دربارهٔ ترانسفورمرها با عنوان «Attention Is All You Need» — که پایهٔ نظری پیشرفت‌های هوش مصنوعی منجر به ChatGPT است — در سال ۲۰۱۷ در NeurIPS ارائه شد.

    سازمان‌دهندگان NeurIPS تصدیق کردند که این همایش تحت فشار است. در اظهار نظری به گاردین، یک سخنگوی این همایش گفت که رشد هوش مصنوعی به‌عنوان حوزه‌ای، «افزایش قابل‌توجهی در تعداد مقالات ارسالی و ارزش افزوده در پذیرش‌های بازبینی همتا در NeurIPS» را به همراه داشته است؛ که «بار سنگینی بر سیستم ارزیابی ما وارد کرده است».

    مقالات ارسالی ژو عمدتاً در کارگاه‌های NeurIPS بوده‌اند، که فرآیند انتخاب متفاوتی نسبت به همایش اصلی دارند و معمولاً محلی برای ارائهٔ کارهای تازه‌کارانه هستند، به‌نظر برگزار‌کنندگان NeurIPS. فرید افزود که این توجیهی قانع‌کننده برای اینکه یک نفر نام خود را بر بیش از ۱۰۰ مقاله بگذارد، به‌نظر نمی‌رسد.

    «این توجیه برای افزودن نام خود بر ۱۰۰ مقاله که به‌طور معنا‌داری نمی‌توانستید در آن‌ها مشارکت کنید، برایم قانع‌کننده نیست»، فرید گفت.

    این مشکل بزرگ‌تر از سیل مقالات در NeurIPS است. ICLR برای بررسی حجم زیادی از ارسال‌ها از هوش مصنوعی بهره برد؛ که به‌نظر می‌رسید منجر به ارجاعاتی «تخیلی» و بازخوردی «بسیار پرحرف با تعداد زیادی نکته‌نامه» شده است، طبق مقاله‌ای اخیر در Nature.

    احساس کاهش کیفیت به حدی گسترده شد که یافتن راه‌حل برای این بحران خود به‌عنوان موضوعی برای مقالات بدل گشت. مقالهٔ موضعی‌ای که در ماه می ۲۰۲۵ منتشر شد — نسخهٔ علمی و مبتنی بر شواهدی از یک مقالهٔ سرخط روزنامه — توسط سه دانشمند کامپیوتر کرهٔ جنوبی تألیف شد که راه‌حلی برای «چالش‌های بی‌سابقهٔ رشدی که در ارسال مقالات رخ داده، به‌همراه نگرانی‌های فزاینده درباره کیفیت ارزیابی و مسئولیت داوران» ارائه داد؛ این مقاله جوایز کار برتر را در همایش بین‌المللی یادگیری ماشین ۲۰۲۵ به خود اختصاص داد.

    در همین حال، به گفته فرید، شرکت‌های بزرگ فناوری و سازمان‌های کوچک ایمنی هوش مصنوعی کارهای خود را در arXiv بارگذاری می‌کنند؛ سایتی که پیش‌تر فقط برای پیش‌چاپ‌های با بازدید کم در حوزهٔ ریاضیات و فیزیک استفاده می‌شد، و این امر اینترنت را با کارهایی که به‌عنوان علم ارائه می‌شوند پر کرده است — اما تحت استانداردهای بازبینی قرار ندارند.

    هزینهٔ این وضعیت، به گفته فرید، این است که برای خبرنگاران، عموم مردم و حتی کارشناسان این حوزه تقریباً غیرممکن است بفهمند در هوش مصنوعی چه اتفاقی می‌افتد. «به‌عنوان خوانندهٔ متوسط، شما شانس ندارید که بفهمید چه‌ می‌گذرد در ادبیات علمی. نسبت سیگنال به نویز شما تقریباً یک است. من به سختی می‌توانم به این همایش‌ها بروم و بفهمم چه جهنمی در جریان است.»

    «چیزی که به دانشجویان می‌گویم این است که اگر هدف شما انتشار مقالات است، صادقانه بگویم کار خیلی سختی نیست. فقط کارهای بسیار ضعیف و کم‌کیفیت انجام دهید و آنها را به‌صورت انبوه به کنفرانس‌ها بفرستید. اما اگر می‌خواهید کارهای دقیق و اندیشمندانه انجام دهید، در یک موقعیت نامساعد هستید، زیرا عملاً به‌تنهایی سلاح ندارید»، او افزود.

  • محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    بسیاری از شرکت‌ها به‌طور فزاینده‌ای دسترسی به ChatGPT و ابزارهای مشابه هوش مصنوعی را مسدود می‌کنند، عمدتاً به دلیل نگرانی از نشت احتمالی داده‌ها.

    سازمان‌ها نگران‌اند که مدل‌های هوش مصنوعی حاوی اطلاعات محرمانه‌ای باشند، که می‌تواند منجر به آسیب‌پذیری‌های امنیتی شود وقتی کاربران در سراسر جهان با درخواست‌های خود سعی می‌کنند از این مدل‌ها استخراج کنند.

    در نتیجه، شرکت‌ها سیاست‌های دیجیتالی سختگیرانه‌تری را اعمال کرده و دسترسی به پلتفرم‌های خارجی هوش مصنوعی را محدود می‌سازند، حتی اگر این ابزارها می‌توانند بهره‌وری و نوآوری را ارتقا دهند.

    دانشگاه‌ها و مؤسسات آموزشی نیز کنترل‌ها را سخت‌تر می‌کنند و از سامانه‌های تشخیص برای شناسایی محتواهای تولید شده توسط هوش مصنوعی در تکالیف استفاده می‌نمایند.

    آموزگاران بر این باورند که استفادهٔ نامحدود از هوش مصنوعی می‌تواند رشد تفکر انتقادی، خلاقیت و مهارت‌های بنیادی را مختل کند.

    این موضع باعث بروز بحث‌هایی شده است که آیا چنین محدودیت‌هایی به‌واقع محافظت از فرآیند یادگیری را تضمین می‌کند یا صرفاً مانع از ارتقای سواد فناورانهٔ دانش‌آموزان می‌شود؛ سواد فناورانه‌ای که آیندهٔ آنان را شکل خواهد داد.

    به‌طور کلی، محدودیت‌های افزایشی اعمال‌شده بر هوش مصنوعی سؤالات مهمی را دربارهٔ پیامدهای طولانی‌مدت برای خود مدل‌های هوش مصنوعی و رابطهٔ جامعه با هوش مصنوعی نوظهور برانگیخته می‌کند.

    محدود کردن استفاده می‌تواند آشنایی عمومی با هوش مصنوعی را کندتر کند و تنوع به‌کارگیری آن را کاهش دهد.

    در مسیر پیشرفت، یافتن تعادل میان امنیت، اخلاق و نوآوری برای اطمینان از این‌که هوش مصنوعی به‌گونه‌ای تکامل یابد که هم امنیت سازمانی و هم رشد شناختی انسان را پشتیبانی کند، امری اساسی خواهد بود.

  • کلودفلر می‌گوید که در پنج ماه ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است — مدیرعامل هشدار می‌دهد که مدل کسب‌وکار اینترنت به‌طور چشمگیری تغییر خواهد کرد

    نوشته جویی موراتس

    دفتر کلودفلر
    اعتبار تصویر: گتی ایمیجز / ساندری فوتوگرافی

    متیو پرینس، مدیرعامل کلودفلر، اعلام کرد که شرکتش بیش از ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است، از زمان اینکه در جولای امسال پس از اعلام ابتکار «روز استقلال محتوا» این گزینه را به‌صورت پیش‌فرض فعال کرد. پرینس در مصاحبه‌ای با Wired گفت این ویژگی به صاحبان وب‌سایت‌ها اجازه می‌دهد که به‌طور پیش‌فرض ربات‌های هوش مصنوعی را مسدود کنند، مگر این که شرکت هوش مصنوعی برای دسترسی به محتوایشان هزینه‌ای پرداخت کند.

    «مدل کسب‌وکار اینترنت همواره بر پایه تولید محتوایی است که ترافیک را جذب می‌کند و سپس از طریق فروش کالاها، اشتراک‌ها یا تبلیغات درآمدزایی می‌شود»، پرینس به Wired گفت. «اما چیزی که مردم معمولاً درک نمی‌کنند این است که هوش مصنوعی یک تحول سکو (پلتفرمی) است. مدل کسب‌وکار اینترنت در آستانه تغییر چشمگیری است. هنوز نمی‌دانم به چه سمت‌ایی تغییر خواهد کرد، اما این مسأله‌ای است که تقریباً تمام ساعت‌های بیداری‌ام را به فکر آن می‌گذرانم.»

    اگرچه کلودفلر تقریباً تمام ربات‌های هوش مصنوعی را مسدود می‌کند، یک ربات خاص وجود دارد که نمی‌توان بدون تأثیر بر حضور آنلاین مشتریان آن را مسدود کرد — گوگل. این غول جستجو ترکیب‌کردن ربات جستجو و ربات هوش مصنوعی خود را به یک ربات ترکیبی درآورد، به این معنا که کاربرانی که از ربات هوش مصنوعی گوگل انصراف می‌دهند، در نتایج جستجوی گوگل نیز فهرست نمی‌شوند. پرینس ادامه داد: «نمی‌توانید از یکی صرف‌نظر کنید بدون اینکه از هر دو انصراف دهید؛ این یک چالش واقعی است — دیوانه‌کننده است.» «نباید این‌چنین باشد که بتوانید از موقعیت انحصاری دیروز خود بهره‌برداری کنید تا موقعیت انحصاری در بازار فردا بدست آورید.»

    محتوای تولید شده توسط انسان برای شرکت‌های هوش مصنوعی برای آموزش مدل‌هایشان حیاتی است؛ تحقیقات نشان داده‌اند که مدل‌های هوش مصنوعی زمانی که بر پایه داده‌های تولید شده توسط هوش مصنوعی آموزش می‌بینند، کیفیت پایین‌تری تولید می‌کنند. خلاصه‌سازی‌های هوش مصنوعی ثابت کرده‌اند که ترافیک وب‌سایت‌ها را کاهش می‌دهند — به‌ویژه برای سایت‌هایی که به شدت به دیده‌شدن و بازدید برای درآمد تبلیغاتی وابسته‌اند — اما قراردادهای مجوز می‌توانند این کمبود را جبران کنند و به انتشارات آنلاین امکان می‌دهند که همچنان منبع درآمد قابل‌اعتمادی برای خالقان و ناشران باشند.

    کلودفلر همچنین از اینترنت متنوعی که محتوای واقعی انسان‌ها را میزبانی می‌کند، سود خواهد برد. مدیرعامل این شرکت به Wired گفت که به‌دنبال آینده‌ای هستند که در آن خالقان و کسب‌وکارها بر روی یک سطح برابر رشد کنند، زیرا وب‌سایت‌های بیشتری نیاز به محافظت دارند و این مسأله منجر به جذب مشتریان بیشتری برای کلودفلر می‌شود. این امر آن را به یکی از بزرگ‌ترین شبکه‌های تحویل محتوا در جهان تبدیل کرده است؛ به‌طوری‌که در سال ۲۰۲۲، ۷۹٫۹٪ از بازار را در اختیار داشته است. با این حال، این وضعیت اینترنت را در برابر خطرات آسیب‌پذیر می‌کند؛ همان‌طور که یک فایل پیکربندی اشتباه در نوامبر باعث از کار افتادن بخش عظیمی از وب شد.

    این مسأله، مشکل فعلی زیرساخت وب جهانی را که وابسته به تنها چند شرکت بزرگ — از جمله AWS، Azure، کلودفلر، CrowdStrike و گوگل — برای سرویس‌دهی به تمام کره زمین است، برجسته می‌کند. اگرچه این نهادها کار را برای شرکت‌هایی که به اینترنت وابسته‌اند ساده‌تر و کارآمدتر کرده‌اند، اما به این معناست که حتی یک قطعی در این خدمات می‌تواند ضررهای میلیاردی و اختلالات شدید در سرتاسر جهان به بار آورد.

  • «پدرخوانده هوش مصنوعی» گریفی هینتون می‌گوید گوگل در حال «پیشی گرفتن» از OpenAI است: «حدس من این است که گوگل بر خواهد شد»

    گریفی هینتون در یک رویداد سخن می‌گوید
    پیشرو هوش مصنوعی گریفی هینتون می‌گوید گوگل با ساخت سخت‌افزار خود برتری دارد. پونتوس لوندال/خبرگزاری تی‌تی/ای‌اف‌پی از طریق گتی ایمیجز
    • گریفی هینتون گفت از اینکه گوگل این‌قدر طول کشید تا در مسابقه هوش مصنوعی پیشی بگیرد، شگفت‌زده شد.
    • گوگل به‌دلیل عرضهٔ مدل‌های Gemini 3 و Nano Banana Pro تحسین‌های فراوانی دریافت کرد.
    • هینتون، پیشگام هوش مصنوعی که پیش از این در Google Brain کار می‌کرد، گفت این غول فناوری احتمالاً OpenAI را پشت سر خواهد گذاشت.

    «پدرخوانده هوش مصنوعی» معتقد است که زمان آن رسیده که گوگل در مسابقه هوش مصنوعی پیشی بگیرد.

    «به‌نظر من، حتی شگفت‌انگیزتر است که گوگل این‌قدر طول کشیده تا OpenAI را پیشی بگیرد»، گریفی هینتون، استاد بازنشسته دانشگاه تورنتو که پیش از این در Google Brain مشغول به کار بود، در مصاحبه‌ای با Business Insider روز سه‌شنبه گفت.

    گوگل پس از رونمایی پرتحسینی که از Gemini 3 انجام داد، به‌نظر برخی متخصصان فناوری، این به‌روزرسانی شرکت را به سطحی فراتر از GPT‑5 OpenAI ارتقا می‌دهد. مدل تصویر هوش مصنوعی Nano Banana Pro این شرکت نیز به‌عنوان یک موفقیت ثابت شده است.

    سه‌سال پس از آنکه گوگل به‌طور گزارش‌شده پس از انتشار ChatGPT اعلام «کد قرمز» کرد، گزارش‌های اخیر نشان می‌دهند که حالا این OpenAI است که زنگ خطر را می‌زند.

    هینتون درباره موقعیت گوگل نسبت به OpenAI گفت: «فکر می‌کنم در حال حاضر آن‌ها در حال پیشی گرفتن است».

    در کنار موفقیت انتشار آخرین مدل هوش مصنوعی‌اش، سهام گوگل به‌دلیل گزارش‌هایی که ممکن است قرارداد میلیارد دلاری برای تأمین Meta با تراشه‌های هوش مصنوعی خود بسته شود، رشد کرد.

    ساخت تراشه‌های خود، یک «مزیت بزرگ» برای گوگل است، هینتون گفت.

    او گفت: «گوگل دارای پژوهشگران بسیار خوب، داده‌های فراوان و مراکز دادهٔ متعدد است. حدس من این است که گوگل برنده خواهد شد.»

    هینتون که در طول دوران کاری خود در Google Brain به پیشبرد پژوهش‌های هوش مصنوعی کمک کرده بود، گفت که این غول جستجوگر روزی در خط مقدم هوش مصنوعی بود اما خود را محدود کرد.

    او گفت: «گوگل مدت طولانی در صدر بود، نه؟» «گوگل مخازن (transformers) را اختراع کرد. گوگل پیش از دیگران چت‌بات‌های بزرگ داشت.»

    هینتون گفت گوگل پس از راه‌اندازی فاجعه‌بار چت‌بات هوش مصنوعی «Tay» مایکروسافت در سال ۲۰۱۶، که پس از انتشار توییت‌های نژادپرستانه از سرویس خارج شد، محتاط شد.

    او افزود: «گوگل، طبیعتاً، شناخت خوبی داشت و نگران بود که به‌این‌سان به اعتبار خود آسیب برساند.»

    سندار پیشی، مدیرعامل گوگل، پیشتر گفته بود که شرکت در انتشار چت‌بات خود محتاط بوده است.

    پیشی در اوایل امسال گفت: «ما هنوز به سطحی نرسیده بودیم که بتوانیم محصول را منتشر کنیم و مردم با انتشار آن توسط گوگل مشکلی نداشته باشند. آن زمان هنوز مشکلات زیادی داشت.»

    در گذشته، این شرکت برخی عرضه‌های ناپایدار داشته است. فقط سال گذشته، گوگل مجبور شد تولیدکنندهٔ تصویر هوش مصنوعی خود را متوقف کند پس از اینکه برخی کاربران شکایت کردند که نتایج نشان‌دهندهٔ تصاویر تاریخی نادرست از افراد رنگین‌پوست که برای برخی بیش از حد حساس (woke) بود. خلاصه‌های جستجوی اولیهٔ هوش مصنوعی آن‌ها مشاوره‌های بی‌معنی، مانند چسباندن چسب به پیتزا برای جلوگیری از سقوط پنیر، تولید می‌کرد.

    گوگل به‌تازگی کمک مالی بزرگی به دانشگاه در احترام به هینتون ارائه داد

    هینتون پیش از اعلام اینکه گوگل ۱۰ میلیون دلار کانادایی به‌منظور تأسیس کرسی هینتون در هوش مصنوعی در دانشگاه تورنتو اهدا می‌کند، با Business Insider گفتگو کرد. دانشگاهی که هینتون در دوره حضورش در گوگل زمان خود را بین این دو تقسیم می‌کرد، اعلام کرد که این کمک را همتا می‌کند.

    هینتون در سال ۲۰۲۳ گوگل را ترک کرد و نگرانی‌های خود دربارهٔ توسعه هوش مصنوعی را مطرح کرد. از آن زمان، او به‌طور مکرر دربارهٔ خطرات هوش مصنوعی برای جامعه، از توانایی پیشی گرفتن از انسان تا جایگزینی مشاغل، سخن گفته است. در سال ۲۰۲۴، هینتون به‌صورت مشترک جایزه نوبل فیزیک را دریافت کرد.

    گوگل در بیانیه‌ای گفت: «کارهای گریفی هینتون در زمینهٔ شبکه‌های عصبی — از دوران دانشگاهی‌اش تا دهه‌ای که در گوگل سپری کرد — بنای هوش مصنوعی مدرن را پایه‌گذاری کرد.» «این کرسی، به ارث او افتخار می‌کند و به دانشگاه کمک می‌نماید تا پژوهشگران بصیرتی را جذب کند که به همان‌گونه که هینتون تشویق می‌کرد، به تحقیق بنیادی و کنجکاوی‌محور متعهد باشند.»

  • Titans + MIRAS: کمک به هوش مصنوعی برای داشتن حافظهٔ بلندمدت

    ما معماری Titans و چارچوب MIRAS را معرفی می‌کنیم؛ این‌ها به مدل‌های هوش مصنوعی اجازه می‌دهند سرعت کار را به‌طور چشمگیری افزایش داده و زمینه‌های وسیع را با به‌روزرسانی حافظهٔ اصلی در حین اجرای فعال، مدیریت کنند.

    معماری ترنسفرمر با معرفی مکانیزم توجه، که به مدل‌ها اجازه می‌دهد به ورودی‌های قبلی نگاه کنند و داده‌های مرتبط را اولویت‌بندی کنند، انقلابی در مدل‌سازی دنباله‌ها به وجود آورد. اما هزینهٔ محاسباتی با افزایش طول دنباله به‌شدت متقارن می‌شود و این محدودیتی برای مقیاس‌پذیری مدل‌های مبتنی بر ترنسفرمر در زمینه‌های بسیار طولانی ایجاد می‌کند؛ مانند درک کامل سند یا تجزیه و تحلیل ژنومیک.

    جامعهٔ تحقیقاتی راه‌حل‌های مختلفی را بررسی کرد، از جمله شبکه‌های عصبی بازگشتی خطی کارآمد (RNN) و مدل‌های فضای حالت (SSM) همچون Mamba‑2. این مدل‌ها با فشرده‌سازی زمینه به یک اندازهٔ ثابت، امکان مقیاس‌پذیری خطی سریع را فراهم می‌کنند. اما این فشرده‌سازی ثابت قادر به درک کامل اطلاعات غنی در دنباله‌های بسیار طولانی نیست.

    در دو مقالهٔ جدید، Titans و MIRAS، ما معماری و طرح نظری را معرفی می‌کنیم که سرعت RNNها را با دقت ترنسفرمرها ترکیب می‌کند. Titans معماری خاص (ابزار) است و MIRAS چارچوب نظری (طرح کلی) برای عمومی‌سازی این رویکردها. این دو با هم مفهوم حافظهٔ یادگیری در زمان آزمون را پیش می‌برند؛ یعنی توانایی مدل هوش مصنوعی برای حفظ حافظهٔ طولانی‌مدت با به‌کارگیری معیارهای «شگفتی» قدرتمندتر (یعنی اطلاعات غیرمنتظره) در حین اجرای مدل، بدون نیاز به آموزش آفلاین اختصاصی.

    چارچوب MIRAS، همان‌طور که Titans نشان می‌دهد، تغییر معناداری به سمت سازگاری زمان واقعی ایجاد می‌کند. به‌جای فشرده‌سازی اطلاعات در یک وضعیت ثابت، این معماری به‌صورت فعال پارامترهای خود را هنگام ورود داده‌ها یاد می‌گیرد و به‌روزرسانی می‌کند. این مکانیزم حیاتی به مدل اجازه می‌دهد تا جزئیات جدید و خاص را به‌سرعت در دانش اصلی خود بگنجاند.

    Titans: یادگیری زمینهٔ جدید به‌صورت آنی

    یک سیستم یادگیری مؤثر نیاز به ماژول‌های حافظهٔ متمایز اما در هم‌پیوند دارد که مشابه جداسازی حافظهٔ کوتاه‌مدت و بلندمدت در مغز انسان هستند.

    در حالی که مکانیزم‌های توجه برای حافظهٔ کوتاه‌مدت دقیق بسیار مؤثرند، Titans ماژول حافظهٔ طولانی‌مدت عصبی نوینی را معرفی می‌کند؛ این ماژول، برخلاف حافظهٔ برداری یا ماتریسی ثابت‌اندازه در RNNهای سنتی، به‌عنوان یک شبکهٔ عصبی عمیق (به‌ویژه یک پرسپترون چندلایه) عمل می‌کند. این حافظهٔ عصبی توان بیان به‌مراتب بالاتری دارد و به مدل امکان می‌دهد حجم بالایی از اطلاعات را بدون از دست دادن زمینهٔ مهم خلاصه کند. مدل تنها یادداشت‌برداری نمی‌کند؛ بلکه کل داستان را می‌فهمد و ترکیب می‌سازد.

    به‌طور اساسی، Titans تنها به‌صورت منفعل داده‌ها را ذخیره نمی‌کند؛ بلکه به‌صورت فعال «چگونگی» شناسایی و نگهداری روابط مهم و تم‌های مفهومی که توکن‌ها را در سراسر ورودی به هم می‌پیوندد، یاد می‌گیرد. یکی از جنبه‌های کلیدی این توانایی، آنچه ما «معیار شگفتی» می‌نامیم، است. در روان‌شناسی انسانی، می‌دانیم که رویدادهای روتین و پیش‌بینی‌شده را به‌سرعت و به‌راحتی فراموش می‌کنیم، اما مواردی که الگو را می‌شکنند—رویدادهای غیرمنتظره، شگفت‌انگیز یا بسیار عاطفی— را به یاد می‌مانیم.

    نموداری که معماری عصبی را با سه لایه نشان می‌دهد: حافظهٔ زمینه‌ای (یادگیری)، هسته (یادگیری درون‌متنی) و حافظهٔ پایدار (وزن‌های ثابت).

    نمای کلی معماری Titans (MAC). این معماری از حافظهٔ طولانی‌مدت برای فشرده‌سازی داده‌های گذشته استفاده می‌کند و سپس خلاصهٔ آن را به زمینه اضافه کرده و به مکانیزم توجه می‌فرستد. توجه می‌تواند تصمیم بگیرد که آیا نیاز به متمرکز شدن بر خلاصهٔ گذشته دارد یا خیر.

    در چارچوب Titans، «معیار شگفتی» به این معناست که مدل اختلاف بزرگ بین آنچه در حال حاضر به یاد دارد و آنچه ورودی جدید به آن می‌گوید را تشخیص می‌دهد.

    • شگفتی کم: اگر واژهٔ جدید «گربه» باشد و وضعیت حافظهٔ مدل قبلاً واژهٔ حیوانی را انتظار داشته باشد، گرادیان (شگفتی) کم است. بنابراین می‌تواند به‌طور ایمن از به‌خاطرسپارگی واژهٔ «گربه» در حافظهٔ طولانی‌مدت ثابت صرف‌نظر کند.
    • شگفتی زیاد: اگر وضعیت حافظهٔ مدل در حال خلاصه‌سازی یک گزارش مالی جدی باشد و ورودی جدید یک تصویر از پوست موز باشد (رویداد غیرمنتظره)، گرادیان (شگفتی) بسیار زیاد خواهد شد. این نشان می‌دهد که ورودی جدید مهم یا ناهنجار است و باید برای ذخیره‌سازی دائمی در ماژول حافظهٔ طولانی‌مدت در اولویت قرار گیرد.

    مدل از این سیگنال خطای داخلی (گرادیان) به‌عنوان معادل ریاضی عبارت «این غیرمنتظره و مهم است!» استفاده می‌کند. این امکان را به معماری Titans می‌دهد که حافظهٔ طولانی‌مدت خود را به‌صورت گزینش‌گرانه تنها با اطلاعات نوین‌ترین و مخرب‌ترین از نظر زمینه به‌روز کند، در حالی که کل فرآیند را سریع و کارآمد نگه می‌دارد.

    Titan این مکانیزم را با ترکیب دو عنصر حیاتی بهبود می‌بخشد:

    1. شتاب: مدل هم «شگفتی لحظه‌ای» (ورودی جاری) و هم «شگفتی گذشته» (جریان اخیر زمینه) را در نظر می‌گیرد. این کار تضمین می‌کند که اطلاعات مرتبط پسین نیز ضبط شود، حتی اگر توکن‌های آن به‌طور جداگانه شگفتی‌آور نباشند.
    2. فراموشی (کاهش وزن): برای مدیریت ظرفیت محدود حافظه در مواجهه با دنباله‌های بسیار طولانی، Titans از مکانیزم کاهش وزن تطبیقی استفاده می‌کند. این مکانیزم به‌عنوان یک دروازهٔ فراموشی عمل می‌کند و به مدل اجازه می‌دهد اطلاعاتی که دیگر نیازی به آن‌ها نیست را حذف کند.

    MIRAS: نگاهی یکپارچه به مدل‌سازی توالی

    هر پیشرفت مهمی در مدل‌سازی توالی — از ترنسفرمرهای مدرن تا RNNهای خطی و فوق‌العاده سریع جدید — در اصل یک چیز مشابه زیرساخت دارد: ماژول حافظهٔ انجمنی بسیار پیچیده.

    بر این اساس، ویژگی منحصر به‌فرد و عملی MIRAS، رویکردش به مدل‌سازی هوش مصنوعی است. به‌جای مشاهدهٔ معماری‌های متنوع، آن را به‌عنوان روش‌های مختلفی برای حل یک مسألهٔ یکسان می‌بیند: ترکیب کارآمد اطلاعات جدید با حافظه‌های قبلی بدون اینکه مفاهیم اساسی فراموش شوند.

    MIRAS یک مدل توالی را از طریق چهار انتخاب طراحی اصلی تعریف می‌کند:

    • معماری حافظه: ساختاری که اطلاعات را ذخیره می‌کند (مثلاً بردار، ماتریس، یا یک پرسپترون چندلایهٔ عمیق، همانند Titans).
    • سوگیری توجهی: هدف یادگیری داخلی که مدل برای بهینه‌سازی آن تلاش می‌کند و تعیین می‌کند چه چیزی در اولویت است.
    • دروازهٔ نگهداری: تنظیم‌کنندهٔ حافظه. MIRAS مکانیزم‌های «فراموشی» را به‌عنوان شکل‌های خاصی از منظم‌سازی (regularization) بازتعریف می‌کند که یادگیری جدید را با نگهداری دانش گذشته تعادل می‌بخشد.
    • الگوریتم حافظه: الگوریتم بهینه‌سازی که برای به‌روزرسانی حافظه استفاده می‌شود.

    نمای کلی چارچوب MIRAS. در چارچوب MIRAS، هدف ما یادگیری حافظهٔ انجمنی است که بین کلیدها و مقادیر نگاشت می‌کند. برای هر توکن، ماژول حافظه به‌صورت داخلی سوگیری توجهی داخلی خود را بهینه می‌کند در حالی که از دروازهٔ نگهداری استفاده می‌کند تا اطمینان حاصل شود که از حالت گذشته‌ خود انحراف نمی‌کند. فرآیند بهینه‌سازی از طریق بهینه‌ساز مبتنی بر گرادیان انجام می‌شود.

    فراتر رفتن از پارادایم خطای میانگین مربعات

    تقریباً تمام مدل‌های موفق توالی موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطه‌ضرب برای هر دو سوگیری و نگهداری وابسته‌اند. این وابستگی می‌تواند مدل‌ها را نسبت به نقاط دور (outliers) حساس کرده و توان بیان آن‌ها را محدود کند.

    MIRAS این محدودیت را با ارائه چارچوبی مولد برای کاوش فضای طراحی غنی‌تر، با بهره‌گیری از ادبیات بهینه‌سازی و آمار، پشت سر می‌گذارد. این امکان را می‌دهد که معماری‌های جدیدی با اهداف غیر‑اقلیدسی و منظم‌سازی‌های خاص ایجاد شوند.

    با استفاده از MIRAS، ما سه مدل خاص بدون توجه (attention‑free) ساختیم:

    • YAAD: ما این گونهٔ MIRAS را طوری طراحی کردیم که نسبت به خطاهای بزرگ یا «نقاط دور» (مانند یک اشتباه تایپی در یک سند بزرگ) حساسیت کمتری داشته باشد. این مدل از یک جریمهٔ ریاضی ملایم‌تر (از دست دادن هُبر) برای خطاها استفاده می‌کند، بنابراین به مشکلات تک‌بار واکنش بیش از حد نشان نمی‌دهد. این ویژگی باعث می‌شود مدل هنگام مواجهه با داده‌های نامنظم یا ناسازگار، مقاوم‌تر باشد.
    • MONETA: این مدل به بررسی استفاده از جریمه‌های ریاضی پیچیده‌تر و سخت‌گیرانه‌تر (که به «نُرم‌های کلی» می‌گویند) می‌پردازد. این پژوهش بررسی می‌کند که آیا به‌کارگیری این قواعد منظم‌تر برای هر دو جنبهٔ توجه مدل و فراموشی، می‌تواند به سیستم حافظهٔ طولانی‌مدت قدرتمندتر و پایدارتری منجر شود یا نه.
    • MEMORA: این مدل بر دستیابی به بالاترین پایداری حافظه تمرکز دارد، با این کار که حافظهٔ خود را به‌مانند یک نقشهٔ احتمالی دقیق اجباری می‌کند. با استفاده از این قید، اطمینان می‌یابد که هر بار که وضعیت حافظه به‌روزرسانی می‌شود، تغییرات تحت کنترل و متعادل هستند. این امر یک فرآیند پاک و پایدار برای ترکیب اطلاعات جدید تضمین می‌کند. تقریباً تمامی مدل‌های توالی موفق موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطه‌ضرب برای سوگیری و نگهداری تکیه می‌کنند؛ این وابستگی می‌تواند مدل‌ها را نسبت به نقاط دور حساس کرده و توان بیان آن‌ها را محدود سازد.

    آزمایش‌ها و نتایج

    ما Titans و گونه‌های MIRAS (YAAD، MONETA، MEMORA) را به‌طور دقیق در مقایسه با معماری‌های پیشرو، شامل Transformer++، Mamba‑2 و Gated DeltaNet، بررسی کردیم. همچنین با آزمایش Titans بر روی مدل‌سازی ژنتیکی (DNA) و پیش‌بینی سری‌های زمانی، توانمندی این معماری برای تعمیم مؤثر فراتر از متن را ثابت کردیم.

    در هر دو مجموعه دادهٔ مدل‌سازی زبانی استاندارد (C4، WikiText) و وظایف استدلال صفر‑شات (HellaSwag، PIQA)، مدل‌های ما به‌طور مستمر دقت بالاتر و پرپلکسیتی (معیاری برای میزان تعجب یک LLM هنگام مشاهدهٔ متن) نشان دادند.

    قدرت حافظهٔ عمیق

    مطالعات ابلاسیون به وضوح نشان می‌دهند که عمق معماری حافظه نقش حیاتی دارد. زمانی که ماژول‌های حافظهٔ طولانی‌مدت با همان اندازه ولی عمق متفاوت مقایسه می‌شوند، ماژول‌های دارای حافظهٔ عمیق‌تر به‌طور مستمر پرپلکسیتی کمتری در مدل‌سازی زبان به‌دست می‌آورند. علاوه بر این، این ماژول‌ها ویژگی‌های مقیاس‌پذیری بهتری نشان می‌دهند و عملکرد خود را حتی با افزایش چشمگیر طول دنباله حفظ می‌دارند.

    دو نمودار خطی نشان می‌دهد که مدل‌های LMM و MM با افزایش طول دنباله، پرپلکسیتی پایین‌تری نسبت به Mamba در مقیاس‌های ۳۶۰M و ۷۶۰M پارامتر حفظ می‌کنند.

    تأثیر عمق حافظه بر پرپلکسیتی در مقیاس‌های پارامتر ۳۶۰M و ۷۶۰M.

    مدل‌سازی زبان و کارآیی

    در وظایف مدل‌سازی زبان و استدلال عام، معماری Titans بر مدل‌های بازگشتی خطی پیشرفته (مانند Mamba‑2 و Gated DeltaNet) و پایه‌های Transformer++ هم‌اندازه برتری دارد. گونه‌های نوین MIRAS (MONETA، YAAD، MEMORA) نیز نسبت به این پایه‌ها عملکرد بهبود یافته‌ای نشان می‌دهند که مزیت بررسی مکانیزم‌های بهینه‌سازی مقاوم و غیر‑MSE را تأیید می‌کند. به‌علاوه، این مدل‌ها آموزش کارآمد، قابلیت موازی‌سازی و سرعت استنتاج خطی سریع را حفظ می‌کنند.

    بازیابی زمینهٔ طولانی‌متن افراطی

    برجسته‌ترین مزیت این معماری‌های جدید، توانایی آن‌ها در پردازش زمینه‌های بسیار طولانی است. این نکته در بنچمارک BABILong که نیاز به استدلال در میان حقایق توزیع‌شده در اسناد بسیار طولانی دارد، به‌وضوح نشان داده می‌شود. در این وضعیت چالش‌برانگیز، Titans بر تمام پایه‌ها، از جمله مدل‌های بسیار بزرگ همچون GPT‑4، برتری پیدا می‌کند، در حالی که پارامترهای کمتری دارد. همچنین Titans توان مقیاس‌پذیری مؤثر به اندازه پنجرهٔ زمینه‌ای بزرگ‌تر از ۲ میلیون توکن را نشان می‌دهد.

    نمودار خطی نشان می‌دهد که Titans (MAC)-FT با افزایش طول دنباله، دقت بهبود یافته‌تری نسبت به GPT‑4، Mamba‑FT و سایر مدل‌ها حفظ می‌کند.

    عملکرد Titans در استدلال زمینهٔ بسیار طولانی.

    نتیجه‌گیری

    معرفی Titans و چارچوب MIRAS گامی بزرگ در پیشرفت مدل‌سازی توالی است. با به‌کارگیری شبکه‌های عصبی عمیق به‌عنوان ماژول‌های حافظه که در حین ورود داده‌ها به‌خاطر می‌سپارند، این رویکردها محدودیت‌های وضعیت‌های بازگشتی ثابت‌اندازه را پشت سر می‌گذارند. علاوه بر این، MIRAS وحدت نظری قدرتمندی فراهم می‌کند که ارتباط بهینه‌سازی آنلاین، حافظهٔ انجمنی و طراحی معماری را آشکار می‌سازد. با فراتر رفتن از پارادایم اقلیدسی استاندارد، این تحقیق مسیر نسل جدیدی از مدل‌های توالی را گشوده که ترکیبی از کارآیی RNNها و توان بیان مورد نیاز برای عصر هوش مصنوعی با زمینه‌های طولانی است.