بلاگ

  • کرسر ابزار کدنویسی هوش مصنوعی برای طراحان را رونمایی می‌کند

    این استارتاپ ۳۰۰ نفره امیدوار است که با جذب طراحان، برتری خود را در بازاری که به‌تدریج رقابتی می‌شود، به‌دست آورد.

    لوگوی کرسر روی یک گوشی هوشمند در نیو هاید پارک، نیویورک، ایالات متحده، پنج‌شنبه ۲۰ نوامبر ۲۰۲۵. کرسر یک هوش مصنوعی ...
    عکس: گبی جونز؛ Getty Images

    کرسر، استارتاپ پرطرفدار کدنویسی هوش مصنوعی، یک ویژگی جدید را معرفی می‌کند که به افراد امکان می‌دهد ظاهر و احساس برنامه‌های وب را با هوش مصنوعی طراحی کنند. این ابزار، Visual Editor، در واقع یک محصول vibe‑coding برای طراحان است که به آن‌ها دسترسی به همان کنترل‌های دقیق می‌دهد که از نرم‌افزارهای طراحی حرفه‌ای انتظار می‌رود. اما علاوه بر اعمال تغییرات به‌صورت دستی، این ابزار به آن‌ها اجازه می‌دهد تا با استفاده از زبان طبیعی، ویرایش‌ها را از عامل هوش مصنوعی کرسر درخواست کنند.

    کرسر بیشتر به دلیل بستر کدنویسی هوش مصنوعی‌اش شناخته می‌شود، اما با Visual Editor استارتاپ می‌خواهد بخش‌های دیگری از فرآیند ایجاد نرم‌افزار را نیز در بر بگیرد. ریو لو، سرپرست طراحی کرسر، در مصاحبه‌ای با WIRED می‌گوید: «هسته‌ای که برایم مهم است، توسعه‌دهندگان حرفه‌ای، هرگز تغییر نمی‌کند. اما در واقع، توسعه‌دهندگان به تنهایی نیستند؛ آن‌ها با افراد زیادی کار می‌کنند و هر کسی که نرم‌افزار می‌سازد، باید بتواند از کرسر چیزی مفید پیدا کند.»

    کرسر یکی از سریع‌ترین استارتاپ‌های هوش مصنوعی در تاریخ است. از زمان عرضه‌اش در سال ۲۰۲۳، این شرکت اعلام کرده است که درآمد سالانه مکرّر خود را به بیش از یک میلیارد دلار ارتقا داده و دارای ده‌ها هزار شرکت مشتری، از جمله Nvidia، Salesforce و PwC، می‌باشد. در نوامبر، این استارتاپ یک دور سرمایه‌گذاری به‌ارزش ۲٫۳ میلیارد دلار به پایان رساند که ارزش‌گذاری آن را به حدود ۳۰ میلیارد دلار رساند.

    کرسر در ابتدای بازار کدنویسی هوش مصنوعی پیشرو بود، اما اکنون تحت فشار بیشتری از سوی رقبای بزرگ‌تری مانند OpenAI، Anthropic و Google قرار دارد. این استارتاپ به‌طور تاریخی مدل‌های هوش مصنوعی را از این شرکت‌ها مجوز می‌گرفت، اما اکنون رقبای آن به‌طور چشمگیر در محصولات کدنویسی هوش مصنوعی خود سرمایه‌گذاری می‌کنند. به‌عنوان مثال Claude Code از Anthropic حتی سریع‌تر از کرسر رشد کرد و فقط شش ماه پس از راه‌اندازی به درآمد سالانه مکرّر یک میلیارد دلار دست یافت. در پاسخ، کرسر توسعه و استقرار مدل‌های هوش مصنوعی خود را آغاز کرده است.

    به‌طور سنتی، ساخت برنامه‌های نرم‌افزاری نیازمند همکاری تیم‌های گوناگون در مجموعه‌ای گسترده از محصولات و ابزارهاست. با یکپارچه‌سازی قابلیت‌های طراحی مستقیماً در محیط کدنویسی خود، کرسر می‌خواهد نشان دهد که می‌تواند این عملکردها را در یک پلتفرم واحد جمع‌آوری کند.

    «قبلاً طراحان در دنیای خودشان از پیکسل‌ها و فریم‌ها زندگی می‌کردند و این‌ها به‌طور مستقیم به کد ترجمه نمی‌شدند. بنابراین تیم‌ها مجبور بودند فرایندهایی برای انتقال کارها بین توسعه‌دهندگان و طراحان ایجاد کنند، اما این کار با اصطکاک زیادی همراه بود»، می‌گوید لو. «ما دنیای طراحی و دنیای کدنویسی را ترکیب کرده و در یک رابط کاربری با یک عامل هوش مصنوعی واحد گرد هم آوردیم.»

    طراحی وب با هوش مصنوعی

    در یک دموی برگزار شده در مرکز اصلی WIRED در سانفرانسیسکو، سرپرست مهندسی محصول کرسر، جیسون گینسبرگ، نحوهٔ تغییر زیبایی‌شناسی یک صفحه وب توسط Visual Editor را به نمایش گذاشت.

    یک پنل طراحی سنتی در سمت راست به کاربران امکان می‌دهد قلم‌ها را تنظیم کنند، دکمه‌ها اضافه کنند، منوها ایجاد کنند یا پس‌زمینه‌ها را تغییر دهند. در سمت چپ، یک رابط چت درخواست‌های زبان طبیعی را می‌پذیرد، برای مثال «پس‌زمینهٔ این دکمه را قرمز کنید». سپس عامل کرسر این تغییرات را مستقیماً در پایگاه کد اعمال می‌کند.

    اوایل سال جاری، کرسر مرورگر وب خود را عرضه کرد که مستقیماً در محیط کدنویسی‌اش کار می‌کند. شرکت ادعا می‌کند این مرورگر حلقه بازخورد بهتری را در هنگام توسعه محصولات فراهم می‌کند و به مهندسان و طراحان امکان می‌دهد درخواست‌های کاربران واقعی را مشاهده کرده و به ابزارهای توسعه‌گر مشابه Chrome دسترسی داشته باشند.

    چون Visual Editor بر روی مرورگر کرسر قرار دارد، کاربران می‌توانند این ابزار را به هر سایت زنده‌ای—نه فقط سایت خودشان—اشاره کنند و همانند این‌که داخل پایه کد آن سایت هستند، آن را بررسی کنند. در یک مقطع، از گینسبرگ درخواست کردم صفحهٔ نخست WIRED را بارگذاری کند.

    در همان لحظه، کرسر سیستم طراحی انتشارات ما را نمایش داد: تمام خانواده‌های قلم، توکن‌های رنگی و متغیرهای فاصله‌گذاری تعریف‌شده در صفحه را بیرون آورد. گینسبرگ می‌توانست تایپوگرافی سرفصل را تنظیم کند، رنگ‌های پس‌زمینه را روشن‌تر کند یا به‌صورت زنده یک گرادیان اعمال کند، با استفاده از همان کنترل‌هایی که کرسر برای برنامه‌های در دست‌ساخت ارائه می‌دهد. گینسبرگ می‌گوید: «همه این‌ها در وب تعریف شده‌اند. ما می‌توانیم دقیقاً نشان دهیم که سایت با چه موادی ساخته شده است.»

    گینسبرگ استدلال می‌کند که کرسر سعی دارد «زبان طراحی» شرکت‌های مختلف را محترم شمارد. بسیاری از طراحان وب، به‌نظر او، نسبت به نرم‌افزارهای vibe‑coding موجود در بازار امروز شک دارند، زیرا این نرم‌افزارها معمولاً وب‌سایت‌های کلی‌نمایی تولید می‌کنند که زیبایی منحصربه‌فرد یک برند را در نظر نمی‌گیرند. برای مثال، یک میم رایج این است که اگر وب‌سایت شما دارای یک گرادیان بنفش باشد، احتمالاً توسط هوش مصنوعی ساخته شده است.

    کنترل‌های دقیق طراحی در استدلال Visual Editor کرسر نقش محوری دارد. کاربران می‌توانند شعاع گوشه‌ها را به‌صورت دقیق تنظیم کنند، فاصله‌گذاری حروف را اصلاح کنند یا جهت باز شدن منو (به چپ یا راست) را تعیین نمایند. بر خلاف ابزارهای طراحی سنتی که بر پایهٔ انتزاعات خود عمل می‌کنند، لو می‌گوید هر کنترل به CSS واقعی—زبانی که مرورگرها برای رندر کردن عناصر بصری یک صفحه استفاده می‌کنند—متصل است. این به این معناست که طراحان دیگر در یک تقریب نمادین از رابط کاربری کار نمی‌کنند، بلکه در داخل سیستمی واقعی کار می‌کنند که به کاربران نهایی تحویل داده می‌شود.

    رویاهای بزرگ

    وقتی دربارهٔ مقایسه Visual Editor کرسر با سایر برنامه‌های vibe‑coding مانند Replit و Lovable پرسیده شد، لو به‌طور کامل این چارچوب را رد کرد. او استدلال می‌کند که این شرکت‌ها عمدتاً کاربران را هدف می‌گیرند که می‌خواهند دموی سریع بسازند، نه حرفه‌ای‌هایی که در پایه‌های بزرگ کد کار می‌کنند. به همین دلیل، کرسر رقبای خود را به‌عنوان ارائه‌دهندگان بزرگ‌تری از نرم‌افزار می‌پذیرد.

    «ما به افرادی که سازندهٔ نرم‌افزار هستند، نظرات قوی دارند، سلیقهٔ خاصی دارند و نظرات محکمی دربارهٔ نحوهٔ انجام کارها دارند، اهمیت می‌دهیم و ابزارهایی فراهم می‌کنیم تا این چشم‌انداز را به واقعیت تبدیل کنند»، می‌گوید رومن اُگارته، سرپرست رشد کرسر. «ممکن است در آینده برای مدیران محصول کاری مشابه انجام دهیم. ممکن است در آینده برای نقش‌های دیگر هم برنامه‌ریزی کنیم، اما فکر می‌کنم تم اصلی، بلندپروازی است—بالا بردن سقف توانایی‌های افراد، نه صرفاً تسهیل کارها.»

    تقاضا برای ابزارهای طراحی کرسر به‌صورت ارگانیک در حال شکل‌گیری است، می‌گوید مارتین کاسادو، شریک عمومی Andreessen Horowitz که سرمایه‌گذاری این استارتاپ را رهبری کرده است. کاسادو می‌گوید طراحان در Shopify، به‌عنوان مثال، هم‌اکنون از ابزارهای کرسر استفاده می‌کنند.

    پیشنهاد جدید کرسر می‌تواند چالشی برای شرکت‌های مانند Adobe یا Figma باشد، اما کاسادو می‌گوید بازار به اندازه کافی بزرگ است تا چندین رویکرد مختلف را در بر بگیرد، زیرا ایجاد نرم‌افزار برای افراد در نقش‌های متنوع‌تری قابل دسترسی می‌شود.

    «کرسر واقعاً بر طراحی تمرکز دارد، زیرا به‌صورت مستقیم به پایهٔ کد متصل است»، می‌گوید او. «با تمام این تغییرات پلتفرمی، رفتارهای جدیدی به‌وجود می‌آیند. برخی از این رفتارها تکامل رفتارهای قبلی خواهند بود و برخی دیگر به‌طور کامل نوظهور خواهند شد.»

  • معماری پشت جستجوی وب در چت‌بات‌های هوش مصنوعی

    و این برای بهینه‌سازی موتورهای مولد (GEO) چه معنایی دارد

    نگاه کردن به ابزار جستجو به‌عنوان یک فرآیند دو بخشی، کشف و سپس بازیابی | تمام تصاویر توسط نویسنده

    زمانی که از ChatGPT یا Claude می‌پرسید «وب را جستجو کن»، فقط از داده‌های آموزشی خود پاسخ نمی‌دهد؛ بلکه یک سیستم جستجوی جداگانه را فراخوانی می‌کند.

    بخش اول این برای اکثر مردم شناخته‌شده است.

    اما واضح نیست که چقدر موتورهای جستجوی سنتی اهمیت دارند و چه میزان بر پایهٔ آن‌ها ساخته شده است.

    تمام این موارد به‌طور کامل عمومی نیستند؛ بنابراین من اینجا به استنتاج ذهنی می‌پردازم. اما می‌توانیم با مشاهدهٔ سرنخ‌های مختلف از سیستم‌های بزرگ‌تر، یک مدل ذهنی مفید بسازیم.

    ما به بهینه‌سازی پرس‌وجو، نحوه استفاده از موتورهای جستجو برای کشف، تقسیم محتوا، بازیابی «به‌صورت زنده»، و چگونگی مهندسی معکوس این سیستم برای ساخت یک «سیستم امتیازدهی GEO (بهینه‌سازی موتور مولد)» می‌پردازیم.

    اگر با RAG آشنایی دارید، بخشی از این مطالب تکراری خواهد بود، اما همچنان مفید است که ببینید سیستم‌های بزرگ‌تر چگونه خط لوله را به فاز کشف و فاز بازیابی تقسیم می‌کنند (اگر برایتان جدید است).

    اگر زمان کمی دارید، می‌توانید خلاصهٔ TL;DR را بخوانید.

    خلاصه

    جستجوی وب در این چت‌بات‌های هوش مصنوعی احتمالاً یک فرآیند دو بخشی است. بخش اول متکی بر موتورهای جستجوی سنتی برای یافتن و رتبه‌بندی اسناد کاندید است. در بخش دوم، محتوا را از آن URLها واکشی می‌کند و پاراگراف‌های مرتبط‌ترین را با استفاده از بازیابی سطح پاراگراف استخراج می‌کند.

    تغییر بزرگ (نسبت به سئو سنتی) بازنویسی پرس‌وجو و تقسیم محتوا به سطح پاراگراف است؛ که این امکان را می‌دهد تا صفحات با رتبه پایین‌تر، اگر پاراگراف‌های خاص‌شان به سؤال بهتر پاسخ دهند، از صفحات با رتبه بالاتر پیشی بگیرند.

    فرآیند فنی

    شرکت‌های پشت Claude و ChatGPT در مورد نحوه کارکرد سیستم‌های جستجوی وب خود در رابط کاربری چت به‌طور کامل شفاف نیستند، اما می‌توانیم با ترکیب اطلاعات، نکات زیادی استنتاج کنیم.

    ما می‌دانیم که برای یافتن کاندیدها به موتورهای جستجو متکی هستند؛ در این مقیاس، این کار غیرمنطقی است. همچنین می‌دانیم که مدل زبانی بزرگ (LLM) در هنگام پایه‌گذاری پاسخ‌ خود فقط قطعاتی از متن (بخش‌ها یا پاراگراف‌ها) می‌بیند.

    این نکته به‌دقت نشان می‌دهد که بازیابی مبتنی بر تعبیه (embedding) بر روی این قطعات انجام می‌شود نه بر روی کل صفحات.

    این فرآیند چندین بخش دارد، بنابراین گام به گام آن را بررسی می‌کنیم.

    بازنویسی پرس‌وجو و گسترش

    در ابتدا، نگاهی می‌اندازیم به اینکه چگونه سیستم پرسش‌های انسانی را پاک‌سازی و گسترش می‌دهد. گام بازنویسی، گام گسترش (fan‑out) و دلیل اهمیت آن برای سئو را بررسی می‌کنیم.

    ابتدا با بازنویسی پرس‌وجو شروع می‌کنیم — نمایش کل خط لوله‌ای که پیش می‌رویم

    فکر می‌کنم این بخش شاید شفاف‌ترین باشد و بیشترین توافق آنلاین را داشته باشد.

    مرحله بهینه‌سازی پرس‌وجو دربارهٔ تبدیل یک پرس‌وجوی انسانی به چیزی دقیق‌تر است. برای مثال «لطفاً آن کفش‌های قرمز که قبلاً دربارهٔ آن صحبت کردیم را جستجو کن» به «کفش ورزشی نایک قهوه‌ای‑قرمز» تبدیل می‌شود.

    از سوی دیگر، مرحله گسترش (fan‑out) به تولید بازنویسی‌های اضافی می‌پردازد. بنابراین اگر کاربری دربارهٔ مسیرهای پیاده‌روی نزدیک به خود بپرسد، سیستم ممکن است عبارات زیر را امتحان کند: «پیاده‌روی مبتدی نزدیک استکهلم»، «پیاده‌روی یک‌روزه با حمل‌ونقل عمومی در استکهلم» یا «مسیرهای مناسب خانواده در استکهلم».

    این با صرفاً استفاده از مترادف‌ها متفاوت است؛ جستجوگرهای سنتی قبلاً برای این بهینه‌سازی شده‌اند.

    اگر برای اولین بار این مفهوم را می‌شنوید و قانع نشده‌اید، مستندات خود گوگل دربارهٔ fan‑out پرس‌وجو هوش مصنوعی را ببینید یا کمی دربارهٔ بازنویسی پرس‌وجو تحقیق کنید.

    تا چه حد این کار در عمل مؤثر است، نمی‌دانیم. ممکن است آن‌ها به‌طور گسترده این کار را انجام ندهند و فقط با یک پرس‌وجو کار کنند، سپس اگر نتایج ضعیف باشند، پرس‌وجوهای دیگری به خط لوله اضافه کنند.

    آنچه می‌توانیم بگوییم این است که احتمالاً یک مدل بزرگ این بخش را انجام نمی‌دهد. اگر به پژوهش‌ها نگاه کنید، Ye و همکاران به‌صراحت از یک LLM برای تولید بازنویسی‌های قوی استفاده می‌کنند، سپس آن را به یک بازنویسگر کوچک‌تر تبدیل می‌کنند تا از تأخیر و هزینه‌های اضافه جلوگیری شود.

    از نظر مهندسی، این بخش صرفاً به این معناست که می‌خواهید پرس‌وجوهای نامنظم انسان‌ها را تمیز کنید و به چیزی تبدیل کنید که درصد موفقیت بالاتری دارد.

    برای افراد تجاری و سئو، به این معناست که آن پرس‌وجوهای انسانی که بهینه‌سازی می‌کردید، به پرس‌وجوهای روباتیک‌تر و شکل‌دار برای اسناد تبدیل می‌شوند.

    درک من از سئو این است که قبلاً به مطابقت دقیق عبارات طولانی در عناوین و سرفصل‌ها اهمیت زیادی می‌داد. اگر کسی به «بهترین کفش دویدن برای زانوهای دردناک» بپردازد، دقیقاً این رشته را استفاده می‌کردید.

    اکنون باید به موجودیت‌ها، ویژگی‌ها و روابط نیز توجه کنید.

    بنابراین، اگر کاربری بپرسد «چیزی برای پوست خشک»، بازنویسی‌ها می‌توانند شامل «مرطوب‌کننده»، «غیرفشارنده»، «رطوبت‌رسان»، «سراومیدها»، «بدون عطر»، «اجتناب از الکل‌ها» باشند و نه صرفاً «چگونه یک محصول خوب برای پوست خشک پیدا کنم».

    اما برای واضح بودن و جلوگیری از ابهام: ما نمی‌توانیم بازنویسی‌های داخلی را ببینیم؛ بنابراین این‌ها صرفاً مثال هستند.

    اگر به این بخش علاقه دارید می‌توانید عمیق‌تر بررسی کنید. فکر می‌کنم مقاله‌های فراوانی دربارهٔ چگونگی انجام این کار به‌خوبی وجود دارد.

    حال به سمت استفاده واقعی از این پرس‌وجوهای بهینه‌سازی‌شده پیش می‌رویم.

    استفاده از موتورهای جستجو (برای کشف سطح سند)

    امروزه این دانستهٔ عمومی است که برای دریافت پاسخ‌های به‌روز، اکثر ربات‌های هوش مصنوعی به موتورهای جستجوی سنتی متکی هستند. این تمام داستان نیست، اما وب را به مجموعه‌ای کوچکتر برای کار کردن کاهش می‌دهد.

    مرحلهٔ بعدی کشف اسناد — نمایش کل خط لوله‌ای که پیش می‌رویم

    من فرض می‌کنم که کل وب برای یک خط لوله LLM برای استخراج مستقیم محتوا بیش از حد بزرگ، پرنویز و سریع‌ال تغییر است. بنابراین با استفاده از موتورهای جستجوی پیش‌تأسیس، می‌توانید دامنهٔ کار را محدود کنید.

    اگر به خط لوله‌های بزرگ RAG که با میلیون‌ها سند کار می‌کنند نگاه کنید، کاری مشابه انجام می‌دهند؛ یعنی با استفاده از فیلتر برای تصمیم‌گیری دربارهٔ اینکه کدام اسناد مهم و ارزش پردازش بیشتری دارند.

    برای این بخش، شواهدی داریم.

    هر دو OpenAI و Anthropic اعلام کرده‌اند که از موتورهای جستجوی شخص ثالثی مانند Bing و Brave به‌همراه خزنده‌های خودشان استفاده می‌کنند.

    ممکن است Perplexity این بخش را به‌صورت مستقل توسعه داده باشد، اما در ابتدا همان کار را انجام می‌دادند.

    همچنین باید در نظر بگیریم که موتورهای جستجوی سنتی مانند Google و Bing قبلاً سخت‌ترین مشکلات را حل کرده‌اند. این‌ها تکنولوژی‌های مستحکمی هستند که مواردی نظیر تشخیص زبان، امتیاز اعتبار، اعتماد دامنه، فیلتر هرزنامه و … را مدیریت می‌کنند.

    دورانداز تمام این موارد برای تعبیهٔ کل وب به‌صورت خودکار به‌نظر نامعقول می‌آید.

    اگرچه نمی‌دانیم برای هر پرس‌وجو چه تعداد نتایج به‌دست می‌آورند؛ آیا فقط ۲۰ یا ۳۰ برتر است؟ یک مقالهٔ غیررسمی مقایسهٔ استنادات ChatGPT و Bing را انجام داد، ترتیب رتبه‌بندی را بررسی کرد و دریافت که برخی استنادات از رتبهٔ ۲۲ به‌پایین آمده‌اند.

    اگر این درست باشد، نشان می‌دهد که باید برای دیده شدن در حدود top‑20 هدف‌گذاری کنید.

    علاوه‌بر این، هنوز نمی‌دانیم چه معیارهای دیگری برای تصمیم‌گیری دربارهٔ نتایج برتر استفاده می‌شود. این مقاله استدلال می‌کند که موتورهای هوش مصنوعی به‌صورت فراوان به محتواهای کسب‌شده (earned media) به‌جای سایت‌های رسمی یا شبکه‌های اجتماعی ترجیح می‌دهند.

    در هر صورت، وظیفهٔ موتور جستجو (چه کاملاً شخص ثالث باشد چه ترکیبی) کشف است. آن URLها را بر پایهٔ اعتبار و کلمات کلیدی رتبه‌بندی می‌کند.

    ممکن است یک نکتهٔ کوتاه از اطلاعات را شامل شود، اما این به‌تنهایی برای پاسخ به سؤال کافی نیست؛ مگر اینکه سؤال بسیار ساده‌ای مانند «مدیرعامل X کیست؟» باشد.

    اما برای سؤالات عمیق‌تر، اگر مدل فقط به نکتهٔ کوتاه، عنوان و URL تکیه کند، احتمالاً جزئیات را به‌صورت غلط (hallucination) ارائه می‌دهد؛ زیرا زمینه کافی نیست.

    به همین دلیل ما را به سمت معماری دو مرحله‌ای می‌برد، که در آن مرحلهٔ بازیابی تعبیه شده است (به‌زودی به آن می‌پردازیم).

    این در حوزهٔ سئو چه معنایی دارد؟

    این به این معناست که شما هنوز باید در موتورهای جستجوی سنتی رتبه بالایی داشته باشید تا در دستهٔ اولیهٔ اسناد پردازش‌شده قرار بگیرید؛ پس بلی، سئو کلاسیک همچنان مهم است.

    اما ممکن است همچنین نیاز باشد به معیارهای جدیدی که ممکن است برای رتبه‌بندی نتایج استفاده کنند، فکر کنید.

    این مرحله تماماً دربارهٔ محدود کردن دامنه به چند صفحه‌ای است که ارزش کاوش دارند، با استفاده از فناوری‌های جستجوی تثبیت‌شده به‌همراه تنظیمات داخلی. بقیه (بخش «بازگرداندن پاراگراف‌های اطلاعاتی») پس از این گام، با استفاده از تکنیک‌های بازیابی استاندارد انجام می‌شود.

    خزیدن، تکه‌گذاری و بازیابی

    حال به سراغ آنچه اتفاق می‌افتد وقتی سیستم چند URL جالب را شناسایی کرد، می‌رویم.

    پس از عبور یک مجموعهٔ کوچک از URLها از فیلتر اول، خط لوله نسبتاً ساده است: صفحه را می‌خزد، به قطعات تقسیم می‌کند، این قطعات را تعبیه می‌کند، قطعاتی که با پرس‌وجو هم‌خوانی دارند را بازیابی می‌کند و سپس آن‌ها را دوباره رتبه‌بندی می‌کند.

    این همان چیزی است که «بازیابی» (retrieval) نامیده می‌شود.

    مرحلهٔ بعدی تکه‌گذاری، بازیابی — نمایش کل خط لوله‌ای که پیش می‌رویم

    من این را «به‌لحظه» می‌نامم، چون سیستم فقط زمانی که URL به‌عنوان کاندید می‌شود، قطعات را تعبیه می‌کند و سپس این تعبیه‌ها را برای استفادهٔ مجدد ذخیره می‌کند. اگر با بازیابی آشنایی دارید، این بخش ممکن است جدید به نظر برسد.

    برای خزیدن صفحه، به‌نظر می‌رسد آن‌ها از خزنده‌های خودشان استفاده می‌کنند. برای OpenAI، این OAI‑SearchBot است که سپس HTML خام را دریافت می‌کند تا بتواند پردازش شود.

    خزنده‌ها عموماً JavaScript را اجرا نمی‌کنند؛ احتمالاً بر HTML تولید‌شده از سمت سرور تکیه دارند؛ بنابراین قوانین سئو همان‌ندارد: محتوا باید در دسترس باشد.

    پس از دریافت HTML، محتوا باید به چیزی تبدیل شود که قابل جستجو باشد.

    اگر تازه‌کار باشید، ممکن است فکر کنید هوش مصنوعی «سند را اسکن می‌کند»، اما این‌گونه نیست. اسکن کل صفحات برای هر پرس‌وجو بسیار کند و پرهزینه است.

    در عوض، صفحات به پاراگراف‌ها تقسیم می‌شوند که معمولاً بر پایهٔ ساختار HTML مانند سرنویس‌ها، پاراگراف‌ها، فهرست‌ها، تقسیم‌بندی بخش‌ها و … انجام می‌شود. این‌ها در زمینهٔ بازیابی به‌عنوان «قطعات» (chunks) شناخته می‌شوند.

    هر قطعه یک واحد کوچک و خودکفا می‌شود. از نظر توکن، می‌توانید در استنادات UI Perplexity ببینید که قطعات حدود چند ده توکن، شاید حدود ۱۵۰ توکن، نه هزار توکن، هستند.

    یعنی حدود ۱۱۰ تا ۱۲۰ واژه.

    پس از تکه‌گذاری، این واحدها با استفاده از بردارهای پراکنده (sparse) و چگال (dense) تعبیه می‌شوند. این امکان را می‌دهد که سیستم جستجوی ترکیبی (hybrid) را اجرا کند و پرس‌وجو را هم معنایی و هم کلمه‌کلیدی تطبیق دهد.

    اگر تازه‌کار به جستجوی معنایی هستید، به‌طور خلاصه، به این معناست که سیستم به‌دنبال معنا می‌گردد نه کلمات دقیق؛ بنابراین پرس‌وجویی مانند «علائم کمبود آهن» و «نشانه‌های بدن کم آهن» همچنان در فضای تعبیه به‌یکدیگر نزدیک خواهند بود.

    اگر مایلید بیشتر دربارهٔ تعبیه‌ها بدانید، می‌توانید مطالب بیشتری در این باره بخوانید.

    پس از تکه‌گذاری و تعبیه یک صفحهٔ پرطرفدار، این تعبیه‌ها احتمالاً ذخیره‌سازی می‌شوند. هیچ‌کس یک پاسخ StackOverflow را هزاران بار در روز دوباره تعبیه نمی‌کند.

    این همان دلیل واضحی است که سیستم این‌چنین سریع به‌نظر می‌رسد؛ احتمالاً ۹۵ تا ۹۸ درصد از وبی که واقعا استناد می‌شود، قبلاً تعبیه و به‌طور پرسرعت کشیده می‌شود.

    اگرچه دقیقاً نمی‌دانیم تا چه حد و چقدر آن‌ها پیش‌تعبیه می‌کنند تا اطمینان حاصل شود که سیستم برای پرس‌وجوهای پرطرفدار به‌سرعت کار می‌کند.

    حالا سیستم باید تصمیم بگیرد کدام قطعات مهم هستند. برای این کار از تعبیه‌های هر قطعه متن برای محاسبهٔ امتیاز هم تطبیق معنایی و هم کلمه‌کلیدی استفاده می‌کند.

    قطعاتی با بالاترین امتیازها انتخاب می‌شوند؛ این می‌تواند بین ۱۰ تا ۵۰ قطعهٔ برتر باشد.

    از اینجا، اکثر سیستم‌های پیشرفته از یک رتبه‌سنج (re‑ranker) (cross‑encoder) برای پردازش مجدد این قطعات برتر استفاده می‌کنند؛ این مرحله «اصلاح آشفتگی بازیابی» نام دارد، زیرا متأسفانه بازیابی همیشه به‌دلیل دلایل مختلف کاملاً قابل‌اعتماد نیست.

    اگرچه آن‌ها دربارهٔ استفاده از cross‑encoder چیزی نمی‌گویند، اما Perplexity یکی از معدودهایی است که فرآیند بازیابی خود را به‌صورت باز مستند می‌کند.

    API جستجوی آن‌ها می‌گوید که «اسناد را به واحدهای جزئی تقسیم می‌کند» و این واحدها را به‌صورت جداگانه امتیاز می‌دهد تا «پاراگراف‌های مرتبط‌ترین که قبلاً رتبه‌بندی شده‌اند را برگرداند».

    این همه برای سئو چه معنایی دارد؟ اگر سیستم بازیابی را به‌این شکل انجام می‌دهد، صفحهٔ شما به‌عنوان یک بلوک بزرگ در نظر گرفته نمی‌شود.

    صفحه به قطعات (اغلب در سطح پاراگراف یا سرنویس) تقسیم می‌شود و این قطعات همانند امتیازدهی می‌شوند. کل صفحه در زمان کشف مهم است، اما پس از شروع بازیابی، فقط قطعات مهم می‌شوند.

    یعنی هر قطعه باید به سؤال کاربر پاسخ دهد.

    همچنین به این معناست که اگر اطلاعات مهم شما در یک قطعهٔ واحد جمع نشده باشد، سیستم ممکن است زمینه را از دست بدهد. بازیابی جادوی خاصی نیست؛ مدل هرگز صفحهٔ کامل شما را نمی‌بیند.

    در اینجا مرحلهٔ بازیابی را پوشش دادیم: سیستمی که صفحات را می‌خزد، به واحدها تقسیم می‌کند، این واحدها را تعبیه می‌کند و سپس با استفاده از جستجوی ترکیبی و رتبه‌بندی مجدد، تنها پاراگراف‌هایی را استخراج می‌کند که می‌توانند به سؤال کاربر پاسخ دهند.

    انجام یک دور دیگر و تحویل قطعات به LLM

    حالا به سراغ اتفاقاتی می‌رویم که پس از بخش بازیابی رخ می‌دهد، شامل ویژگی «ادامهٔ جستجو» و تحویل این قطعات به LLM اصلی.

    مرحلهٔ بعدی بررسی محتوا + تحویل آن به LLM

    پس از شناسایی چند قطعهٔ با رتبه بالا، سیستم باید تصمیم بگیرد که آیا این قطعات به‌حد کافی خوب هستند یا نیاز به ادامهٔ جستجو دارد. این تصمیم به‌احتمال زیاد توسط یک مدل کنترل‌کنندهٔ کوچک اتخاذ می‌شود، نه توسط LLM اصلی.

    حدس می‌زنم، اما اگر مطالب کمبود یا بی‌ارتباط به‌نظر برسند، ممکن است یک دور دیگر بازیابی انجام شود. اگر محتوای قوی به‌نظر برسد، می‌تواند این قطعات را به LLM تحویل دهد.

    در نقطه‌ای این انتقال رخ می‌دهد؛ پاراگراف‌های انتخاب‌شده به‌همراه برخی متادیتا به LLM اصلی منتقل می‌شوند.

    مدل تمام قطعات ارائه‌شده را می‌خواند و آن‌را انتخاب می‌کند که بهترین پشتیبانی را برای پاسخی که می‌خواهد تولید کند، فراهم می‌کند.

    این مدل به‌صورت مکانیکی ترتیب بازیاب را دنبال نمی‌کند؛ بنابراین تضمینی نیست که LLM از «قطعهٔ برتر» استفاده کند. ممکن است پاساژی با رتبهٔ پایین‌تر را ترجیح دهد چون واضح‌تر، خودکفا یا نزدیک‌تر به نوشتار مورد نیاز برای پاسخ باشد.

    بنابراین درست مانند ما، تصمیم می‌گیرد چه چیزهایی را بگیرد و چه چیزهایی را نادیده بگیرد. حتی اگر قطعهٔ شما بالاترین امتیاز را داشته باشد، تضمینی نیست که اولین‌بار ذکر شود.

    مواردی که باید در نظر بگیرید

    این سیستم در واقع جعبهٔ سیاهی نیست؛ سیستمی است که افراد ساخته‌اند تا اطلاعات مناسب را به LLMها بدهند تا به سؤال کاربر پاسخ دهند.

    اگر استنتاج من صحیح باشد، سیستم کاندیدها را پیدا می‌کند، اسناد را به واحدها تقسیم می‌کند، این واحدها را جستجو و رتبه‌بندی می‌کند و سپس آن‌ها را برای خلاصه‌سازی به یک LLM می‌سپارد.

    از این می‌توانیم متوجه شویم که هنگام تولید محتوا برای این سیستم به چه نکاتی باید فکر کنیم.

    سئوی سنتی همچنان اهمیت زیادی دارد، زیرا این سیستم بر سئو سنتی تکیه دارد. مواردی مانند داشتن نقشهٔ سایت مناسب، محتوای به‌راحتی رندرشدنی، سرنویس‌های مناسب، اعتبار دامنه و برچسب‌های تاریخ آخرین تغییر دقیق، برای مرتب‌سازی صحیح محتوای شما ضروری هستند.

    همان‌طور که اشاره کردم، ممکن است آن‌ها موتورهای جستجو را با فناوری خود ترکیب کنند تا تصمیم بگیرند کدام URLها انتخاب می‌شوند؛ این نکته‌ای است که باید در ذهن داشته باشید.

    اما اگر بازیابی بر روی آن انجام شود، مرتبط بودن در سطح پاراگراف نقطهٔ قدرت جدید خواهد شد.

    بنابراین طراحی «پاسخ در یک قطعه» حاکم خواهد شد. (فقط این‌را به‌طرزی انجام ندهید که عجیبه؛ شاید یک TL;DR مفید باشد.) و به‌خاطر داشته باشید که از واژگان صحیح استفاده کنید: موجودیت‌ها، ویژگی‌ها، روابط، همان‌طور که در بخش بهینه‌سازی پرس‌وجو اشاره کردیم.

    چگونه یک «سیستم امتیازدهی GEO» (برای سرگرمی) بسازیم

    برای فهمیدن اینکه محتوای شما چه عملکردی خواهد داشت، باید محیط دشوار موجودیت محتوای شما را شبیه‌سازی کنیم؛ پس سعی می‌کنیم این خط لوله را به‌صورت معکوس مهندسی کنیم.

    توجه داشته باشید، این کار ساده نیست، زیرا ما معیارهای داخلی آن‌ها را نمی‌دانیم و این سیستم به‌طور کامل عمومی نیست؛ بنابراین این را به‌عنوان یک طرح کلی در نظر بگیرید.

    ایده این است که خط لوله‌ای بسازیم که بتواند بازنویسی پرس‌وجو، کشف، بازیابی، رتبه‌بندی مجدد و قاضی LLM را انجام دهد و سپس ببینیم در مقایسه با رقبای خود در موضوعات مختلف کجا قرار می‌گیرید.

    طرح اولیهٔ خط لوله برای بررسی اینکه در مقایسه با رقبای خود چه امتیازی می‌گیرید

    می‌توانید با چند موضوع مانند «بازیابی ترکیبی برای RAG سازمانی» یا «ارزیابی LLM با LLM‑as‑judge» شروع کنید و سپس سیستمی بسازید که پرس‌وجوهای طبیعی حول این موضوعات تولید کند.

    سپس این پرس‌وجوها را از طریق مرحله بازنویسی LLM عبور می‌دهید، زیرا این سیستم‌ها اغلب پیش از بازیابی، پرسش کاربر را بازنویسی می‌کنند. این بازنویسی‌ها همان‌طور که می‌خواهید از طریق خط لوله عبور می‌کنند.

    اولین بررسی، قابلیت دیده شدن است. برای هر پرس‌وجو، نتایج ۲۰ تا ۳۰ برتر را در Brave، Google و Bing بررسی کنید؛ ببینید صفحهٔ شما ظاهر می‌شود یا نه و نسبت به رقبای خود در چه رتبه‌ای قرار دارد.

    اگر صفحهٔ شما در این نتایج اولیه ظاهر شد، به مرحلهٔ بازیابی می‌روید.

    صفحهٔ خود و صفحات رقبای خود را واکشی کنید، HTML را پاک‌سازی کنید، به قطعات تقسیم کنید، این قطعات را تعبیه کنید و یک تنظیم بازیابی ترکیبی کوچک بسازید که ترکیبی از مطابقت معنایی و کلمه‌کلیدی باشد. یک مرحلهٔ رتبه‌بندی مجدد اضافه کنید.

    پس از دریافت قطعات برتر، لایهٔ نهایی را اضافه می‌کنید: یک LLM‑as‑a‑judge. حضور در پنج برتر تضمین استناد نیست، بنابراین مرحلهٔ آخر را شبیه‌سازی می‌کنید؛ چند قطعهٔ با بالاترین امتیاز (به‌همراه متادیتا) را به LLM می‌دهید و می‌بینید کدامیک را ابتدا استناد می‌کند.

    وقتی این کار را برای صفحات خود و رقیبان انجام می‌دهید، می‌بینید در چه زمینه‌ای برنده یا بازنده هستید: لایهٔ جستجو، لایهٔ بازیابی یا لایهٔ LLM.

    به‌خاطر داشته باشید که این هنوز یک طرح کلی است؛ نمی‌توانیم امتیازهای دقیق اعتبار را که آنها استفاده می‌کنند، بدانیم، اما اگر بخواهید سیستمی مشابه بسازید، این یک نقطهٔ شروع برای شماست.

    این مقاله بیشتر بر مکانیک‌ها تمرکز داشته و کمتر بر استراتژی سئو/GEO؛ می‌دانم که این برای همه مناسب نیست.

    هدف این بود که جریان از پرس‌وجوی کاربر تا پاسخ نهایی را نقشه‌کشی کنیم و نشان دهیم ابزار جستجوی هوش مصنوعی نیروی مبهمی نیست.

    حتی اگر بخش‌هایی از سیستم عمومی نباشند، می‌توانیم یک طرح منطقی از آنچه در حال رخ دادن است استنتاج کنیم؛ تا به‌حال واضح است که جستجوی وب هوش مصنوعی جایگزین موتورهای جستجوی سنتی نمی‌شود.

    فقط یک لایهٔ بازیابی بر روی آن‌ها افزودنی می‌شود.

    هنوز موارد بیشتری برای کشف وجود دارد پیش از این‌که بگوییم چه چیزی در عمل مهم است. در اینجا بیشتر به‌صورت فنی خط لوله را مرور کردم، اما اگر این مطالب برای شما جدید است، امیدوارم به‌خوبی توضیح داده باشد.

    امیدوارم خواندن آن آسان بوده باشد. اگر از آن لذت بردید، می‌توانید آن را به‌اشتراک بگذارید یا از طریق LinkedIn، Medium یا وب‌سایتم با من در تماس باشید.

  • یک مدل جدید کدنویسی هوش مصنوعی وزن‌های باز، به گزینه‌های اختصاصی نزدیک می‌شود

    مدل Devstral 2 با ۷۲٪ در بنچمارک صنعتی امتیاز می‌گیرد و به رقبای اختصاصی نزدیک می‌شود.

    لوگوی میسترال بر روی پس‌زمینه‌ای قرمز و زرد.
    لوگوی میسترال. اعتبار: میسترال / بنج ادواردز

    در روز سه‌شنبه، استارتاپ فرانسوی هوش مصنوعی میسترال AI مدل Devstral 2 را منتشر کرد؛ یک مدل کدنویسی وزن‌های باز با ۱۲۳ میلیارد پارامتر که برای کار به‌عنوان بخشی از یک عامل خودکار مهندسی نرم‌افزار طراحی شده است. این مدل با کسب امتیاز ۷۲٫۲٪ در بنچمارک SWE‑bench Verified، که سعی دارد توانایی سیستم‌های هوش مصنوعی در حل مشکلات واقعی GitHub را ارزیابی کند، به‌عنوان یکی از مدل‌های وزن‌های باز برتر شناخته می‌شود.

    جالب‌تر از همه، میسترال نه تنها یک مدل هوش مصنوعی عرضه کرد، بلکه برنامه توسعه‌ای جدیدی به نام Mistral Vibe منتشر کرد. این ابزار یک رابط خط فرمان (CLI) است که شبیه به Claude Code، OpenAI Codex و Gemini CLI می‌باشد و به توسعه‌دهندگان اجازه می‌دهد به‌صورت مستقیم در ترمینال خود با مدل‌های Devstral تعامل داشته باشند. این ابزار می‌تواند ساختارهای فایل و وضعیت Git را اسکن کند تا زمینه (کانتکست) را در تمام پروژه حفظ کند، تغییرات را در چندین فایل اعمال کند و دستورات شل را به‌صورت خودکار اجرا نماید. میسترال این CLI را تحت مجوز Apache 2.0 منتشر کرد.

    همواره مناسب است که نتایج بنچمارک‌های هوش مصنوعی را با احتیاط در نظر گرفت، اما از کارکنان شرکت‌های بزرگ هوش مصنوعی شنیده‌ایم که به عملکرد مدل‌ها در بنچمارک SWE‑bench Verified به‌دقت زیادی توجه می‌کنند؛ این بنچمارک ۵۰۰ مسئله واقعی مهندسی نرم‌افزار را که از مشکلات GitHub در مخازن محبوب پایتون استخراج شده‌اند، به مدل‌های هوش مصنوعی ارائه می‌دهد. هوش مصنوعی باید توصیف مسأله را بخواند، به کدبیس دسترسی پیدا کند و یک پچ کارآمد تولید کند که تست‌های واحد را پاس کند. در حالی که برخی پژوهشگران هوش مصنوعی اشاره کرده‌اند که حدود ۹۰٪ از وظایف این بنچمارک شامل رفع اشکال نسبتاً ساده‌ای است که مهندسان باتجربه می‌توانند آن را در کمتر از یک ساعت تکمیل کنند، این یکی از معدود روش‌های استاندارد برای مقایسه مدل‌های کدنویسی است.

    در کنار مدل بزرگ‌تر کدنویسی هوش مصنوعی، میسترال همچنین Devstral Small 2 را منتشر کرد؛ نسخه‌ای با ۲۴ میلیارد پارامتر که در همان بنچمارک ۶۸٪ امتیاز می‌گیرد و می‌تواند به‌صورت محلی روی سخت‌افزارهای مصرف‌کننده مانند لپ‌تاپ بدون نیاز به اتصال اینترنت اجرا شود. هر دو مدل از پنجره زمینه ۲۵۶٬۰۰۰ توکنی پشتیبانی می‌کنند که به آن‌ها امکان پردازش کدبیس‌های متوسط‑حجم را می‌دهد (اگرچه اینکه حجم را بزرگ یا کوچک در نظر بگیرید، بسته به پیچیدگی کلی پروژه متغیر است). شرکت Devstral 2 را تحت مجوز MIT اصلاح‌شده و Devstral Small 2 را تحت مجوز Apache 2.0 با آزادی‌پذیری بیشتر منتشر کرد.

    در حال حاضر Devstral 2 به‌صورت رایگان از طریق API میسترال قابل استفاده است. پس از پایان دوره رایگان، قیمت‌گذاری به‌صورت ۰٫۴۰ دلار برای هر یک میلیون توکن ورودی و ۲٫۰۰ دلار برای هر یک میلیون توکن خروجی خواهد بود. Devstral Small 2 هزینهٔ ۰٫۱۰ دلار برای هر یک میلیون توکن ورودی و ۰٫۳۰ دلار برای هر یک میلیون توکن خروجی دارد. میسترال می‌گوید این مدل «۷ برابر به‌صرفه‌تر از Claude Sonnet در کارهای دنیای واقعی» است. Sonnet 4.5 شرکت Anthropic از طریق API با هزینهٔ ۳ دلار برای هر یک میلیون توکن ورودی و ۱۵ دلار برای هر یک میلیون توکن خروجی قیمت‌گذاری می‌شود؛ هزینه‌ها با توجه به تعداد کل توکن‌های استفاده‌شده متغیر می‌باشد.

    ارتباط Vibe‑Coding

    نام «Mistral Vibe» به «vibe coding» ارجاع دارد؛ اصطلاحی که پژوهشگر هوش مصنوعی آندره کارپاتی در فوریهٔ ۲۰۲۵ برای توصیف سبکی از برنامه‌نویسی ابداع کرد که در آن توسعه‌دهندگان خواسته‌های خود را به زبان طبیعی بیان می‌کنند و کد تولیدشده توسط هوش مصنوعی را بدون بازبینی دقیق می‌پذیرند. همان‌طور که کارپاتی می‌گوید، می‌توانید «به‌تمامی به ویب‌ها تسلیم شوید، رشد نمایی را در آغوش بگیرید و فراموش کنید که کد حتی وجود دارد». فرهنگ‌لغت‌نامهٔ کالینز این واژه را «کلمهٔ سال ۲۰۲۵» نامید.

    رویکرد کدنویسی ویب هم شور و هیجان و هم نگرانی را به‌وجود آورده است. در مصاحبه‌ای با Ars Technica در ماه مارس، توسعه‌دهنده سیمون ویلوین گفت: «من واقعاً از کدنویسی ویب لذت می‌برم. این یک روش سرگرم‌کننده برای آزمایش یک ایده و اثبات کارآیی آن است». اما او هشدار داد: «کدنویسی ویب به‌سوی یک کدبیس تولیدی به‌وضوح خطرناک است. بیشتر کاری که ما به‌عنوان مهندسان نرم‌افزار انجام می‌دهیم شامل توسعهٔ سیستم‌های موجود است، جایی که کیفیت و قابلیت درک کد پایه‌ای بسیار مهم است».

    میسترال شرط می‌بندد که Devstral 2 قادر باشد تمامیت پروژه‌ها را حفظ کند، خطاها را شناسایی کرده و با تصحیح مجدد سعی کند؛ و این توانمندی‌های ادعایی مدل آن را برای کارهای جدی‌تر نسبت به نمونه‌های ساده و ابزارهای داخلی مناسب سازد. شرکت می‌گوید این مدل می‌تواند وابستگی‌های فریم‌ورک را پیگیری کرده و وظایفی همچون رفع اشکال و به‌روزرسانی سیستم‌های قدیمی را در مقیاس مخازن انجام دهد. هنوز تجربه‌ای از آن نداریم، اما به‌زودی ممکن است تست مقایسه‌ای Ars Technica بین چندین ابزار کدنویسی هوش مصنوعی را مشاهده کنید.

  • مجله تایم رهبران هوش مصنوعی را بر روی جلد «شخصیت سال» می‌گذارد

    این نشریه به‌جای انتخاب یک فرد خاص برای این جایزه، دسته‌ای گسترده‌تر را برگزید

    نوشتهٔ الکس نیتزبرگ

    در دل «خوب، بد و غیرقابل تصور» هوش مصنوعی

    در دل «خوب، بد و غیرقابل تصور» هوش مصنوعی

    مجری فوکس نیوز برت بایر در برنامه «گزارش ویژه» بررسی می‌کند که فناوری چگونه در حال تغییر نحوهٔ عملکرد جهان است.

    مجله تایم روز پنج‌شنبه اعلام کرد که «معماران هوش مصنوعی» به‌عنوان شخصیت سال 2025 آن انتخاب شده‌اند، نه انتخاب یک فرد منفرد برای این افتخار.

    «به‌خاطر به‌وجود آوردن عصر ماشین‌های متفكر، به‌دلیل شگفت‌زده کردن و نگران کردن بشریت، به‌دلیل تحول حاضر و فراتر رفتن از ممکن، معماران هوش مصنوعی شخصیت سال 2025 مجله TIME هستند»، این نشریه در پست خود در X نوشت.

    پست شامل دو جلد مجله است که یکی از آن‌ها به‌وضوح هشت شخصیت بزرگ فناوری را نشان می‌دهد که به‌نظر می‌رسد در کنار هم بر روی یک تیر بالا بر فراز شهر نشسته‌اند — این افراد عبارتند از مارک زاکربرگ (متا)، ایلان ماسک (xAI)، سِم آلتمن (OpenAI)، لیزا سو (AMD)، جنسِن هوانگ (Nvidia)، دمیس هاسابیس (Google DeepMind)، داریو آمودی (Anthropic) و فی‑فی لی (استنفورد و World Labs).

    مسئول کاخ سفید هم‌پیمانان را به آزادسازی هوش مصنوعی از مقررات کشنده نوآوری فشار می‌آورد

    لوگوی تایم

    در این تصویر، لوگوی مجله خبری هفتگی آمریکایی تایم بر روی یک گوشی هوشمند که یک تراشه و نماد هوش مصنوعی در پس‌زمینه دارد، دیده می‌شود. (بودرول چاکروت/تصاویر SOPA/LightRocket از طریق Getty Images)

    به گزارش مجله تایم، اثر نقاش دیجیتال جیسون سایلر «یک تجلیل از عکسی مشهور سال ۱۹۳۲ از کارگران ساختمانی بر روی تیر فولادی، ۸۰۰ فوت بالای ساختمان RCA در نیویورک» است.

    هوش مصنوعی و کاربردهای مختلف آن در حال فراگیر شدن در سراسر جهان هستند و بسیاری پیش‌بینی می‌کنند که با پیشرفت این فناوری و نفوذ آن در جامعه، تحول‌های قابل‌توجهی در افق پیش رو رخ خواهد داد.

    ماسک می‌گوید هوش مصنوعی و رباتیک تنها چیزهایی هستند که می‌توانند بحران عظیم بدهی ایالات متحده را حل کنند

    ایلون ماسک

    ایلون ماسک، مدیرعامل شرکت تسلا، در نشست سرمایه‌گذاری آمریکا‑عربستان سعودی در مرکز کندی در واشنگتن، دی‌سی، ایالات متحده، روز چهارشنبه، ۱۹ نوامبر ۲۰۲۵ حضور داشت. (استفانی رینولدز/بلومبرگ از طریق Getty Images)

    «به‌دلیل هوآنگ، ماسی‌اوی سون (سافت‌بانک)، آلتمن و دیگر غول‌های هوش مصنوعی، بشریت اکنون به‌سرعت در جاده‌ای بدون ترمز پیش می‌رود، به سوی آینده‌ای بسیار خودکار و پر از عدم‌قطعیت»، تایم نوشت.

    سال گذشته، این نشریه دونالد ترامپ، که در آن زمان رئیس‌جمهور منتخب بود، را به‌عنوان شخصیت سال ۲۰۲۴ نامید.

    ترامپ تأیید می‌کند صادرات چیپ هوش مصنوعی NVIDIA به چین و ۲۵٪ سهم ایالات متحده را تبلیغ می‌کند

    دونالد ترامپ و دیگران در جلو تصویر جلد شخصیت سال تایم

    دونالد ترامپ، رئیس‌جمهور منتخب، در یک پذیرایی در بورس اوراق‌ورقی نیویورک (NYSE) پس از آنکه برای دومین بار در ۱۲ دسامبر ۲۰۲۴ به‌عنوان «شخصیت سال» مجله تایم شناخته شد، سخنرانی کرد. (اسپنسر پلت/گتی ایمیجز)

    برای دانلود برنامه فوکس نیوز اینجا کلیک کنید

    در سال ۲۰۲۳، این جایزه به ستارهٔ موسیقی تیلور سوئفت اختصاص یافت.

    الکس نیتزبرگ، نویسنده‌ای برای فاکس نیوز دیجیتال است.

  • ایمن‌ترین راه برای قدم زدن به خانه در شب چیست؟ ما برنامه‌ای هوش‌مصنوعی ساخته‌ایم که برای شما نشان می‌دهد

    نویسنده

    ایلیا ایلیانکو، دانشجوی دوره دکترا در SpaceTimeLab، دانشگاه UCL

    بیانیه افشای اطلاعات

    ایلیا ایلیانکو دریافت‌کننده بودجهٔ دکترا از شورای مهندسی و علوم فیزیکی (Engineering and Physical Sciences Research Council) و Ordnance Survey است. او هم‌بنیان‌گذار و مدیر فناوری (CTO) شرکت Safest Way، یک استارت‑اپ حمایت‌شده توسط برنامه شتاب‌دهنده Geovation سازمان Ordnance Survey است. این مقاله به‌همراه Prototypes for Humanity، یک ابتکار جهانی که نوآوری‌های علمی را برای حل چالش‌های اجتماعی و زیست‌محیطی به نمایش می‌گذارد و تسریع می‌کند، سفارش شده است. The Conversation شریک رسانه‌ای Prototypes for Humanity 2025 است.

    شرکای

    دانشگاه کالج لندن به‌عنوان شریک بنیادین The Conversation UK، تأمین مالی می‌کند.

    شناسهٔ دیجیتال (DOI)

    https://doi.org/10.64628/AB.xd3cshuxy

    در شهر تاریخی پر دیوار دِری (که به لندوندرری نیز شناخته می‌شود) در شمال ایرلند، اقتصاد شبانه پر رونق است. اما همانند بسیاری از مراکز شهری، چالش‌های ایمنی برای کسانی که می‌خواهند به خانه برسند، ایجاد می‌کند. در شب، یک گروه داوطلبی به نام Inner City Assistance Team (iCat) اغلب خیابان‌ها را گشت می‌زند و در مواقعی که افراد احساس آسیب‌پذیری می‌کنند، مداخله می‌کند؛ چه به دلیل مستی، مشکلات روانی یا صرفاً تنها بودن در مناطق تاریک یا ناشناس.

    به‌تازگی در این شهر، iCat برنامه Safest Way را معرفی کرد؛ این برنامه ناوبری عابر پیاده‌ای است که من به‌عنوان بخشی از پژوهش دکتری‌ام در UCL توسعه دادم. این برنامه از فناوری هوش مصنوعی استفاده می‌کند تا مسیرهایی نه تنها سریع‌تر بلکه ایمن‌تر برای کاربران هنگام قدم‌زدن به مقصد یا بازگشت از آن نشان دهد – برای مثال، ایمن‌ترین مسیر به خانه پس از یک شب‌نشینی.

    نیاز به چنین مداخلاتی ریشه در اختلاف واضح در تجربه ایمنی شهری بین زنان و مردان دارد.

    تحقیقات دفتر آمار ملی در سال ۲۰۲۲ نشان داد که ۸۲٪ از زنان احساس ناامنی می‌کنند هنگام قدم زدن به تنهایی در پارک‌ها یا فضاهای باز پس از تاریکی، در مقایسه با ۴۲٪ مردان. همچنین ۶۳٪ از زنان فعالانه از سفرهای تک‌نفره در شب اجتناب می‌کنند، در مقابل ۳۴٪ مردان.

    نظرسنجی‌ای توسط Plan International UK در سال ۲۰۲۴ نشان داد که نزدیک به سه‌چهارم دختران و زنان جوان (سنین ۱۴ تا ۲۱) گاهی مسیرهای طولانی‌تری به خانه انتخاب می‌کنند تا از خطر احتمالی عبور کنند، و تقریباً دو‑سومی حداقل یک بار در ماه با تاکسی به خانه می‌روند به‌دلیل ریسک‌های مرتبط با حمل‌ونقل عمومی یا پیاده‌روی.

    این ترس‌ها واکنش مستقیم به محیط ساخته‌شده است؛ پژوهش‌ها نشان می‌دهند که عواملی مانند روشنایی خیابان و وضعیت پیاده‌روها از عوامل کلیدی احساس ایمنی زنان هستند. روشنایی معمولاً عامل تصمیم‌گیری است: ۶۰٪ از زنانی که احساس ناامنی در حرکت به و از وسایل نقلیه عمومی می‌کنند، نور ناکافی را به عنوان دلیل اصلی ذکر می‌کنند.

    زن در حال قدم‌زدن در خیابانی در شب.
    اکثریت قریب به اتفاق زنان می‌گویند که پس از تاریکی، هنگام قدم زدن به تنهایی احساس ناامنی می‌کنند.Haru Photography/Shutterstock

    پر کردن خلأ داده‌ای

    به‌طول دهه‌ها، عابران شهری مانند وسایل نقلیه در نظر گرفته شدند، به‌طوری که ابزارهای نقشه‌برداری مسیرها را بر پایه یک معیار — زمان سفر — بهینه‌سازی می‌کنند، در حالی که یک کوچه‌ی تاریک و یک خیابان اصلی را اگر فاصله‌یشان یکسان باشد، یکسان می‌پذیرند. مسئله‌ی احساس ایمنی تا حد زیادی توسط این فناوری نادیده گرفته شده است.

    یکی از دلایل این موضوع فقدان داده‌های یک‌شبه است. در حالی که مقامات محلی و نیروی پلیس مقدار زیادی اطلاعات در مورد روشنایی خیابان‌ها، مکان دوربین‌های مداربسته و حوادث جرمی جمع‌آوری می‌کنند، این داده‌ها معمولاً به‌صورت پخش‑پذیری، ناسازگار یا به‌صورت PDFهای ثابت محصور می‌شوند.

    برای پر کردن این خلأ، تیم من و من یک لولهٔ داده‌ای توسعه دادیم تا این منابع و سایر منابع را گردآوری کنیم. در لندن، این کار مستلزم ارسال ده‌ها درخواست آزادی اطلاعات به شوراهای محلی برای به‌دست آوردن داده‌های دقیق جغرافیایی بیش از نیم میلیون لامپ خیابانی و هزاران دوربین مداربسته عمومی بود. نقشهٔ روشنایی ما در مسابقهٔ تجسم داده‌های UCL ۲۰۲۵ جایزهٔ اول را به‌دست آورد.

    برنامه Safest Way مسیر بازگشت به خانه را در دِری نشان می‌دهد.
    برنامه Safest Way مسیر بازگشت به خانه در دِری را پیشنهاد می‌کند.Safest Way، تأمین‌شده توسط نویسنده (بدون بازنشر)

    سپس این اطلاعات را با داده‌های رسمی جرائم پلیس، ویژگی‌های شهری مانند مکان پارک‌ها، مناطق صنعتی و ساختمان‌های فرسوده، به‌علاوه داده‌های منبع باز Mapillary و OpenStreetMap ترکیب کردیم تا به هر بخش خیابانی «امتیاز ایمنی» اختصاص دهیم.

    حتی پس از آن، داده‌های عینی فقط نیمی از تصویر را تشکیل می‌دهند. ایمنی ادراک‌شده — احساس ایمنی یک خیابان برای کسی که در حال قدم زدن است — برای انتخاب مسیرهایشان حیاتی است. برای مدلسازی این امر در مقیاس بزرگ، به هوش مصنوعی روی آوردیم: به‌طور خاص، مدل دید‑زبان OpenAI به نام Clip (Contrastive Language‑Image Pre‑Training).

    بر خلاف بینایی ماشین سنتی که اشیای گسسته‌ای مانند چراغ‌های خیابان را شناسایی می‌کند، Clip (و مدل‌های مشابه دید‑زبان) معنای معنایی یک صحنه کامل را رمزگذاری می‌کند — هم داده‌های تصویری و هم متنی که کاربران ارائه می‌دهند را به بردارهای ریاضی تبدیل می‌کند.

    طبقه‌بندی نظرات ذهنی نظیر «احساس ایمنی» یا «کمی خطرناک» همچنان یک حوزه تحقیقاتی در حال پیشرفت است. اما در مطالعهٔ ۲۰۲۵ ما، همبستگی بالایی بین نحوهٔ درک ایمنی توسط هوش مصنوعی و آزمون‌کنندگان انسانی بر پایه ۵۰۰ عکس از بخش‌های خیابانی لندن مشاهده شد.

    در حالی که امروزه قصد داریم این روش را برای مدل‌سازی ایمنی شهری بر روی میلیون‌ها خیابان در بریتانیا و فراتر از آن مقیاس‌بندی کنیم، اما نسبت به محدودیت‌ها واقع‌بین هستیم. داده‌های گذشتهٔ جرائم و طراحی شهری می‌توانند انتخاب‌های ایمن‌تر را راهنمایی کنند، اما نمی‌توانند حوادث فردی را پیش‌بینی کنند. مدل ما برای پشتیبانی از تصمیم‌گیری طراحی شده است، نه تضمین ایمنی، و باید در کنار تلاش‌های گسترده‌تر مراکز، شوراها و پلیس برای ایمن‌تر کردن خیابان‌های شبانه باشد.

    پذیرش اولیه در دِری

    از زمان راه‌اندازی نسخهٔ بتای برنامه Safest Way، این برنامه توسط حدود ۱٬۰۰۰ کاربر، عمدتاً در لندن و دِری، که در آن بیشتر زیرساخت‌های ایمنی به‌طور کامل نقشه‌برداری شده‌اند، مورد استفاده قرار گرفته است.

    هماهنگی راه‌اندازی در دِری از راه دور یک چالش بود. یکی از اعضای تیم Safest Way در اوایل سال ۲۰۲۵ به شهر سفر کرد تا به‌صورت مستقیم با منظرهٔ سیاسی پیچیدهٔ آن آشنا شود. اما موفقیت این پروژهٔ آزمایشی عمدتاً به‌دلیل مشارکت شرکای ما، iCat، ممکن شد.

    هم‌بنیان‌گذار این گروه داوطلب، استفن هنری، به Irish News گفت که ایدهٔ آوردن این برنامه به شهر پس از برخی حملات به زنان در سال ۲۰۲۴ شکل گرفته بود.

    این گروه اکنون زیراندازهای نوشیدنی با لوگوی Safest Way و کدهای QR را در پاب‌های محلی توزیع می‌کند. هنری می‌گوید: «ما همچنین به کارمندان توصیه می‌کنیم تا برنامه را دانلود کنند، زیرا آن‌ها اغلب تا ساعت ۳ بامداد یا دیرتر از مکان کار خود خارج نمی‌شوند.»

    پس از نمایش اخیر فناوری‌مان در کنفرانس Prototypes for Humanity در دبی، اکنون در حال گسترش پوشش داده‌های برنامه هستیم — از روشنایی خیابان‌ها تا درک ایمنی مدل‌سازی‌شده توسط هوش مصنوعی — تا تمام انگلستان و سپس سایر نقاط بریتانیا را شامل شود. هدف ما پر کردن خلأ اطلاعاتی است که در حال حاضر گروه‌های آسیب‌پذیر را مجبور به پرداخت «مالیات ایمنی» می‌کند.

    در دِری، این فناوری پیش از این لایهٔ دیجیتال حفاظتی فراهم کرده است که حضور فیزیکی داوطلبان را تکمیل می‌کند. با گنجاندن این تکنولوژی در آموزش‌های آسیب‌پذیری برای کارکنان امنیتی و استفاده از آن در گشت‌های خود، iCat از کمک واکنشی به کاهش خطر پیشگیرانه پیش می‌رود.

    این مقاله به‌همراه Prototypes for Humanity، یک ابتکار جهانی که نوآوری‌های علمی را به نمایش می‌گذارد و تسریع می‌کند تا چالش‌های اجتماعی و محیط‌زیستی را حل کند، سفارش شده است. The Conversation شریک رسانه‌ای Prototypes for Humanity 2025 است.

  • سوالات پرپرسش الکسا در سال ۲۰۲۵

    نوشتهٔ لیان کولیرین

    تیلور سویفت معروف‌ترین سلبریتی مورد سؤال الکسا کاربران در استرالیا بود و در میان کاربران انگلستان و ایرلند در مقام دوم قرار گرفت.
    Emma McIntyre/TAS23/Getty Images

    در این‌سال، نیرنگی جالب در یکی از پرسش‌های متداولی که به الکسا مطرح می‌شود دیده می‌شود: «هوش مصنوعی به چه معناست؟»

    دستیار هوش مصنوعی (AI) آمازون به یک ویژگی رایج در خانه‌های قرن بیست و یکم تبدیل شده است؛ برای کارهایی مثل پخش موسیقی، تنظیم زمان‌سازهای پخت و پز و پیش‌بینی وضعیت هوا استفاده می‌شود.

    اما توانایی او به مراتب فراتر از این است؛ کاربران ثابت به دانش نامحدود الکسا تکیه می‌کنند تا به هر فکری که به ذهنشان می‌رسد پاسخی بدهند.

    سؤالات متعددی از طرف کاربران الکسا درباره فوتبالیست کریستیانو رونالدو و همچنین ثروت او مطرح شد.
    Pedro Nunes/Reuters

    طبق فهرست «سوالات پرپرسش الکسا در سال ۲۰۲۵» که آمازون منتشر کرده است، کاربران در بریتانیا به‌طور منظم از معنی هوش مصنوعی می‌پرسند. سایر نکات کلی شامل «چه مدت باید تخم‌مرغ را آب‌پز کنم؟» و «قطر زمین چقدر است؟» می‌شود.

    سلبریتی‌ها برای کاربران الکسا جذابیت خاصی دارند؛ آن‌ها به‌دنبال اطلاعات کلی درباره افراد ثروتمند و مشهور، شامل جزئیات درباره ثروت، قد و شریک زندگی آن‌ها می‌گردند. به‌طور کلی، سلبریتی‌هایی که بیشترین سؤال‌ها توسط کاربران بریتانیا به آن‌ها تعلق داشت، کریستیانو رونالدو، تیلور سویفت و ایلان ماسک بودند.

    اما بیشترین سؤالات درباره قد افراد به ستاره هالیوود تام کروز اختصاص یافت و پس از او پیتر کراچ، بازیکن فوتبالیست سابق انگلیسی و بسیار بلند، قرار گرفت.

    موسیقی‌های سریال پرفروش نتفلیکس KPop Demon Hunters بین کاربران الکسا بسیار محبوب بود.
    Netflix

    موسک شخصی بود که بیشترین کنجکاوی مردم درباره دارایی خالص او وجود داشت، سپس یوتیوبر MrBeast – با نام واقعی جیمی دونالدسون – و سویفت دنبال شد. در سؤالات مربوط به همسرهای سلبریتی‌ها، موسک در رتبه سوم قرار گرفت؛ کاربران کنجکاو بیشتر پرسیدند که اد شیرن با چه کسی ازدواج کرده است، سپس پرسش درباره نیمه دیگر خواننده رود استوارت مطرح شد.

    سویفت پربازپخش‌ترین هنرمند از طریق الکسا بود؛ پس از او برونو مارس قرار گرفت که دوتایی او با روزِ «APT» پربازپخش‌ترین ترک بود. سه آهنگ از KPop Demon Hunters، فیلم‌سری انیمیشنی پرفروش نتفلیکس، در فهرست ۱۰ آهنگ برتر پخش‌شده حضور داشتند، در حالی که موسیقی متن این فیلم، پربازپخش‌ترین آلبوم بود.

    آمازون همچنین به‌تازگی فهرست‌هایی از سؤالات رایج مطرح‌شده به الکسا در کشورهای دیگر منتشر کرده است، که در آن جذابیت جهانی برخی سلبریتی‌ها بی‌تردید نمایان است.

    «APT» همچنین پربازپخش‌ترین ترک در استرالیا بود؛ جایی که شش تا از ۱۰ آهنگ برتر از KPop Demon Hunters می‌بودند. استرالیایی‌ها بیشتر مایل بودند بدانند قد سابری‌نا کارپنتر چقدر است و ستاره «Stranger Things» فین ولف‌هارد با چه کسی ازدواج کرده است (هشدار: او متاهل نیست)؛ در حالی که سویفت، رونالدو و MrBeast سه سلبریتی بودند که بیش‌ترین سؤالات را برانگیختند.

    پس ایلان ماسک چه میزان ثروتمند است؟ وقتی صحبت از ثروت سلبریتی‌ها می‌شود، رئیس تسلا اولین شخصی است که کاربران الکسا به او علاقه‌مندند.
    Allison Robbert/AFP/Getty Images

    در بخش دانش عمومی، برخی از پرسؤالاتی که توسط استرالیایی‌ها مطرح شد شامل «چگونه به خواب رفت؟» و «چگونه مکعب روبیک را حل کرد؟» بود.

    سؤالاتی که به‌خصوص در ایرلند محبوب بودند شامل «ارزش بیت‌کوین چقدر است؟» و «دونالد ترامپ چند سال دارد؟» می‌شد. سلبریتی‌هایی که کاربران ایرلندی بیشترین کنجکاوی را نسبت به آن‌ها نشان دادند، رونالدو، سویفت و لیونل مسی بودند.

  • چرا رونق هوش مصنوعی با رونق دات‌کام متفاوت است

    دره سیلیکون دوباره تمام سرمایهٔ خود را بر یک فناوری نوین می‌گذارد؛ اما این اشتیاق بازآفرینی شور و شوق اواخر دههٔ ۹۰ نیست.

    دره سیلیکون در یک رونق هوش مصنوعی است که شباهت‌های واضحی به رونق دات‌کام اواخر دههٔ ۹۰ دارد؛ رونقی که شرکت‌هایی همچون آمازون و گوگل را به وجود آورد و شرکتی همچون مایکروسافت را تقویت کرد.
    ریچارد درو/آسوشیِیتد پرس، تد اس. وارن/آسوشیِیتد پرس، کیم کولیش/کوربیس، از طریق گتی ایمیجز

    دیوید استریت‌فلد

    توسط دیوید استریت‌فلد

    گزارش از سان‌فرانسیسکو

    رونق دات‌کام، دوره‌ای پر از شور و شوق افراطی و تبلیغات بی‌حد و حصر که از میانهٔ دههٔ ۹۰ آغاز شد، زیرساخت‌های دنیای امروز را بنا نهاد. زمانی که این هیجان اینترنتی در مارس ۲۰۰۰ به سرنگونی رسید، آشوبی به‌وجود آورد.

    این مشکل از دره سیلیکون به اقتصاد کلان سرایت کرد و منجر به رکود شد. بیش از ۵ تریلیون دلار ارزش بازار سهام از بین رفت. نرخ بیکاری از ۴ درصد به ۶ درصد ارتقا یافت. این بدترین سقوط تاریخ نبود، اما پیامدهای آن برای چند سال ادامه یافت.

    اکنون دره سیلیکون در میانهٔ یک رونق هوش مصنوعی قرار دارد که شباهت‌های واضحی به رونق دات‌کام دارد. بسیاری از گفتارها دربارهٔ دنیای پرآروغ آینده همانند گذشته است. ثروت‌ها دوباره خلق می‌شوند، گاهی توسط همان افراد فناوری که نخستین بار ثروت‌ها را به‌دست آوردند. ارزش‌گذاری‌های افراطی به شرکت‌هایی می‌شود که دیروز وجود نداشتند.

    با وجود تمام شباهت‌ها، تفاوت‌های بسیاری وجود دارد که می‌توانند به نتایج کاملاً متفاوتی منجر شوند. مهم‌ترین نکته این است که هوش مصنوعی توسط شرکت‌های چندتریلیون‌دولاری چون مایکروسافت، گوگل و متا تأمین مالی و تحت کنترل آن‌هاست؛ این شرکت‌ها در خطر سقوط نیستند، بر خلاف استارت‌آپ‌های دات‌کام که تقریباً فقط یک ایده و تعدادی مهندسان بودند.

    آمازون به‌دلیل صرف میلیاردها دلار برای مراکز دادهٔ هوش مصنوعی، خمیر دندان کمتری نمی‌فروشد؛ و گوگل به‌دلیل توسعهٔ مدل‌های بنیادی هوش مصنوعی، آگهی کمتری نمی‌فروشد.

    اینترنت در دههٔ ۹۰ یک بستر جدید بود. مردم برای پذیرش ایدهٔ حضور آنلاین زمان نیاز داشتند و فناوری‌هایی نظیر پهنای باند برای فراهم‌سازی شرایط پیشرفت آن‌ها به کار گرفته شد. در مقابل، بسیاری از رهبران کسب‌وکار مشتاقند هوش مصنوعی را هر چه سریع‌تر به کار گیرند.

  • انحصاری: مدل‌های جدید OpenAI احتمالاً خطر امنیت‌سایبری «بالا» دارند، شرکت می‌گوید

    • Ina Fried
    تصویرسازی دو دست ساخته شده از کد دودویی درخشان که بر روی صفحه‌کلید می‌نویسند

    تصویر: آیدا امر/آکسیوس

    OpenAI می‌گوید توانمندی‌های سایبری مدل‌های پیشرو هوش مصنوعی خود در حال تسریع هستند و روز چهارشنبه هشدار می‌دهد که مدل‌های آینده احتمالاً خطر «بالا» ایجاد می‌کنند؛ این گزارش ابتدا با Axios به اشتراک گذاشته شد.

    چرا مهم است: قابلیت‌های رو به رشد این مدل‌ها می‌توانند به‌صورت قابل‌توجهی تعداد افرادی که قادر به انجام حملات سایبری هستند را افزایش دهند.

    دلیل خبر: OpenAI اعلام کرد که در نسخه‌های اخیر شاهد افزایش چشمگیری در قابلیت‌ها بوده است، به‌ویژه این‌که مدل‌ها قادر به کار خودکار در مدت زمان طولانی‌تر هستند، که زمینه‌ساز حملات بروت‌فورس می‌شود.

    • شرکت اشاره می‌کند که GPT-5 در یک تمرین Capture‑the‑Flag در ماه اوت ۲۷٪ امتیاز کسب کرد؛ در حالی که GPT‑5.1‑Codex‑Max ماه گذشته ۷۶٪ امتیاز به‌دست آورد.
    • «ما انتظار داریم مدل‌های آیندهٔ هوش مصنوعی این مسیر را ادامه دهند»، شرکت در گزارش می‌گوید. «در جهت آمادگی، ما برنامه‌ریزی و ارزیابی می‌کنیم به‌گونه‌ای که هر مدل جدید می‌تواند به سطوح «بالا» از توانایی‌های امنیت‌سایبری دست یابد، همان‌طور که در چارچوب آمادگی ما سنجیده می‌شود.»

    به‌سرعت پیگیری کنید: OpenAI در ماه ژوئن هشدار مشابهی در خصوص خطر سلاح‌های زیستی صادر کرد؛ سپس در ماه ژوئیه ChatGPT Agent را عرضه کرد که در سطوح خطر خود «بالا» ارزیابی شد.

    • «بالا» دومین سطح است که پایین‌تر از سطح «بحرانی» قرار دارد؛ در این سطح مدل‌ها برای انتشار عمومی ایمن نیستند.

    بله، اما: شرکت به‌طور دقیق زمان انتظار اولین مدل‌های دارای خطر امنیت‌سایبری «بالا» یا انواع مدل‌های آینده‌ای که می‌توانند چنین خطری داشته باشند را مشخص نکرد.

    آنچه می‌گویند: «چیزی که می‌توانم به‌وضوح به‌عنوان عامل اصلی این وضعیت نام ببرم، توانایی مدل برای کار کردن به‌صورت طولانی‌مدت است»، فوئاد متین از OpenAI در مصاحبهٔ انحصاری با Axios گفت.

    • این گونه حملات بروت‌فورس که به این زمان طولانی متکی‌اند، راحت‌تر قابل دفاع هستند، متین می‌گوید.
    • «در هر محیطی که از لحاظ دفاعی مجهز باشد، این به‌راحتی شناسایی می‌شود»، او افزود.

    تصویر کلی: مدل‌های پیشرو در شناسایی آسیب‌پذیری‌های امنیتی بهتر می‌شوند — و نه تنها مدل‌های OpenAI.

    • در نتیجه، OpenAI اعلام می‌کند که تلاش‌های خود برای همکاری در سطح صنعت در حوزه تهدیدات امنیت‌سایبری را افزایش داده است؛ از جمله از طریق فوروم مدل‌های مرزی (Frontier Model Forum) که در سال ۲۰۲۳ با سایر آزمایشگاه‌های پیشرو راه‌اندازی کرد.
    • شرکت می‌گوید یک شورای ریسک مرزی جداگانه ایجاد خواهد کرد؛ یک گروه مشاوره‌ای که «دفاع‌کنندگان باتجربه امنیت سایبری و متخصصان امنیتی را به همکاری نزدیک با تیم‌های OpenAI می‌ارزد».
    • همچنین در مرحلهٔ تست خصوصی برای Aardvark است؛ ابزاری که توسعه‌دهندگان می‌توانند برای شناسایی نقاط ضعف امنیتی در محصولات خود استفاده کنند. برای دسترسی به Aardvark توسعه‌دهندگان باید درخواست دهند؛ این ابزار که OpenAI می‌گوید قبلاً آسیب‌پذیری‌های بحرانی را کشف کرده است.
  • آشنایی با برندگان جایزه آژانس سال 2025 ADWEEK

    آژانس‌های پیشرو در شکل‌دادن به فرهنگ، در یک فضای فرهنگی و فناوری که همواره در حال تغییر است.

    نوشته: آلین ویزبروت، بریتانی کیفِر، آدری کمپ، رابرت کلارا، ربکا استوارت

    آژانس سال 2025 ADWEEK

    در میان خرید و ادغام‌ها، تغییرات رهبری و ظهور هوش مصنوعی، سالی پر از نوسانات ناگهانی برای آژانس‌ها با پایان پرآشوب به‌وجود آمد. اما برندگان جایزه آژانس سال 2025 ADWEEK نه تنها بر این فراز و نشیب‌ها غلبه کردند، بلکه تمام توان خود را به کار گرفتند و خلاقیت پیشگام، استراتژی تحول‌ساز تجاری و آثار شکل‌دهنده به فرهنگ را برای مشتریان خود ارائه دادند.

    در همان زمان، این گروه از رهبران صنعت — به‌ویژه هشت نفر از یازده نفرشان مستقل هستند — کسب‌وکارهای خود را گسترش دادند، در حالی که بهترین استعدادها را جذب و حفظ کردند و شرکت‌هایشان را به مکان‌های عالی برای کار تبدیل کردند.

    تیم اجرایی Mischief

    آژانس سال 2025 ایالات متحده: Mischief @ No Fixed Address

    در پنج سالگی خود، Mischief @ No Fixed Address می‌توانست سال 2025 را با رشد، فروش یا فروپاشی به پایان برساند. اما به‌عنوان آژانس سال ایالات متحده ADWEEK برای دومین بار، Mischief مسیر خود را خلق کرد. این آژانس مستقل از روزهای زیرپایانه‌اش پیشرفت کرده و اکنون به‌عنوان شریک برای ساختن برندهای بلندمدت شناخته می‌شود. متن کامل را بخوانید.

    منبع: Billion Dollar Boy

    آژانس سال 2025 شبکه‌های اجتماعی/اینفلوئنسر: Billion Dollar Boy

    همان‌طور که خالقان محتوا و رسانه‌های اجتماعی به‌عنوان کانال‌های اصلی بازاریابی تثبیت شدند، Billion Dollar Boy به‌دستاوردهای خود دست یافت. با امکاناتی از ساختن برند تا بازاریابی عملکردی، BDB از شبکه‌ای شامل بیش از ۲٬۵۰۰ خالق در ۴۲ بازار برای مشتریان خود بهره می‌برد. در مسیر صعود به صدر هرم بازاریابی خالقان، BDB توانسته تعادل دشواری را برقرار کند: گسترش جهانی بدون از دست رفتن ارتباط با فرهنگ. متن کامل را بخوانید.

    آژانس نوآور سال 2025: Special US

    Special US در ابتدای سال 2025 با مواجهه با اختلالات عمده آغاز کرد. همان‌طور که آتش‌سوزی‌های وحشی در لس‌آنجلس – خانه دفتر اصلی ایالات متحده این آژانس – رخ داد، تیم به‌سرعت دو کمپین برجستهٔ سوپر بول را تکمیل کرد. این آشفتگی محدودیت‌های Special را آزمون کرد، اما نیروی خلاقانه‌اش در سالی که تاکنون موفق‌ترین سالش بوده، نشان داد. متن کامل را بخوانید.

    منبع: Wieden + Kennedy

    آژانس جهانی سال 2025: Wieden + Kennedy

    در اوائل سال 2025، پس از ۲۷ سال توقف، نایک تصمیم گرفت به‌عنوان تبلیغ‌کننده سوپر بول بازگردد. این انتخاب باعث شد آژانس قدیمی‌اش Wieden+Kennedy در موقعیتی حساس قرار گیرد. به سبک معمول خود، W+K همه را با رویکردش شگفت‌زده کرد — اما این همان چیزی است که W+K شناخته می‌شود: کارهایی که با طنین فرهنگی جهانی هم‌پوشانی دارند. متن کامل را بخوانید.

    منبع: IW Group

    آژانس چندفرهنگی سال 2025: IW Group

    در میانهٔ کاهش شدید پیشرفت‌های تنوع، برابری و شمول در این سال، آژانس چندفرهنگی IW Group بیش از این که فقط طوفان را پشت سر بگذارد، دستاوردهایی به‌دست آورد. اگرچه درآمدها به‌تنهایی تنها کمی افزایش یافت، از ۲۳ میلیون دلار به ۲۴ میلیون دلار سالی به‌سالی، نیتا سونگ، رئیس و مسئول شتاب، آژانس را «قوی‌تر از هر زمان دیگری» توصیف کرد. متن کامل را بخوانید.

    آژانس کوچک سال 2025: Mirimar

    Mirimar در حال رشد و نشان دادن جایگاه خود است. پس از دریافت جایزه آژانس نوآور ADWEEK در سال 2024، این شرکت مستقر در ونيس، کالیفرنیای آمریکا در سال 2025 ثابت کرد که شتاب به‌دست آمده یک تصادف نیست. این آژانس در سال 2025 پنج شریک برند جدید، از جمله Poppi، Netflix و BJ’s Restaurant را به‌عنوان AOR اضافه کرد و رابطه خود را با برندهای Mammoth Brands شامل Mando، Flamingo و Lume گسترش داد. متن کامل را بخوانید.

    تیم آژانس Known

    آژانس متوسط سال 2025: Known

    در صنعتی که با معیارهای سطحی و اقتصادهای مبهم دست و پنجه نرم می‌کند، Known ثابت می‌کند که شفافیت و سودآوری می‌توانند هم‌پوشانی داشته باشند. پیام اصلی به مشتریان این است: «ما دروغ نمی‌گوییم»، گفت کرن شایرسون، رئیس و مدیر عامل. Known فقط برای خدمات و نرم‌افزارهایی که در پیشنهادهایش می‌گذارد هزینه می‌گیرد — بدون تخفیف، بدون حاشیه پنهان — و بین ۱۰٪ تا ۲۵٪ از هزینه‌های خود را به نتایج تجاری مشتریان پیوند می‌دهد. در سال 2025، این مدل ارزش خود را نشان داد. متن کامل را بخوانید.

    منبع: Code + Theory

    آژانس نوآوری سال 2025: Code and Theory

    هنگامی که توجه مصرف‌کنندگان جابه‌جا می‌شود، Code and Theory خود را برای پاسخ به این آشفتگی تغییر می‌دهد. سپس، با تیمی ترکیبی از نیمی خلاق و نیمی مهندسان، به مشتریان خود کمک می‌کند تا همین کار را انجام دهند. آژانس نوآوری سال 2025 ADWEEK که در سال 2001 با این فرض که ترکیب خلاقیت با فناوری برای حل مشکلات یک پیوند گمشده است، تاسیس شد. این آژانس می‌گوید DNA خلاقانه و مهندسی‌اش دلیل این است که بیش از ۳۵ شرکت فورچون ۵۰۰ به Code and Theory مراجعه کرده‌اند تا دکمهٔ بازنشانی را فشار دهند. متن کامل را بخوانید.

    منبع: FCB

    شبکه آژانس سال 2025: FCB

    در این سال FCB موارد زیادی برای افتخار دارد، اما این جشن ترکیبی از خوشحالی و تلخی است. شاید عجیب باشد که جایزه‌ای برده شود، وقتی که شرکت Omnicom در نوامبر تکمیل خرید IPG را انجام داد و FCB به BBDO ادغام شد — و از این رو دیگر وجود ندارد. اما منطق صفحات گسترده شرکت‌های هلدینگ متفاوت است از این حقیقت که FCB تمام توان خود را به کار گرفت، در دوره‌ای که خود آگاهی نداشت که این دور نهایی دوران ۱۵۱‑ساله‌اش است. متن کامل را بخوانید.

    تیم اجرایی Rethink به‌صورت عروسکی

    آژانس مستقل سال 2025: Rethink

    در سال بیست و پنجم فعالیت‌اش، آژانس مستقر در تورنتو Rethink از تکیه بر میراث خود امتناع کرد. این ابرقدرت مستقل در شهر خود، همچنین در نیویورک، مونترئال و ونکوور گسترش یافت، در حالی که لبهٔ خلاقیتی که نام آن را ساخته بود، تیزتر شد. «از نظر هر معیار — مالی، انسانی، کار خلاقانه — ما بهتر از هر زمان دیگری هستیم»، گفت شون مک‌دونالد، مسئول استراتژی جهانی و شریک. متن کامل را بخوانید.

    آژانس بین‌المللی سال 2025: VCCP

    از تمام کارهایی که VCCP در ۱۲ ماه گذشته تولید کرده است، هیچ‌کدام به اندازه «دیزی در برابر کلاهبرداران» نشان‌دهندهٔ فناوری، استراتژی و خلاقیتی که فصل جدید آن را تأمین می‌کند، نیست. بر پایهٔ این بینش که یک نفر از هر پنج بریتانیایی در هر هفته با تلاش کلاهبرداری مواجه می‌شود، این آژانس مستقل با استفاده از هوش مصنوعی یک «مادربزرگ» ساخت که تماس‌های مزاحم را پاسخ می‌داد و زمان کلاهبرداران را با گفت‌وگو درباره گربه‌اش، فلافی، هدر می‌داد. این کمپین سرنوشت‌ساز در سرتاسر جهان سرسنجی شد و ۴۵ میلیون دلار درآمد رسانه‌ای به‌دست آورد. همچنین به‌صورت تخمینی ۳ میلیون دلار برای مصرف‌کنندگان بریتانیا صرفه‌جویی کرد و در سال 2025، ۴۸ جایزه از جمله پنج جایزه Cannes Lions به‌دست آورد. متن کامل را بخوانید.

  • از سئو بپرسید: روابط عمومی دیجیتال یا ساخت لینک سنتی، کدام بهتر است؟

    این پرسش سئو، تغییر تمرکز از تعداد لینک‌ها به پوشش معنادار روابط عمومی را نشان می‌دهد که مشتریان واقعی و تقاضای برند را به‌وجود می‌آورد.

    از سئو بپرسید: روابط عمومی دیجیتال یا ساخت لینک سنتی، کدام بهتر است؟

    سوال این هفته در قالب پرسش سئو این است:

    آیا سئوها باید بیشتر بر روابط عمومی دیجیتال تمرکز کنند تا بر ساخت لینک سنتی؟

    در حال حاضر روابط عمومی دیجیتال معادل ساخت لینک محسوب می‌شود، چرا که سئوها به روشی جدید برای بسته‌بندی و بازفروش همان سرویس نیاز داشتند. کار واقعی روابط عمومی همیشه ارزشمندتر از ساخت لینک است، چرا که روابط عمومی، چه دیجیتال باشد چه سنتی، بر مخاطبان اصلی مشتریان و دسترسی به جمعیت‌های خاص تمرکز دارد. این امر به کسب‌وکار ارزش می‌افزاید و درآمد را افزایش می‌دهد.

    در این راستا، اگر مشتریی بخواهد تفاوت بین روابط عمومی دیجیتال و ساخت لینک را بپرسد، این‌گونه تعریف می‌کنم:

    • روابط عمومی دیجیتال: به‌دست آوردن پوشش برند و ارجاع‌ها در رسانه‌ها، نشریات تخصصی، ژورنال‌های تجاری، وبلاگ‌های تخصصی و وب‌سایت‌هایی که اجازه پست مهمان، لینک‌های پولی یا مشارکت‌کنندگان غیرمستند را ندارند، با هدف ارتقاء شناخت برند و جذب ترافیک از محتوا.
    • ساخت لینک: دریافت لینک‌ها از وب‌سایت‌ها به‌عنوان روشی برای تلاش در ارتقاء رتبه در نتایج جستجو (SERP). ترافیک یا فروش حاصل از این لینک‌ها ردیابی نمی‌شود و کیفیت وب‌سایت ممکن است زیر سؤال برود.

    روابط عمومی دیجیتال همیشه نسبت به ساخت لینک برتری دارد، زیرا این تکنیک را به‌عنوان یک کسب‌وکار می‌بینید نه یک دورهمی برای بازی با رتبه‌بندی‌ها. ساخت لینک سال‌ها پیش به یک عمل بد تبدیل شد، چون لینک‌ها کمتر مرتبط شدند، اما همچنان مهم هستند؛ بنابراین می‌خواهم تأکید کنم که این نکته به‌طور نادرست برداشت نشود که ساخت لینک را به‌طور کامل متوقف کنیم. محتوای باکیفیت به‌صورت طبیعی لینک‌ها را جذب می‌کند، از جمله ارجاع‌های رسانه‌ای. وقتی این به‌صورت طبیعی رخ دهد، سایت رشد می‌کند چون ارزش بالایی برای کاربران دارد و موتورهای جستجو می‌توانند کیفیت سایت را تشخیص دهند.

    اگر بدون ارزیابی تأثیر لینک‌ها بر ترافیک و فروش آن‌ها، به‌سازندگی لینک می‌پردازید، احتمالاً سایت خود را برای شکست آماده می‌کنید. جمع‌آوری انبوه لینک‌ها، همانند تولید محتوای انبوه با هوش مصنوعی/مدل‌های زبانی بزرگ یا ابزارهای چرخش مقاله، می‌تواند سایت را به سرعت گسترش دهد؛ اما همان‌طور که به سرعت رشد می‌کند، می‌تواند به همان سرعت هم فروبیند.

    به همین دلیل، وقتی یک لینک می‌خرم، یک تبلیغ‌نوشته (advertorial) می‌خریم یا در یک مشارکت شرکت می‌کنیم، همیشه پرسش‌های زیر را از خود می‌پرسیم:

    • آیا مخاطبان فعالی در این وب‌سایت وجود دارند که از طریق جستجوی برند برای اطلاعات به این سایت بازمی‌گردند؟
    • آیا مخاطبان این وب‌سایت بخشی از پایگاه مشتریان ما هستند؟
    • آیا مقاله‌ای که ما ارائه می‌دهیم یا در آن حضور می‌یابیم، برای کاربر مفید است و محصول یا سرویس ما به‌طور طبیعی در آن گنجانده شده است یا به‌طرز اجباری؟
    • آیا در صورتی که برای درج لینک هزینه پرداخت می‌کنیم، با وضعیت nofollow یا sponsored بودن لینک مشکلی نداریم؟

    اگر به این چهار سؤال پاسخ بله دادید، می‌توانیم لینک را بپذیریم. وجود مخاطبان فعال در وب‌سایت و بازگشت افراد به‌وسیله نام برند نشان می‌دهد که مخاطبی اعتماد به این منبع برای دریافت اطلاعات دارد. اگر خوانندگان، بازدیدکنندگان یا مشتریان با جمعیت‌شناسی مشابه یا همانند پایگاه کاربری ما باشند، منطقی است که بخواهیم در مقابل آن‌ها حضور داشته باشیم که به‌دنبال اطلاعات می‌گردند.

    ممکن است دانش مفیدی داشته باشیم که برای کاربر مفید باشد، اما اگر در زمینه مطلب مرتبط نباشد، دلیلی برای مراجعه آنها به وب‌سایت ما، استفاده از خدماتمان، خرید محصولات یا اشتراک در خبرنامه‌های ما وجود ندارد. بنابراین تا زمانی که تطبیق مناسب پیدا شود صبر می‌کنیم تا ارتباط مستقیم بین محتوایی که ارائه می‌دهیم یا تخصص‌مان در آن است و وب‌سایت ما ایجاد شود.

    برای سؤال آخر، هدف همواره ترافیک و جذب مشتری است، نه فقط به‌دست آوردن یک لینک. مالک وب‌سایت این امر را کنترل می‌کند و اگر مایل باشد به بهترین شیوه‌های گوگل (که قطعاً توصیه می‌کنیم) پایبند باشد، خوشحال خواهیم شد حتی اگر لینک را به‌عنوان sponsored یا nofollow علامت‌گذاری کند. این مهم‌ترین سؤال است. ساخت لینک برای تقلب در نتایج جستجو ایده بدی است؛ ایجاد یک برند که مردم به‌نام آن جستجو می‌کنند، هر روزی از هر لینکی پیشی می‌گیرد. این همواره هدف ما در روابط عمومی دیجیتال و ساخت لینک است: تقویت جستجوی برند.

    پس سؤال پیش می‌آید: از کجا می‌توانیم روابط عمومی دیجیتال را آغاز کنیم؟

    منابع برای دریافت ارجاع‌ها و لینک‌های روابط عمومی دیجیتال

    وقتی می‌خواهیم یک کمپین روابط عمومی دیجیتال آغاز کنیم، فهرستی از اهداف زیر را برای ارتباط تهیه می‌کنیم.

    • رسانه‌های عمومی: نام‌های شناخته‌شده‌ای مانند مجله‌ها، وب‌سایت‌های خبری و رسانه‌های محلی که در شهر، کشور یا جهان به‌صورت گسترده شناخته می‌شوند. شرط تنها این است که آن‌ها دسته‌بندی فعال داشته باشند نه فقط چند مقاله پراکنده. دسته‌بندی فعال یعنی موضوعی جذاب برای مخاطبانشان که به‌صورت مستمر در آن سرمایه‌گذاری می‌شود و احتمال حضور مشتریان ما نیز بالا است.
    • نشریات تخصصی: کنفرانس‌ها، انجمن‌ها، سازمان‌های غیرانتفاعی و همچنین افراد داخلی صنعت دارند وب‌سایت‌ها و نشریات چاپی که به‌عضویت‌کنندگان توزیع می‌شود. نشریه‌ای مانند Search Engine Journal می‌تواند به‌عنوان یک نشریه تخصصی برای صنعت سئو و تبلیغات کلیکی (PPC) محسوب شود، همانند SEO Roundtable یا برخی از جامعه‌های مانند Webmaster World. آن‌ها محتواهای مستقیم مرتبط با بازاریابان موتور جستجو منتشر می‌کنند و کاربران فعالی دارند؛ بنابراین اگر من یک ارائه‌دهنده خدمات سئو یا ابزار بودم، اینجا جایی است که می‌خواهم در آن به‌عنوان مهمان ظاهر شوم و لینک دریافت کنم.
    • سایت‌ها و وبلاگ‌های تخصصی: کمبود سایت‌های تخصصی و تولیدکنندگان محتوا وجود ندارد. نکته این است که سایت‌هایی را پیدا کنیم که به‌صورت عمومی اجازه پست مهمان یا تبلیغ‌نوشته نمی‌دهند و لینک به وب‌سایت‌های غیرتخصصی ندارند. این شامل سایت‌هایی می‌شود که هک شده و لینک‌های تزریقی در آن‌ها وجود دارد. حتی اگر «اعتبار» آن‌ها صفر باشد، اگر کنترل کیفی داشته باشند و تمام لینک‌ها و ارجاع‌ها به‌دست آمده باشند، ارزش دارند.
    • تأثیرگذاران: چه در یوتیوب، چه در گروه‌های فیس‌بوک، یا لینکداین که قابلیت کرال شدن دارد و یا سایر کانال‌ها، دریافت پوشش از افرادی که دنبال‌کنندگان و مخاطبان فعالی دارند، می‌تواند لینک را به‌وب‌سایت شما برساند. این ممکن است رتبه‌ها را بالا نبرد، اما مشتریان را جذب می‌کند و به کشف صفحات کمک می‌کند اگر لینک کرال شود. مدل‌های زبانی بزرگ هم محتوای خود را به‌عنوان منبع ذکر می‌کنند، پس ممکن است برای AIO نیز ارزش داشته باشد.

    ساخت لینک به هیچ‌وجه منقضی نشده است؛ لینک‌ها همچنان مهم هستند. تنها نیازی به ساخت مداوم آنها نیست. تمرکز بر کیفیت در جاهایی باشد که مخاطبان فعال وجود دارند و فرصتی برای دریافت ترافیک و درآمد وجود دارد. این همان است که در درازمدت پیشرفت می‌کند و به شما کمک می‌کند در نتایج جستجویی که اهمیت دارند، رشد کنید.

    منابع بیشتر:

    • استراتژی‌های پیشرفته ساخت لینک برای ملی، بین‌المللی و محلی
    • پیوندهای برگشت (Backlinks) بد و سمی که باید از آن‌ها اجتناب کنید
    • ۴ نوع کمپین داده‌ای در روابط عمومی دیجیتال برای سئو

    تصویر ویژه: Paulo Bobita/Search Engine Journal