این استارتاپ ۳۰۰ نفره امیدوار است که با جذب طراحان، برتری خود را در بازاری که بهتدریج رقابتی میشود، بهدست آورد.
عکس: گبی جونز؛ Getty Images
کرسر، استارتاپ پرطرفدار کدنویسی هوش مصنوعی، یک ویژگی جدید را معرفی میکند که به افراد امکان میدهد ظاهر و احساس برنامههای وب را با هوش مصنوعی طراحی کنند. این ابزار، Visual Editor، در واقع یک محصول vibe‑coding برای طراحان است که به آنها دسترسی به همان کنترلهای دقیق میدهد که از نرمافزارهای طراحی حرفهای انتظار میرود. اما علاوه بر اعمال تغییرات بهصورت دستی، این ابزار به آنها اجازه میدهد تا با استفاده از زبان طبیعی، ویرایشها را از عامل هوش مصنوعی کرسر درخواست کنند.
کرسر بیشتر به دلیل بستر کدنویسی هوش مصنوعیاش شناخته میشود، اما با Visual Editor استارتاپ میخواهد بخشهای دیگری از فرآیند ایجاد نرمافزار را نیز در بر بگیرد. ریو لو، سرپرست طراحی کرسر، در مصاحبهای با WIRED میگوید: «هستهای که برایم مهم است، توسعهدهندگان حرفهای، هرگز تغییر نمیکند. اما در واقع، توسعهدهندگان به تنهایی نیستند؛ آنها با افراد زیادی کار میکنند و هر کسی که نرمافزار میسازد، باید بتواند از کرسر چیزی مفید پیدا کند.»
کرسر یکی از سریعترین استارتاپهای هوش مصنوعی در تاریخ است. از زمان عرضهاش در سال ۲۰۲۳، این شرکت اعلام کرده است که درآمد سالانه مکرّر خود را به بیش از یک میلیارد دلار ارتقا داده و دارای دهها هزار شرکت مشتری، از جمله Nvidia، Salesforce و PwC، میباشد. در نوامبر، این استارتاپ یک دور سرمایهگذاری بهارزش ۲٫۳ میلیارد دلار به پایان رساند که ارزشگذاری آن را به حدود ۳۰ میلیارد دلار رساند.
کرسر در ابتدای بازار کدنویسی هوش مصنوعی پیشرو بود، اما اکنون تحت فشار بیشتری از سوی رقبای بزرگتری مانند OpenAI، Anthropic و Google قرار دارد. این استارتاپ بهطور تاریخی مدلهای هوش مصنوعی را از این شرکتها مجوز میگرفت، اما اکنون رقبای آن بهطور چشمگیر در محصولات کدنویسی هوش مصنوعی خود سرمایهگذاری میکنند. بهعنوان مثال Claude Code از Anthropic حتی سریعتر از کرسر رشد کرد و فقط شش ماه پس از راهاندازی به درآمد سالانه مکرّر یک میلیارد دلار دست یافت. در پاسخ، کرسر توسعه و استقرار مدلهای هوش مصنوعی خود را آغاز کرده است.
بهطور سنتی، ساخت برنامههای نرمافزاری نیازمند همکاری تیمهای گوناگون در مجموعهای گسترده از محصولات و ابزارهاست. با یکپارچهسازی قابلیتهای طراحی مستقیماً در محیط کدنویسی خود، کرسر میخواهد نشان دهد که میتواند این عملکردها را در یک پلتفرم واحد جمعآوری کند.
«قبلاً طراحان در دنیای خودشان از پیکسلها و فریمها زندگی میکردند و اینها بهطور مستقیم به کد ترجمه نمیشدند. بنابراین تیمها مجبور بودند فرایندهایی برای انتقال کارها بین توسعهدهندگان و طراحان ایجاد کنند، اما این کار با اصطکاک زیادی همراه بود»، میگوید لو. «ما دنیای طراحی و دنیای کدنویسی را ترکیب کرده و در یک رابط کاربری با یک عامل هوش مصنوعی واحد گرد هم آوردیم.»
طراحی وب با هوش مصنوعی
در یک دموی برگزار شده در مرکز اصلی WIRED در سانفرانسیسکو، سرپرست مهندسی محصول کرسر، جیسون گینسبرگ، نحوهٔ تغییر زیباییشناسی یک صفحه وب توسط Visual Editor را به نمایش گذاشت.
یک پنل طراحی سنتی در سمت راست به کاربران امکان میدهد قلمها را تنظیم کنند، دکمهها اضافه کنند، منوها ایجاد کنند یا پسزمینهها را تغییر دهند. در سمت چپ، یک رابط چت درخواستهای زبان طبیعی را میپذیرد، برای مثال «پسزمینهٔ این دکمه را قرمز کنید». سپس عامل کرسر این تغییرات را مستقیماً در پایگاه کد اعمال میکند.
اوایل سال جاری، کرسر مرورگر وب خود را عرضه کرد که مستقیماً در محیط کدنویسیاش کار میکند. شرکت ادعا میکند این مرورگر حلقه بازخورد بهتری را در هنگام توسعه محصولات فراهم میکند و به مهندسان و طراحان امکان میدهد درخواستهای کاربران واقعی را مشاهده کرده و به ابزارهای توسعهگر مشابه Chrome دسترسی داشته باشند.
چون Visual Editor بر روی مرورگر کرسر قرار دارد، کاربران میتوانند این ابزار را به هر سایت زندهای—نه فقط سایت خودشان—اشاره کنند و همانند اینکه داخل پایه کد آن سایت هستند، آن را بررسی کنند. در یک مقطع، از گینسبرگ درخواست کردم صفحهٔ نخست WIRED را بارگذاری کند.
در همان لحظه، کرسر سیستم طراحی انتشارات ما را نمایش داد: تمام خانوادههای قلم، توکنهای رنگی و متغیرهای فاصلهگذاری تعریفشده در صفحه را بیرون آورد. گینسبرگ میتوانست تایپوگرافی سرفصل را تنظیم کند، رنگهای پسزمینه را روشنتر کند یا بهصورت زنده یک گرادیان اعمال کند، با استفاده از همان کنترلهایی که کرسر برای برنامههای در دستساخت ارائه میدهد. گینسبرگ میگوید: «همه اینها در وب تعریف شدهاند. ما میتوانیم دقیقاً نشان دهیم که سایت با چه موادی ساخته شده است.»
گینسبرگ استدلال میکند که کرسر سعی دارد «زبان طراحی» شرکتهای مختلف را محترم شمارد. بسیاری از طراحان وب، بهنظر او، نسبت به نرمافزارهای vibe‑coding موجود در بازار امروز شک دارند، زیرا این نرمافزارها معمولاً وبسایتهای کلینمایی تولید میکنند که زیبایی منحصربهفرد یک برند را در نظر نمیگیرند. برای مثال، یک میم رایج این است که اگر وبسایت شما دارای یک گرادیان بنفش باشد، احتمالاً توسط هوش مصنوعی ساخته شده است.
کنترلهای دقیق طراحی در استدلال Visual Editor کرسر نقش محوری دارد. کاربران میتوانند شعاع گوشهها را بهصورت دقیق تنظیم کنند، فاصلهگذاری حروف را اصلاح کنند یا جهت باز شدن منو (به چپ یا راست) را تعیین نمایند. بر خلاف ابزارهای طراحی سنتی که بر پایهٔ انتزاعات خود عمل میکنند، لو میگوید هر کنترل به CSS واقعی—زبانی که مرورگرها برای رندر کردن عناصر بصری یک صفحه استفاده میکنند—متصل است. این به این معناست که طراحان دیگر در یک تقریب نمادین از رابط کاربری کار نمیکنند، بلکه در داخل سیستمی واقعی کار میکنند که به کاربران نهایی تحویل داده میشود.
رویاهای بزرگ
وقتی دربارهٔ مقایسه Visual Editor کرسر با سایر برنامههای vibe‑coding مانند Replit و Lovable پرسیده شد، لو بهطور کامل این چارچوب را رد کرد. او استدلال میکند که این شرکتها عمدتاً کاربران را هدف میگیرند که میخواهند دموی سریع بسازند، نه حرفهایهایی که در پایههای بزرگ کد کار میکنند. به همین دلیل، کرسر رقبای خود را بهعنوان ارائهدهندگان بزرگتری از نرمافزار میپذیرد.
«ما به افرادی که سازندهٔ نرمافزار هستند، نظرات قوی دارند، سلیقهٔ خاصی دارند و نظرات محکمی دربارهٔ نحوهٔ انجام کارها دارند، اهمیت میدهیم و ابزارهایی فراهم میکنیم تا این چشمانداز را به واقعیت تبدیل کنند»، میگوید رومن اُگارته، سرپرست رشد کرسر. «ممکن است در آینده برای مدیران محصول کاری مشابه انجام دهیم. ممکن است در آینده برای نقشهای دیگر هم برنامهریزی کنیم، اما فکر میکنم تم اصلی، بلندپروازی است—بالا بردن سقف تواناییهای افراد، نه صرفاً تسهیل کارها.»
تقاضا برای ابزارهای طراحی کرسر بهصورت ارگانیک در حال شکلگیری است، میگوید مارتین کاسادو، شریک عمومی Andreessen Horowitz که سرمایهگذاری این استارتاپ را رهبری کرده است. کاسادو میگوید طراحان در Shopify، بهعنوان مثال، هماکنون از ابزارهای کرسر استفاده میکنند.
پیشنهاد جدید کرسر میتواند چالشی برای شرکتهای مانند Adobe یا Figma باشد، اما کاسادو میگوید بازار به اندازه کافی بزرگ است تا چندین رویکرد مختلف را در بر بگیرد، زیرا ایجاد نرمافزار برای افراد در نقشهای متنوعتری قابل دسترسی میشود.
«کرسر واقعاً بر طراحی تمرکز دارد، زیرا بهصورت مستقیم به پایهٔ کد متصل است»، میگوید او. «با تمام این تغییرات پلتفرمی، رفتارهای جدیدی بهوجود میآیند. برخی از این رفتارها تکامل رفتارهای قبلی خواهند بود و برخی دیگر بهطور کامل نوظهور خواهند شد.»
و این برای بهینهسازی موتورهای مولد (GEO) چه معنایی دارد
نگاه کردن به ابزار جستجو بهعنوان یک فرآیند دو بخشی، کشف و سپس بازیابی | تمام تصاویر توسط نویسنده
زمانی که از ChatGPT یا Claude میپرسید «وب را جستجو کن»، فقط از دادههای آموزشی خود پاسخ نمیدهد؛ بلکه یک سیستم جستجوی جداگانه را فراخوانی میکند.
بخش اول این برای اکثر مردم شناختهشده است.
اما واضح نیست که چقدر موتورهای جستجوی سنتی اهمیت دارند و چه میزان بر پایهٔ آنها ساخته شده است.
تمام این موارد بهطور کامل عمومی نیستند؛ بنابراین من اینجا به استنتاج ذهنی میپردازم. اما میتوانیم با مشاهدهٔ سرنخهای مختلف از سیستمهای بزرگتر، یک مدل ذهنی مفید بسازیم.
ما به بهینهسازی پرسوجو، نحوه استفاده از موتورهای جستجو برای کشف، تقسیم محتوا، بازیابی «بهصورت زنده»، و چگونگی مهندسی معکوس این سیستم برای ساخت یک «سیستم امتیازدهی GEO (بهینهسازی موتور مولد)» میپردازیم.
اگر با RAG آشنایی دارید، بخشی از این مطالب تکراری خواهد بود، اما همچنان مفید است که ببینید سیستمهای بزرگتر چگونه خط لوله را به فاز کشف و فاز بازیابی تقسیم میکنند (اگر برایتان جدید است).
اگر زمان کمی دارید، میتوانید خلاصهٔ TL;DR را بخوانید.
خلاصه
جستجوی وب در این چتباتهای هوش مصنوعی احتمالاً یک فرآیند دو بخشی است. بخش اول متکی بر موتورهای جستجوی سنتی برای یافتن و رتبهبندی اسناد کاندید است. در بخش دوم، محتوا را از آن URLها واکشی میکند و پاراگرافهای مرتبطترین را با استفاده از بازیابی سطح پاراگراف استخراج میکند.
تغییر بزرگ (نسبت به سئو سنتی) بازنویسی پرسوجو و تقسیم محتوا به سطح پاراگراف است؛ که این امکان را میدهد تا صفحات با رتبه پایینتر، اگر پاراگرافهای خاصشان به سؤال بهتر پاسخ دهند، از صفحات با رتبه بالاتر پیشی بگیرند.
فرآیند فنی
شرکتهای پشت Claude و ChatGPT در مورد نحوه کارکرد سیستمهای جستجوی وب خود در رابط کاربری چت بهطور کامل شفاف نیستند، اما میتوانیم با ترکیب اطلاعات، نکات زیادی استنتاج کنیم.
ما میدانیم که برای یافتن کاندیدها به موتورهای جستجو متکی هستند؛ در این مقیاس، این کار غیرمنطقی است. همچنین میدانیم که مدل زبانی بزرگ (LLM) در هنگام پایهگذاری پاسخ خود فقط قطعاتی از متن (بخشها یا پاراگرافها) میبیند.
این نکته بهدقت نشان میدهد که بازیابی مبتنی بر تعبیه (embedding) بر روی این قطعات انجام میشود نه بر روی کل صفحات.
این فرآیند چندین بخش دارد، بنابراین گام به گام آن را بررسی میکنیم.
بازنویسی پرسوجو و گسترش
در ابتدا، نگاهی میاندازیم به اینکه چگونه سیستم پرسشهای انسانی را پاکسازی و گسترش میدهد. گام بازنویسی، گام گسترش (fan‑out) و دلیل اهمیت آن برای سئو را بررسی میکنیم.
ابتدا با بازنویسی پرسوجو شروع میکنیم — نمایش کل خط لولهای که پیش میرویم
فکر میکنم این بخش شاید شفافترین باشد و بیشترین توافق آنلاین را داشته باشد.
مرحله بهینهسازی پرسوجو دربارهٔ تبدیل یک پرسوجوی انسانی به چیزی دقیقتر است. برای مثال «لطفاً آن کفشهای قرمز که قبلاً دربارهٔ آن صحبت کردیم را جستجو کن» به «کفش ورزشی نایک قهوهای‑قرمز» تبدیل میشود.
از سوی دیگر، مرحله گسترش (fan‑out) به تولید بازنویسیهای اضافی میپردازد. بنابراین اگر کاربری دربارهٔ مسیرهای پیادهروی نزدیک به خود بپرسد، سیستم ممکن است عبارات زیر را امتحان کند: «پیادهروی مبتدی نزدیک استکهلم»، «پیادهروی یکروزه با حملونقل عمومی در استکهلم» یا «مسیرهای مناسب خانواده در استکهلم».
این با صرفاً استفاده از مترادفها متفاوت است؛ جستجوگرهای سنتی قبلاً برای این بهینهسازی شدهاند.
اگر برای اولین بار این مفهوم را میشنوید و قانع نشدهاید، مستندات خود گوگل دربارهٔ fan‑out پرسوجو هوش مصنوعی را ببینید یا کمی دربارهٔ بازنویسی پرسوجو تحقیق کنید.
تا چه حد این کار در عمل مؤثر است، نمیدانیم. ممکن است آنها بهطور گسترده این کار را انجام ندهند و فقط با یک پرسوجو کار کنند، سپس اگر نتایج ضعیف باشند، پرسوجوهای دیگری به خط لوله اضافه کنند.
آنچه میتوانیم بگوییم این است که احتمالاً یک مدل بزرگ این بخش را انجام نمیدهد. اگر به پژوهشها نگاه کنید، Ye و همکاران بهصراحت از یک LLM برای تولید بازنویسیهای قوی استفاده میکنند، سپس آن را به یک بازنویسگر کوچکتر تبدیل میکنند تا از تأخیر و هزینههای اضافه جلوگیری شود.
از نظر مهندسی، این بخش صرفاً به این معناست که میخواهید پرسوجوهای نامنظم انسانها را تمیز کنید و به چیزی تبدیل کنید که درصد موفقیت بالاتری دارد.
برای افراد تجاری و سئو، به این معناست که آن پرسوجوهای انسانی که بهینهسازی میکردید، به پرسوجوهای روباتیکتر و شکلدار برای اسناد تبدیل میشوند.
درک من از سئو این است که قبلاً به مطابقت دقیق عبارات طولانی در عناوین و سرفصلها اهمیت زیادی میداد. اگر کسی به «بهترین کفش دویدن برای زانوهای دردناک» بپردازد، دقیقاً این رشته را استفاده میکردید.
اکنون باید به موجودیتها، ویژگیها و روابط نیز توجه کنید.
بنابراین، اگر کاربری بپرسد «چیزی برای پوست خشک»، بازنویسیها میتوانند شامل «مرطوبکننده»، «غیرفشارنده»، «رطوبترسان»، «سراومیدها»، «بدون عطر»، «اجتناب از الکلها» باشند و نه صرفاً «چگونه یک محصول خوب برای پوست خشک پیدا کنم».
اما برای واضح بودن و جلوگیری از ابهام: ما نمیتوانیم بازنویسیهای داخلی را ببینیم؛ بنابراین اینها صرفاً مثال هستند.
اگر به این بخش علاقه دارید میتوانید عمیقتر بررسی کنید. فکر میکنم مقالههای فراوانی دربارهٔ چگونگی انجام این کار بهخوبی وجود دارد.
حال به سمت استفاده واقعی از این پرسوجوهای بهینهسازیشده پیش میرویم.
استفاده از موتورهای جستجو (برای کشف سطح سند)
امروزه این دانستهٔ عمومی است که برای دریافت پاسخهای بهروز، اکثر رباتهای هوش مصنوعی به موتورهای جستجوی سنتی متکی هستند. این تمام داستان نیست، اما وب را به مجموعهای کوچکتر برای کار کردن کاهش میدهد.
مرحلهٔ بعدی کشف اسناد — نمایش کل خط لولهای که پیش میرویم
من فرض میکنم که کل وب برای یک خط لوله LLM برای استخراج مستقیم محتوا بیش از حد بزرگ، پرنویز و سریعال تغییر است. بنابراین با استفاده از موتورهای جستجوی پیشتأسیس، میتوانید دامنهٔ کار را محدود کنید.
اگر به خط لولههای بزرگ RAG که با میلیونها سند کار میکنند نگاه کنید، کاری مشابه انجام میدهند؛ یعنی با استفاده از فیلتر برای تصمیمگیری دربارهٔ اینکه کدام اسناد مهم و ارزش پردازش بیشتری دارند.
برای این بخش، شواهدی داریم.
هر دو OpenAI و Anthropic اعلام کردهاند که از موتورهای جستجوی شخص ثالثی مانند Bing و Brave بههمراه خزندههای خودشان استفاده میکنند.
ممکن است Perplexity این بخش را بهصورت مستقل توسعه داده باشد، اما در ابتدا همان کار را انجام میدادند.
همچنین باید در نظر بگیریم که موتورهای جستجوی سنتی مانند Google و Bing قبلاً سختترین مشکلات را حل کردهاند. اینها تکنولوژیهای مستحکمی هستند که مواردی نظیر تشخیص زبان، امتیاز اعتبار، اعتماد دامنه، فیلتر هرزنامه و … را مدیریت میکنند.
دورانداز تمام این موارد برای تعبیهٔ کل وب بهصورت خودکار بهنظر نامعقول میآید.
اگرچه نمیدانیم برای هر پرسوجو چه تعداد نتایج بهدست میآورند؛ آیا فقط ۲۰ یا ۳۰ برتر است؟ یک مقالهٔ غیررسمی مقایسهٔ استنادات ChatGPT و Bing را انجام داد، ترتیب رتبهبندی را بررسی کرد و دریافت که برخی استنادات از رتبهٔ ۲۲ بهپایین آمدهاند.
اگر این درست باشد، نشان میدهد که باید برای دیده شدن در حدود top‑20 هدفگذاری کنید.
علاوهبر این، هنوز نمیدانیم چه معیارهای دیگری برای تصمیمگیری دربارهٔ نتایج برتر استفاده میشود. این مقاله استدلال میکند که موتورهای هوش مصنوعی بهصورت فراوان به محتواهای کسبشده (earned media) بهجای سایتهای رسمی یا شبکههای اجتماعی ترجیح میدهند.
در هر صورت، وظیفهٔ موتور جستجو (چه کاملاً شخص ثالث باشد چه ترکیبی) کشف است. آن URLها را بر پایهٔ اعتبار و کلمات کلیدی رتبهبندی میکند.
ممکن است یک نکتهٔ کوتاه از اطلاعات را شامل شود، اما این بهتنهایی برای پاسخ به سؤال کافی نیست؛ مگر اینکه سؤال بسیار سادهای مانند «مدیرعامل X کیست؟» باشد.
اما برای سؤالات عمیقتر، اگر مدل فقط به نکتهٔ کوتاه، عنوان و URL تکیه کند، احتمالاً جزئیات را بهصورت غلط (hallucination) ارائه میدهد؛ زیرا زمینه کافی نیست.
به همین دلیل ما را به سمت معماری دو مرحلهای میبرد، که در آن مرحلهٔ بازیابی تعبیه شده است (بهزودی به آن میپردازیم).
این در حوزهٔ سئو چه معنایی دارد؟
این به این معناست که شما هنوز باید در موتورهای جستجوی سنتی رتبه بالایی داشته باشید تا در دستهٔ اولیهٔ اسناد پردازششده قرار بگیرید؛ پس بلی، سئو کلاسیک همچنان مهم است.
اما ممکن است همچنین نیاز باشد به معیارهای جدیدی که ممکن است برای رتبهبندی نتایج استفاده کنند، فکر کنید.
این مرحله تماماً دربارهٔ محدود کردن دامنه به چند صفحهای است که ارزش کاوش دارند، با استفاده از فناوریهای جستجوی تثبیتشده بههمراه تنظیمات داخلی. بقیه (بخش «بازگرداندن پاراگرافهای اطلاعاتی») پس از این گام، با استفاده از تکنیکهای بازیابی استاندارد انجام میشود.
خزیدن، تکهگذاری و بازیابی
حال به سراغ آنچه اتفاق میافتد وقتی سیستم چند URL جالب را شناسایی کرد، میرویم.
پس از عبور یک مجموعهٔ کوچک از URLها از فیلتر اول، خط لوله نسبتاً ساده است: صفحه را میخزد، به قطعات تقسیم میکند، این قطعات را تعبیه میکند، قطعاتی که با پرسوجو همخوانی دارند را بازیابی میکند و سپس آنها را دوباره رتبهبندی میکند.
این همان چیزی است که «بازیابی» (retrieval) نامیده میشود.
مرحلهٔ بعدی تکهگذاری، بازیابی — نمایش کل خط لولهای که پیش میرویم
من این را «بهلحظه» مینامم، چون سیستم فقط زمانی که URL بهعنوان کاندید میشود، قطعات را تعبیه میکند و سپس این تعبیهها را برای استفادهٔ مجدد ذخیره میکند. اگر با بازیابی آشنایی دارید، این بخش ممکن است جدید به نظر برسد.
برای خزیدن صفحه، بهنظر میرسد آنها از خزندههای خودشان استفاده میکنند. برای OpenAI، این OAI‑SearchBot است که سپس HTML خام را دریافت میکند تا بتواند پردازش شود.
خزندهها عموماً JavaScript را اجرا نمیکنند؛ احتمالاً بر HTML تولیدشده از سمت سرور تکیه دارند؛ بنابراین قوانین سئو همانندارد: محتوا باید در دسترس باشد.
پس از دریافت HTML، محتوا باید به چیزی تبدیل شود که قابل جستجو باشد.
اگر تازهکار باشید، ممکن است فکر کنید هوش مصنوعی «سند را اسکن میکند»، اما اینگونه نیست. اسکن کل صفحات برای هر پرسوجو بسیار کند و پرهزینه است.
در عوض، صفحات به پاراگرافها تقسیم میشوند که معمولاً بر پایهٔ ساختار HTML مانند سرنویسها، پاراگرافها، فهرستها، تقسیمبندی بخشها و … انجام میشود. اینها در زمینهٔ بازیابی بهعنوان «قطعات» (chunks) شناخته میشوند.
هر قطعه یک واحد کوچک و خودکفا میشود. از نظر توکن، میتوانید در استنادات UI Perplexity ببینید که قطعات حدود چند ده توکن، شاید حدود ۱۵۰ توکن، نه هزار توکن، هستند.
یعنی حدود ۱۱۰ تا ۱۲۰ واژه.
پس از تکهگذاری، این واحدها با استفاده از بردارهای پراکنده (sparse) و چگال (dense) تعبیه میشوند. این امکان را میدهد که سیستم جستجوی ترکیبی (hybrid) را اجرا کند و پرسوجو را هم معنایی و هم کلمهکلیدی تطبیق دهد.
اگر تازهکار به جستجوی معنایی هستید، بهطور خلاصه، به این معناست که سیستم بهدنبال معنا میگردد نه کلمات دقیق؛ بنابراین پرسوجویی مانند «علائم کمبود آهن» و «نشانههای بدن کم آهن» همچنان در فضای تعبیه بهیکدیگر نزدیک خواهند بود.
اگر مایلید بیشتر دربارهٔ تعبیهها بدانید، میتوانید مطالب بیشتری در این باره بخوانید.
پس از تکهگذاری و تعبیه یک صفحهٔ پرطرفدار، این تعبیهها احتمالاً ذخیرهسازی میشوند. هیچکس یک پاسخ StackOverflow را هزاران بار در روز دوباره تعبیه نمیکند.
این همان دلیل واضحی است که سیستم اینچنین سریع بهنظر میرسد؛ احتمالاً ۹۵ تا ۹۸ درصد از وبی که واقعا استناد میشود، قبلاً تعبیه و بهطور پرسرعت کشیده میشود.
اگرچه دقیقاً نمیدانیم تا چه حد و چقدر آنها پیشتعبیه میکنند تا اطمینان حاصل شود که سیستم برای پرسوجوهای پرطرفدار بهسرعت کار میکند.
حالا سیستم باید تصمیم بگیرد کدام قطعات مهم هستند. برای این کار از تعبیههای هر قطعه متن برای محاسبهٔ امتیاز هم تطبیق معنایی و هم کلمهکلیدی استفاده میکند.
قطعاتی با بالاترین امتیازها انتخاب میشوند؛ این میتواند بین ۱۰ تا ۵۰ قطعهٔ برتر باشد.
از اینجا، اکثر سیستمهای پیشرفته از یک رتبهسنج (re‑ranker) (cross‑encoder) برای پردازش مجدد این قطعات برتر استفاده میکنند؛ این مرحله «اصلاح آشفتگی بازیابی» نام دارد، زیرا متأسفانه بازیابی همیشه بهدلیل دلایل مختلف کاملاً قابلاعتماد نیست.
اگرچه آنها دربارهٔ استفاده از cross‑encoder چیزی نمیگویند، اما Perplexity یکی از معدودهایی است که فرآیند بازیابی خود را بهصورت باز مستند میکند.
API جستجوی آنها میگوید که «اسناد را به واحدهای جزئی تقسیم میکند» و این واحدها را بهصورت جداگانه امتیاز میدهد تا «پاراگرافهای مرتبطترین که قبلاً رتبهبندی شدهاند را برگرداند».
این همه برای سئو چه معنایی دارد؟ اگر سیستم بازیابی را بهاین شکل انجام میدهد، صفحهٔ شما بهعنوان یک بلوک بزرگ در نظر گرفته نمیشود.
صفحه به قطعات (اغلب در سطح پاراگراف یا سرنویس) تقسیم میشود و این قطعات همانند امتیازدهی میشوند. کل صفحه در زمان کشف مهم است، اما پس از شروع بازیابی، فقط قطعات مهم میشوند.
یعنی هر قطعه باید به سؤال کاربر پاسخ دهد.
همچنین به این معناست که اگر اطلاعات مهم شما در یک قطعهٔ واحد جمع نشده باشد، سیستم ممکن است زمینه را از دست بدهد. بازیابی جادوی خاصی نیست؛ مدل هرگز صفحهٔ کامل شما را نمیبیند.
در اینجا مرحلهٔ بازیابی را پوشش دادیم: سیستمی که صفحات را میخزد، به واحدها تقسیم میکند، این واحدها را تعبیه میکند و سپس با استفاده از جستجوی ترکیبی و رتبهبندی مجدد، تنها پاراگرافهایی را استخراج میکند که میتوانند به سؤال کاربر پاسخ دهند.
انجام یک دور دیگر و تحویل قطعات به LLM
حالا به سراغ اتفاقاتی میرویم که پس از بخش بازیابی رخ میدهد، شامل ویژگی «ادامهٔ جستجو» و تحویل این قطعات به LLM اصلی.
مرحلهٔ بعدی بررسی محتوا + تحویل آن به LLM
پس از شناسایی چند قطعهٔ با رتبه بالا، سیستم باید تصمیم بگیرد که آیا این قطعات بهحد کافی خوب هستند یا نیاز به ادامهٔ جستجو دارد. این تصمیم بهاحتمال زیاد توسط یک مدل کنترلکنندهٔ کوچک اتخاذ میشود، نه توسط LLM اصلی.
حدس میزنم، اما اگر مطالب کمبود یا بیارتباط بهنظر برسند، ممکن است یک دور دیگر بازیابی انجام شود. اگر محتوای قوی بهنظر برسد، میتواند این قطعات را به LLM تحویل دهد.
در نقطهای این انتقال رخ میدهد؛ پاراگرافهای انتخابشده بههمراه برخی متادیتا به LLM اصلی منتقل میشوند.
مدل تمام قطعات ارائهشده را میخواند و آنرا انتخاب میکند که بهترین پشتیبانی را برای پاسخی که میخواهد تولید کند، فراهم میکند.
این مدل بهصورت مکانیکی ترتیب بازیاب را دنبال نمیکند؛ بنابراین تضمینی نیست که LLM از «قطعهٔ برتر» استفاده کند. ممکن است پاساژی با رتبهٔ پایینتر را ترجیح دهد چون واضحتر، خودکفا یا نزدیکتر به نوشتار مورد نیاز برای پاسخ باشد.
بنابراین درست مانند ما، تصمیم میگیرد چه چیزهایی را بگیرد و چه چیزهایی را نادیده بگیرد. حتی اگر قطعهٔ شما بالاترین امتیاز را داشته باشد، تضمینی نیست که اولینبار ذکر شود.
مواردی که باید در نظر بگیرید
این سیستم در واقع جعبهٔ سیاهی نیست؛ سیستمی است که افراد ساختهاند تا اطلاعات مناسب را به LLMها بدهند تا به سؤال کاربر پاسخ دهند.
اگر استنتاج من صحیح باشد، سیستم کاندیدها را پیدا میکند، اسناد را به واحدها تقسیم میکند، این واحدها را جستجو و رتبهبندی میکند و سپس آنها را برای خلاصهسازی به یک LLM میسپارد.
از این میتوانیم متوجه شویم که هنگام تولید محتوا برای این سیستم به چه نکاتی باید فکر کنیم.
سئوی سنتی همچنان اهمیت زیادی دارد، زیرا این سیستم بر سئو سنتی تکیه دارد. مواردی مانند داشتن نقشهٔ سایت مناسب، محتوای بهراحتی رندرشدنی، سرنویسهای مناسب، اعتبار دامنه و برچسبهای تاریخ آخرین تغییر دقیق، برای مرتبسازی صحیح محتوای شما ضروری هستند.
همانطور که اشاره کردم، ممکن است آنها موتورهای جستجو را با فناوری خود ترکیب کنند تا تصمیم بگیرند کدام URLها انتخاب میشوند؛ این نکتهای است که باید در ذهن داشته باشید.
اما اگر بازیابی بر روی آن انجام شود، مرتبط بودن در سطح پاراگراف نقطهٔ قدرت جدید خواهد شد.
بنابراین طراحی «پاسخ در یک قطعه» حاکم خواهد شد. (فقط اینرا بهطرزی انجام ندهید که عجیبه؛ شاید یک TL;DR مفید باشد.) و بهخاطر داشته باشید که از واژگان صحیح استفاده کنید: موجودیتها، ویژگیها، روابط، همانطور که در بخش بهینهسازی پرسوجو اشاره کردیم.
چگونه یک «سیستم امتیازدهی GEO» (برای سرگرمی) بسازیم
برای فهمیدن اینکه محتوای شما چه عملکردی خواهد داشت، باید محیط دشوار موجودیت محتوای شما را شبیهسازی کنیم؛ پس سعی میکنیم این خط لوله را بهصورت معکوس مهندسی کنیم.
توجه داشته باشید، این کار ساده نیست، زیرا ما معیارهای داخلی آنها را نمیدانیم و این سیستم بهطور کامل عمومی نیست؛ بنابراین این را بهعنوان یک طرح کلی در نظر بگیرید.
ایده این است که خط لولهای بسازیم که بتواند بازنویسی پرسوجو، کشف، بازیابی، رتبهبندی مجدد و قاضی LLM را انجام دهد و سپس ببینیم در مقایسه با رقبای خود در موضوعات مختلف کجا قرار میگیرید.
طرح اولیهٔ خط لوله برای بررسی اینکه در مقایسه با رقبای خود چه امتیازی میگیرید
میتوانید با چند موضوع مانند «بازیابی ترکیبی برای RAG سازمانی» یا «ارزیابی LLM با LLM‑as‑judge» شروع کنید و سپس سیستمی بسازید که پرسوجوهای طبیعی حول این موضوعات تولید کند.
سپس این پرسوجوها را از طریق مرحله بازنویسی LLM عبور میدهید، زیرا این سیستمها اغلب پیش از بازیابی، پرسش کاربر را بازنویسی میکنند. این بازنویسیها همانطور که میخواهید از طریق خط لوله عبور میکنند.
اولین بررسی، قابلیت دیده شدن است. برای هر پرسوجو، نتایج ۲۰ تا ۳۰ برتر را در Brave، Google و Bing بررسی کنید؛ ببینید صفحهٔ شما ظاهر میشود یا نه و نسبت به رقبای خود در چه رتبهای قرار دارد.
اگر صفحهٔ شما در این نتایج اولیه ظاهر شد، به مرحلهٔ بازیابی میروید.
صفحهٔ خود و صفحات رقبای خود را واکشی کنید، HTML را پاکسازی کنید، به قطعات تقسیم کنید، این قطعات را تعبیه کنید و یک تنظیم بازیابی ترکیبی کوچک بسازید که ترکیبی از مطابقت معنایی و کلمهکلیدی باشد. یک مرحلهٔ رتبهبندی مجدد اضافه کنید.
پس از دریافت قطعات برتر، لایهٔ نهایی را اضافه میکنید: یک LLM‑as‑a‑judge. حضور در پنج برتر تضمین استناد نیست، بنابراین مرحلهٔ آخر را شبیهسازی میکنید؛ چند قطعهٔ با بالاترین امتیاز (بههمراه متادیتا) را به LLM میدهید و میبینید کدامیک را ابتدا استناد میکند.
وقتی این کار را برای صفحات خود و رقیبان انجام میدهید، میبینید در چه زمینهای برنده یا بازنده هستید: لایهٔ جستجو، لایهٔ بازیابی یا لایهٔ LLM.
بهخاطر داشته باشید که این هنوز یک طرح کلی است؛ نمیتوانیم امتیازهای دقیق اعتبار را که آنها استفاده میکنند، بدانیم، اما اگر بخواهید سیستمی مشابه بسازید، این یک نقطهٔ شروع برای شماست.
این مقاله بیشتر بر مکانیکها تمرکز داشته و کمتر بر استراتژی سئو/GEO؛ میدانم که این برای همه مناسب نیست.
هدف این بود که جریان از پرسوجوی کاربر تا پاسخ نهایی را نقشهکشی کنیم و نشان دهیم ابزار جستجوی هوش مصنوعی نیروی مبهمی نیست.
حتی اگر بخشهایی از سیستم عمومی نباشند، میتوانیم یک طرح منطقی از آنچه در حال رخ دادن است استنتاج کنیم؛ تا بهحال واضح است که جستجوی وب هوش مصنوعی جایگزین موتورهای جستجوی سنتی نمیشود.
فقط یک لایهٔ بازیابی بر روی آنها افزودنی میشود.
هنوز موارد بیشتری برای کشف وجود دارد پیش از اینکه بگوییم چه چیزی در عمل مهم است. در اینجا بیشتر بهصورت فنی خط لوله را مرور کردم، اما اگر این مطالب برای شما جدید است، امیدوارم بهخوبی توضیح داده باشد.
امیدوارم خواندن آن آسان بوده باشد. اگر از آن لذت بردید، میتوانید آن را بهاشتراک بگذارید یا از طریق LinkedIn، Medium یا وبسایتم با من در تماس باشید.
مدل Devstral 2 با ۷۲٪ در بنچمارک صنعتی امتیاز میگیرد و به رقبای اختصاصی نزدیک میشود.
لوگوی میسترال. اعتبار: میسترال / بنج ادواردز
در روز سهشنبه، استارتاپ فرانسوی هوش مصنوعی میسترال AI مدل Devstral 2 را منتشر کرد؛ یک مدل کدنویسی وزنهای باز با ۱۲۳ میلیارد پارامتر که برای کار بهعنوان بخشی از یک عامل خودکار مهندسی نرمافزار طراحی شده است. این مدل با کسب امتیاز ۷۲٫۲٪ در بنچمارک SWE‑bench Verified، که سعی دارد توانایی سیستمهای هوش مصنوعی در حل مشکلات واقعی GitHub را ارزیابی کند، بهعنوان یکی از مدلهای وزنهای باز برتر شناخته میشود.
جالبتر از همه، میسترال نه تنها یک مدل هوش مصنوعی عرضه کرد، بلکه برنامه توسعهای جدیدی به نام Mistral Vibe منتشر کرد. این ابزار یک رابط خط فرمان (CLI) است که شبیه به Claude Code، OpenAI Codex و Gemini CLI میباشد و به توسعهدهندگان اجازه میدهد بهصورت مستقیم در ترمینال خود با مدلهای Devstral تعامل داشته باشند. این ابزار میتواند ساختارهای فایل و وضعیت Git را اسکن کند تا زمینه (کانتکست) را در تمام پروژه حفظ کند، تغییرات را در چندین فایل اعمال کند و دستورات شل را بهصورت خودکار اجرا نماید. میسترال این CLI را تحت مجوز Apache 2.0 منتشر کرد.
همواره مناسب است که نتایج بنچمارکهای هوش مصنوعی را با احتیاط در نظر گرفت، اما از کارکنان شرکتهای بزرگ هوش مصنوعی شنیدهایم که به عملکرد مدلها در بنچمارک SWE‑bench Verified بهدقت زیادی توجه میکنند؛ این بنچمارک ۵۰۰ مسئله واقعی مهندسی نرمافزار را که از مشکلات GitHub در مخازن محبوب پایتون استخراج شدهاند، به مدلهای هوش مصنوعی ارائه میدهد. هوش مصنوعی باید توصیف مسأله را بخواند، به کدبیس دسترسی پیدا کند و یک پچ کارآمد تولید کند که تستهای واحد را پاس کند. در حالی که برخی پژوهشگران هوش مصنوعی اشاره کردهاند که حدود ۹۰٪ از وظایف این بنچمارک شامل رفع اشکال نسبتاً سادهای است که مهندسان باتجربه میتوانند آن را در کمتر از یک ساعت تکمیل کنند، این یکی از معدود روشهای استاندارد برای مقایسه مدلهای کدنویسی است.
در کنار مدل بزرگتر کدنویسی هوش مصنوعی، میسترال همچنین Devstral Small 2 را منتشر کرد؛ نسخهای با ۲۴ میلیارد پارامتر که در همان بنچمارک ۶۸٪ امتیاز میگیرد و میتواند بهصورت محلی روی سختافزارهای مصرفکننده مانند لپتاپ بدون نیاز به اتصال اینترنت اجرا شود. هر دو مدل از پنجره زمینه ۲۵۶٬۰۰۰ توکنی پشتیبانی میکنند که به آنها امکان پردازش کدبیسهای متوسط‑حجم را میدهد (اگرچه اینکه حجم را بزرگ یا کوچک در نظر بگیرید، بسته به پیچیدگی کلی پروژه متغیر است). شرکت Devstral 2 را تحت مجوز MIT اصلاحشده و Devstral Small 2 را تحت مجوز Apache 2.0 با آزادیپذیری بیشتر منتشر کرد.
در حال حاضر Devstral 2 بهصورت رایگان از طریق API میسترال قابل استفاده است. پس از پایان دوره رایگان، قیمتگذاری بهصورت ۰٫۴۰ دلار برای هر یک میلیون توکن ورودی و ۲٫۰۰ دلار برای هر یک میلیون توکن خروجی خواهد بود. Devstral Small 2 هزینهٔ ۰٫۱۰ دلار برای هر یک میلیون توکن ورودی و ۰٫۳۰ دلار برای هر یک میلیون توکن خروجی دارد. میسترال میگوید این مدل «۷ برابر بهصرفهتر از Claude Sonnet در کارهای دنیای واقعی» است. Sonnet 4.5 شرکت Anthropic از طریق API با هزینهٔ ۳ دلار برای هر یک میلیون توکن ورودی و ۱۵ دلار برای هر یک میلیون توکن خروجی قیمتگذاری میشود؛ هزینهها با توجه به تعداد کل توکنهای استفادهشده متغیر میباشد.
ارتباط Vibe‑Coding
نام «Mistral Vibe» به «vibe coding» ارجاع دارد؛ اصطلاحی که پژوهشگر هوش مصنوعی آندره کارپاتی در فوریهٔ ۲۰۲۵ برای توصیف سبکی از برنامهنویسی ابداع کرد که در آن توسعهدهندگان خواستههای خود را به زبان طبیعی بیان میکنند و کد تولیدشده توسط هوش مصنوعی را بدون بازبینی دقیق میپذیرند. همانطور که کارپاتی میگوید، میتوانید «بهتمامی به ویبها تسلیم شوید، رشد نمایی را در آغوش بگیرید و فراموش کنید که کد حتی وجود دارد». فرهنگلغتنامهٔ کالینز این واژه را «کلمهٔ سال ۲۰۲۵» نامید.
رویکرد کدنویسی ویب هم شور و هیجان و هم نگرانی را بهوجود آورده است. در مصاحبهای با Ars Technica در ماه مارس، توسعهدهنده سیمون ویلوین گفت: «من واقعاً از کدنویسی ویب لذت میبرم. این یک روش سرگرمکننده برای آزمایش یک ایده و اثبات کارآیی آن است». اما او هشدار داد: «کدنویسی ویب بهسوی یک کدبیس تولیدی بهوضوح خطرناک است. بیشتر کاری که ما بهعنوان مهندسان نرمافزار انجام میدهیم شامل توسعهٔ سیستمهای موجود است، جایی که کیفیت و قابلیت درک کد پایهای بسیار مهم است».
میسترال شرط میبندد که Devstral 2 قادر باشد تمامیت پروژهها را حفظ کند، خطاها را شناسایی کرده و با تصحیح مجدد سعی کند؛ و این توانمندیهای ادعایی مدل آن را برای کارهای جدیتر نسبت به نمونههای ساده و ابزارهای داخلی مناسب سازد. شرکت میگوید این مدل میتواند وابستگیهای فریمورک را پیگیری کرده و وظایفی همچون رفع اشکال و بهروزرسانی سیستمهای قدیمی را در مقیاس مخازن انجام دهد. هنوز تجربهای از آن نداریم، اما بهزودی ممکن است تست مقایسهای Ars Technica بین چندین ابزار کدنویسی هوش مصنوعی را مشاهده کنید.
این نشریه بهجای انتخاب یک فرد خاص برای این جایزه، دستهای گستردهتر را برگزید
نوشتهٔ الکس نیتزبرگ
در دل «خوب، بد و غیرقابل تصور» هوش مصنوعی
مجری فوکس نیوز برت بایر در برنامه «گزارش ویژه» بررسی میکند که فناوری چگونه در حال تغییر نحوهٔ عملکرد جهان است.
مجله تایم روز پنجشنبه اعلام کرد که «معماران هوش مصنوعی» بهعنوان شخصیت سال 2025 آن انتخاب شدهاند، نه انتخاب یک فرد منفرد برای این افتخار.
«بهخاطر بهوجود آوردن عصر ماشینهای متفكر، بهدلیل شگفتزده کردن و نگران کردن بشریت، بهدلیل تحول حاضر و فراتر رفتن از ممکن، معماران هوش مصنوعی شخصیت سال 2025 مجله TIME هستند»، این نشریه در پست خود در X نوشت.
پست شامل دو جلد مجله است که یکی از آنها بهوضوح هشت شخصیت بزرگ فناوری را نشان میدهد که بهنظر میرسد در کنار هم بر روی یک تیر بالا بر فراز شهر نشستهاند — این افراد عبارتند از مارک زاکربرگ (متا)، ایلان ماسک (xAI)، سِم آلتمن (OpenAI)، لیزا سو (AMD)، جنسِن هوانگ (Nvidia)، دمیس هاسابیس (Google DeepMind)، داریو آمودی (Anthropic) و فی‑فی لی (استنفورد و World Labs).
مسئول کاخ سفید همپیمانان را به آزادسازی هوش مصنوعی از مقررات کشنده نوآوری فشار میآورد
در این تصویر، لوگوی مجله خبری هفتگی آمریکایی تایم بر روی یک گوشی هوشمند که یک تراشه و نماد هوش مصنوعی در پسزمینه دارد، دیده میشود. (بودرول چاکروت/تصاویر SOPA/LightRocket از طریق Getty Images)
به گزارش مجله تایم، اثر نقاش دیجیتال جیسون سایلر «یک تجلیل از عکسی مشهور سال ۱۹۳۲ از کارگران ساختمانی بر روی تیر فولادی، ۸۰۰ فوت بالای ساختمان RCA در نیویورک» است.
هوش مصنوعی و کاربردهای مختلف آن در حال فراگیر شدن در سراسر جهان هستند و بسیاری پیشبینی میکنند که با پیشرفت این فناوری و نفوذ آن در جامعه، تحولهای قابلتوجهی در افق پیش رو رخ خواهد داد.
ماسک میگوید هوش مصنوعی و رباتیک تنها چیزهایی هستند که میتوانند بحران عظیم بدهی ایالات متحده را حل کنند
ایلون ماسک، مدیرعامل شرکت تسلا، در نشست سرمایهگذاری آمریکا‑عربستان سعودی در مرکز کندی در واشنگتن، دیسی، ایالات متحده، روز چهارشنبه، ۱۹ نوامبر ۲۰۲۵ حضور داشت. (استفانی رینولدز/بلومبرگ از طریق Getty Images)
«بهدلیل هوآنگ، ماسیاوی سون (سافتبانک)، آلتمن و دیگر غولهای هوش مصنوعی، بشریت اکنون بهسرعت در جادهای بدون ترمز پیش میرود، به سوی آیندهای بسیار خودکار و پر از عدمقطعیت»، تایم نوشت.
سال گذشته، این نشریه دونالد ترامپ، که در آن زمان رئیسجمهور منتخب بود، را بهعنوان شخصیت سال ۲۰۲۴ نامید.
ترامپ تأیید میکند صادرات چیپ هوش مصنوعی NVIDIA به چین و ۲۵٪ سهم ایالات متحده را تبلیغ میکند
دونالد ترامپ، رئیسجمهور منتخب، در یک پذیرایی در بورس اوراقورقی نیویورک (NYSE) پس از آنکه برای دومین بار در ۱۲ دسامبر ۲۰۲۴ بهعنوان «شخصیت سال» مجله تایم شناخته شد، سخنرانی کرد. (اسپنسر پلت/گتی ایمیجز)
برای دانلود برنامه فوکس نیوز اینجا کلیک کنید
در سال ۲۰۲۳، این جایزه به ستارهٔ موسیقی تیلور سوئفت اختصاص یافت.
الکس نیتزبرگ، نویسندهای برای فاکس نیوز دیجیتال است.
ایلیا ایلیانکو، دانشجوی دوره دکترا در SpaceTimeLab، دانشگاه UCL
بیانیه افشای اطلاعات
ایلیا ایلیانکو دریافتکننده بودجهٔ دکترا از شورای مهندسی و علوم فیزیکی (Engineering and Physical Sciences Research Council) و Ordnance Survey است. او همبنیانگذار و مدیر فناوری (CTO) شرکت Safest Way، یک استارت‑اپ حمایتشده توسط برنامه شتابدهنده Geovation سازمان Ordnance Survey است. این مقاله بههمراه Prototypes for Humanity، یک ابتکار جهانی که نوآوریهای علمی را برای حل چالشهای اجتماعی و زیستمحیطی به نمایش میگذارد و تسریع میکند، سفارش شده است. The Conversation شریک رسانهای Prototypes for Humanity 2025 است.
شرکای
دانشگاه کالج لندن بهعنوان شریک بنیادین The Conversation UK، تأمین مالی میکند.
شناسهٔ دیجیتال (DOI)
https://doi.org/10.64628/AB.xd3cshuxy
در شهر تاریخی پر دیوار دِری (که به لندوندرری نیز شناخته میشود) در شمال ایرلند، اقتصاد شبانه پر رونق است. اما همانند بسیاری از مراکز شهری، چالشهای ایمنی برای کسانی که میخواهند به خانه برسند، ایجاد میکند. در شب، یک گروه داوطلبی به نام Inner City Assistance Team (iCat) اغلب خیابانها را گشت میزند و در مواقعی که افراد احساس آسیبپذیری میکنند، مداخله میکند؛ چه به دلیل مستی، مشکلات روانی یا صرفاً تنها بودن در مناطق تاریک یا ناشناس.
بهتازگی در این شهر، iCat برنامه Safest Way را معرفی کرد؛ این برنامه ناوبری عابر پیادهای است که من بهعنوان بخشی از پژوهش دکتریام در UCL توسعه دادم. این برنامه از فناوری هوش مصنوعی استفاده میکند تا مسیرهایی نه تنها سریعتر بلکه ایمنتر برای کاربران هنگام قدمزدن به مقصد یا بازگشت از آن نشان دهد – برای مثال، ایمنترین مسیر به خانه پس از یک شبنشینی.
نیاز به چنین مداخلاتی ریشه در اختلاف واضح در تجربه ایمنی شهری بین زنان و مردان دارد.
تحقیقات دفتر آمار ملی در سال ۲۰۲۲ نشان داد که ۸۲٪ از زنان احساس ناامنی میکنند هنگام قدم زدن به تنهایی در پارکها یا فضاهای باز پس از تاریکی، در مقایسه با ۴۲٪ مردان. همچنین ۶۳٪ از زنان فعالانه از سفرهای تکنفره در شب اجتناب میکنند، در مقابل ۳۴٪ مردان.
نظرسنجیای توسط Plan International UK در سال ۲۰۲۴ نشان داد که نزدیک به سهچهارم دختران و زنان جوان (سنین ۱۴ تا ۲۱) گاهی مسیرهای طولانیتری به خانه انتخاب میکنند تا از خطر احتمالی عبور کنند، و تقریباً دو‑سومی حداقل یک بار در ماه با تاکسی به خانه میروند بهدلیل ریسکهای مرتبط با حملونقل عمومی یا پیادهروی.
این ترسها واکنش مستقیم به محیط ساختهشده است؛ پژوهشها نشان میدهند که عواملی مانند روشنایی خیابان و وضعیت پیادهروها از عوامل کلیدی احساس ایمنی زنان هستند. روشنایی معمولاً عامل تصمیمگیری است: ۶۰٪ از زنانی که احساس ناامنی در حرکت به و از وسایل نقلیه عمومی میکنند، نور ناکافی را به عنوان دلیل اصلی ذکر میکنند.
اکثریت قریب به اتفاق زنان میگویند که پس از تاریکی، هنگام قدم زدن به تنهایی احساس ناامنی میکنند.Haru Photography/Shutterstock
پر کردن خلأ دادهای
بهطول دههها، عابران شهری مانند وسایل نقلیه در نظر گرفته شدند، بهطوری که ابزارهای نقشهبرداری مسیرها را بر پایه یک معیار — زمان سفر — بهینهسازی میکنند، در حالی که یک کوچهی تاریک و یک خیابان اصلی را اگر فاصلهیشان یکسان باشد، یکسان میپذیرند. مسئلهی احساس ایمنی تا حد زیادی توسط این فناوری نادیده گرفته شده است.
یکی از دلایل این موضوع فقدان دادههای یکشبه است. در حالی که مقامات محلی و نیروی پلیس مقدار زیادی اطلاعات در مورد روشنایی خیابانها، مکان دوربینهای مداربسته و حوادث جرمی جمعآوری میکنند، این دادهها معمولاً بهصورت پخش‑پذیری، ناسازگار یا بهصورت PDFهای ثابت محصور میشوند.
برای پر کردن این خلأ، تیم من و من یک لولهٔ دادهای توسعه دادیم تا این منابع و سایر منابع را گردآوری کنیم. در لندن، این کار مستلزم ارسال دهها درخواست آزادی اطلاعات به شوراهای محلی برای بهدست آوردن دادههای دقیق جغرافیایی بیش از نیم میلیون لامپ خیابانی و هزاران دوربین مداربسته عمومی بود. نقشهٔ روشنایی ما در مسابقهٔ تجسم دادههای UCL ۲۰۲۵ جایزهٔ اول را بهدست آورد.
برنامه Safest Way مسیر بازگشت به خانه در دِری را پیشنهاد میکند.Safest Way، تأمینشده توسط نویسنده (بدون بازنشر)
سپس این اطلاعات را با دادههای رسمی جرائم پلیس، ویژگیهای شهری مانند مکان پارکها، مناطق صنعتی و ساختمانهای فرسوده، بهعلاوه دادههای منبع باز Mapillary و OpenStreetMap ترکیب کردیم تا به هر بخش خیابانی «امتیاز ایمنی» اختصاص دهیم.
حتی پس از آن، دادههای عینی فقط نیمی از تصویر را تشکیل میدهند. ایمنی ادراکشده — احساس ایمنی یک خیابان برای کسی که در حال قدم زدن است — برای انتخاب مسیرهایشان حیاتی است. برای مدلسازی این امر در مقیاس بزرگ، به هوش مصنوعی روی آوردیم: بهطور خاص، مدل دید‑زبان OpenAI به نام Clip (Contrastive Language‑Image Pre‑Training).
بر خلاف بینایی ماشین سنتی که اشیای گسستهای مانند چراغهای خیابان را شناسایی میکند، Clip (و مدلهای مشابه دید‑زبان) معنای معنایی یک صحنه کامل را رمزگذاری میکند — هم دادههای تصویری و هم متنی که کاربران ارائه میدهند را به بردارهای ریاضی تبدیل میکند.
طبقهبندی نظرات ذهنی نظیر «احساس ایمنی» یا «کمی خطرناک» همچنان یک حوزه تحقیقاتی در حال پیشرفت است. اما در مطالعهٔ ۲۰۲۵ ما، همبستگی بالایی بین نحوهٔ درک ایمنی توسط هوش مصنوعی و آزمونکنندگان انسانی بر پایه ۵۰۰ عکس از بخشهای خیابانی لندن مشاهده شد.
در حالی که امروزه قصد داریم این روش را برای مدلسازی ایمنی شهری بر روی میلیونها خیابان در بریتانیا و فراتر از آن مقیاسبندی کنیم، اما نسبت به محدودیتها واقعبین هستیم. دادههای گذشتهٔ جرائم و طراحی شهری میتوانند انتخابهای ایمنتر را راهنمایی کنند، اما نمیتوانند حوادث فردی را پیشبینی کنند. مدل ما برای پشتیبانی از تصمیمگیری طراحی شده است، نه تضمین ایمنی، و باید در کنار تلاشهای گستردهتر مراکز، شوراها و پلیس برای ایمنتر کردن خیابانهای شبانه باشد.
پذیرش اولیه در دِری
از زمان راهاندازی نسخهٔ بتای برنامه Safest Way، این برنامه توسط حدود ۱٬۰۰۰ کاربر، عمدتاً در لندن و دِری، که در آن بیشتر زیرساختهای ایمنی بهطور کامل نقشهبرداری شدهاند، مورد استفاده قرار گرفته است.
هماهنگی راهاندازی در دِری از راه دور یک چالش بود. یکی از اعضای تیم Safest Way در اوایل سال ۲۰۲۵ به شهر سفر کرد تا بهصورت مستقیم با منظرهٔ سیاسی پیچیدهٔ آن آشنا شود. اما موفقیت این پروژهٔ آزمایشی عمدتاً بهدلیل مشارکت شرکای ما، iCat، ممکن شد.
همبنیانگذار این گروه داوطلب، استفن هنری، به Irish News گفت که ایدهٔ آوردن این برنامه به شهر پس از برخی حملات به زنان در سال ۲۰۲۴ شکل گرفته بود.
این گروه اکنون زیراندازهای نوشیدنی با لوگوی Safest Way و کدهای QR را در پابهای محلی توزیع میکند. هنری میگوید: «ما همچنین به کارمندان توصیه میکنیم تا برنامه را دانلود کنند، زیرا آنها اغلب تا ساعت ۳ بامداد یا دیرتر از مکان کار خود خارج نمیشوند.»
پس از نمایش اخیر فناوریمان در کنفرانس Prototypes for Humanity در دبی، اکنون در حال گسترش پوشش دادههای برنامه هستیم — از روشنایی خیابانها تا درک ایمنی مدلسازیشده توسط هوش مصنوعی — تا تمام انگلستان و سپس سایر نقاط بریتانیا را شامل شود. هدف ما پر کردن خلأ اطلاعاتی است که در حال حاضر گروههای آسیبپذیر را مجبور به پرداخت «مالیات ایمنی» میکند.
در دِری، این فناوری پیش از این لایهٔ دیجیتال حفاظتی فراهم کرده است که حضور فیزیکی داوطلبان را تکمیل میکند. با گنجاندن این تکنولوژی در آموزشهای آسیبپذیری برای کارکنان امنیتی و استفاده از آن در گشتهای خود، iCat از کمک واکنشی به کاهش خطر پیشگیرانه پیش میرود.
این مقاله بههمراه Prototypes for Humanity، یک ابتکار جهانی که نوآوریهای علمی را به نمایش میگذارد و تسریع میکند تا چالشهای اجتماعی و محیطزیستی را حل کند، سفارش شده است. The Conversation شریک رسانهای Prototypes for Humanity 2025 است.
در اینسال، نیرنگی جالب در یکی از پرسشهای متداولی که به الکسا مطرح میشود دیده میشود: «هوش مصنوعی به چه معناست؟»
دستیار هوش مصنوعی (AI) آمازون به یک ویژگی رایج در خانههای قرن بیست و یکم تبدیل شده است؛ برای کارهایی مثل پخش موسیقی، تنظیم زمانسازهای پخت و پز و پیشبینی وضعیت هوا استفاده میشود.
اما توانایی او به مراتب فراتر از این است؛ کاربران ثابت به دانش نامحدود الکسا تکیه میکنند تا به هر فکری که به ذهنشان میرسد پاسخی بدهند.
Pedro Nunes/Reuters
طبق فهرست «سوالات پرپرسش الکسا در سال ۲۰۲۵» که آمازون منتشر کرده است، کاربران در بریتانیا بهطور منظم از معنی هوش مصنوعی میپرسند. سایر نکات کلی شامل «چه مدت باید تخممرغ را آبپز کنم؟» و «قطر زمین چقدر است؟» میشود.
سلبریتیها برای کاربران الکسا جذابیت خاصی دارند؛ آنها بهدنبال اطلاعات کلی درباره افراد ثروتمند و مشهور، شامل جزئیات درباره ثروت، قد و شریک زندگی آنها میگردند. بهطور کلی، سلبریتیهایی که بیشترین سؤالها توسط کاربران بریتانیا به آنها تعلق داشت، کریستیانو رونالدو، تیلور سویفت و ایلان ماسک بودند.
اما بیشترین سؤالات درباره قد افراد به ستاره هالیوود تام کروز اختصاص یافت و پس از او پیتر کراچ، بازیکن فوتبالیست سابق انگلیسی و بسیار بلند، قرار گرفت.
Netflix
موسک شخصی بود که بیشترین کنجکاوی مردم درباره دارایی خالص او وجود داشت، سپس یوتیوبر MrBeast – با نام واقعی جیمی دونالدسون – و سویفت دنبال شد. در سؤالات مربوط به همسرهای سلبریتیها، موسک در رتبه سوم قرار گرفت؛ کاربران کنجکاو بیشتر پرسیدند که اد شیرن با چه کسی ازدواج کرده است، سپس پرسش درباره نیمه دیگر خواننده رود استوارت مطرح شد.
سویفت پربازپخشترین هنرمند از طریق الکسا بود؛ پس از او برونو مارس قرار گرفت که دوتایی او با روزِ «APT» پربازپخشترین ترک بود. سه آهنگ از KPop Demon Hunters، فیلمسری انیمیشنی پرفروش نتفلیکس، در فهرست ۱۰ آهنگ برتر پخششده حضور داشتند، در حالی که موسیقی متن این فیلم، پربازپخشترین آلبوم بود.
آمازون همچنین بهتازگی فهرستهایی از سؤالات رایج مطرحشده به الکسا در کشورهای دیگر منتشر کرده است، که در آن جذابیت جهانی برخی سلبریتیها بیتردید نمایان است.
«APT» همچنین پربازپخشترین ترک در استرالیا بود؛ جایی که شش تا از ۱۰ آهنگ برتر از KPop Demon Hunters میبودند. استرالیاییها بیشتر مایل بودند بدانند قد سابرینا کارپنتر چقدر است و ستاره «Stranger Things» فین ولفهارد با چه کسی ازدواج کرده است (هشدار: او متاهل نیست)؛ در حالی که سویفت، رونالدو و MrBeast سه سلبریتی بودند که بیشترین سؤالات را برانگیختند.
Allison Robbert/AFP/Getty Images
در بخش دانش عمومی، برخی از پرسؤالاتی که توسط استرالیاییها مطرح شد شامل «چگونه به خواب رفت؟» و «چگونه مکعب روبیک را حل کرد؟» بود.
سؤالاتی که بهخصوص در ایرلند محبوب بودند شامل «ارزش بیتکوین چقدر است؟» و «دونالد ترامپ چند سال دارد؟» میشد. سلبریتیهایی که کاربران ایرلندی بیشترین کنجکاوی را نسبت به آنها نشان دادند، رونالدو، سویفت و لیونل مسی بودند.
دره سیلیکون دوباره تمام سرمایهٔ خود را بر یک فناوری نوین میگذارد؛ اما این اشتیاق بازآفرینی شور و شوق اواخر دههٔ ۹۰ نیست.
دره سیلیکون در یک رونق هوش مصنوعی است که شباهتهای واضحی به رونق داتکام اواخر دههٔ ۹۰ دارد؛ رونقی که شرکتهایی همچون آمازون و گوگل را به وجود آورد و شرکتی همچون مایکروسافت را تقویت کرد.ریچارد درو/آسوشیِیتد پرس، تد اس. وارن/آسوشیِیتد پرس، کیم کولیش/کوربیس، از طریق گتی ایمیجز
توسط دیوید استریتفلد
گزارش از سانفرانسیسکو
رونق داتکام، دورهای پر از شور و شوق افراطی و تبلیغات بیحد و حصر که از میانهٔ دههٔ ۹۰ آغاز شد، زیرساختهای دنیای امروز را بنا نهاد. زمانی که این هیجان اینترنتی در مارس ۲۰۰۰ به سرنگونی رسید، آشوبی بهوجود آورد.
این مشکل از دره سیلیکون به اقتصاد کلان سرایت کرد و منجر به رکود شد. بیش از ۵ تریلیون دلار ارزش بازار سهام از بین رفت. نرخ بیکاری از ۴ درصد به ۶ درصد ارتقا یافت. این بدترین سقوط تاریخ نبود، اما پیامدهای آن برای چند سال ادامه یافت.
اکنون دره سیلیکون در میانهٔ یک رونق هوش مصنوعی قرار دارد که شباهتهای واضحی به رونق داتکام دارد. بسیاری از گفتارها دربارهٔ دنیای پرآروغ آینده همانند گذشته است. ثروتها دوباره خلق میشوند، گاهی توسط همان افراد فناوری که نخستین بار ثروتها را بهدست آوردند. ارزشگذاریهای افراطی به شرکتهایی میشود که دیروز وجود نداشتند.
با وجود تمام شباهتها، تفاوتهای بسیاری وجود دارد که میتوانند به نتایج کاملاً متفاوتی منجر شوند. مهمترین نکته این است که هوش مصنوعی توسط شرکتهای چندتریلیوندولاری چون مایکروسافت، گوگل و متا تأمین مالی و تحت کنترل آنهاست؛ این شرکتها در خطر سقوط نیستند، بر خلاف استارتآپهای داتکام که تقریباً فقط یک ایده و تعدادی مهندسان بودند.
آمازون بهدلیل صرف میلیاردها دلار برای مراکز دادهٔ هوش مصنوعی، خمیر دندان کمتری نمیفروشد؛ و گوگل بهدلیل توسعهٔ مدلهای بنیادی هوش مصنوعی، آگهی کمتری نمیفروشد.
اینترنت در دههٔ ۹۰ یک بستر جدید بود. مردم برای پذیرش ایدهٔ حضور آنلاین زمان نیاز داشتند و فناوریهایی نظیر پهنای باند برای فراهمسازی شرایط پیشرفت آنها به کار گرفته شد. در مقابل، بسیاری از رهبران کسبوکار مشتاقند هوش مصنوعی را هر چه سریعتر به کار گیرند.
OpenAI میگوید توانمندیهای سایبری مدلهای پیشرو هوش مصنوعی خود در حال تسریع هستند و روز چهارشنبه هشدار میدهد که مدلهای آینده احتمالاً خطر «بالا» ایجاد میکنند؛ این گزارش ابتدا با Axios به اشتراک گذاشته شد.
چرا مهم است: قابلیتهای رو به رشد این مدلها میتوانند بهصورت قابلتوجهی تعداد افرادی که قادر به انجام حملات سایبری هستند را افزایش دهند.
دلیل خبر: OpenAI اعلام کرد که در نسخههای اخیر شاهد افزایش چشمگیری در قابلیتها بوده است، بهویژه اینکه مدلها قادر به کار خودکار در مدت زمان طولانیتر هستند، که زمینهساز حملات بروتفورس میشود.
شرکت اشاره میکند که GPT-5 در یک تمرین Capture‑the‑Flag در ماه اوت ۲۷٪ امتیاز کسب کرد؛ در حالی که GPT‑5.1‑Codex‑Max ماه گذشته ۷۶٪ امتیاز بهدست آورد.
«ما انتظار داریم مدلهای آیندهٔ هوش مصنوعی این مسیر را ادامه دهند»، شرکت در گزارش میگوید. «در جهت آمادگی، ما برنامهریزی و ارزیابی میکنیم بهگونهای که هر مدل جدید میتواند به سطوح «بالا» از تواناییهای امنیتسایبری دست یابد، همانطور که در چارچوب آمادگی ما سنجیده میشود.»
بهسرعت پیگیری کنید: OpenAI در ماه ژوئن هشدار مشابهی در خصوص خطر سلاحهای زیستی صادر کرد؛ سپس در ماه ژوئیه ChatGPT Agent را عرضه کرد که در سطوح خطر خود «بالا» ارزیابی شد.
«بالا» دومین سطح است که پایینتر از سطح «بحرانی» قرار دارد؛ در این سطح مدلها برای انتشار عمومی ایمن نیستند.
بله، اما: شرکت بهطور دقیق زمان انتظار اولین مدلهای دارای خطر امنیتسایبری «بالا» یا انواع مدلهای آیندهای که میتوانند چنین خطری داشته باشند را مشخص نکرد.
آنچه میگویند: «چیزی که میتوانم بهوضوح بهعنوان عامل اصلی این وضعیت نام ببرم، توانایی مدل برای کار کردن بهصورت طولانیمدت است»، فوئاد متین از OpenAI در مصاحبهٔ انحصاری با Axios گفت.
این گونه حملات بروتفورس که به این زمان طولانی متکیاند، راحتتر قابل دفاع هستند، متین میگوید.
«در هر محیطی که از لحاظ دفاعی مجهز باشد، این بهراحتی شناسایی میشود»، او افزود.
تصویر کلی: مدلهای پیشرو در شناسایی آسیبپذیریهای امنیتی بهتر میشوند — و نه تنها مدلهای OpenAI.
در نتیجه، OpenAI اعلام میکند که تلاشهای خود برای همکاری در سطح صنعت در حوزه تهدیدات امنیتسایبری را افزایش داده است؛ از جمله از طریق فوروم مدلهای مرزی (Frontier Model Forum) که در سال ۲۰۲۳ با سایر آزمایشگاههای پیشرو راهاندازی کرد.
شرکت میگوید یک شورای ریسک مرزی جداگانه ایجاد خواهد کرد؛ یک گروه مشاورهای که «دفاعکنندگان باتجربه امنیت سایبری و متخصصان امنیتی را به همکاری نزدیک با تیمهای OpenAI میارزد».
همچنین در مرحلهٔ تست خصوصی برای Aardvark است؛ ابزاری که توسعهدهندگان میتوانند برای شناسایی نقاط ضعف امنیتی در محصولات خود استفاده کنند. برای دسترسی به Aardvark توسعهدهندگان باید درخواست دهند؛ این ابزار که OpenAI میگوید قبلاً آسیبپذیریهای بحرانی را کشف کرده است.
در میان خرید و ادغامها، تغییرات رهبری و ظهور هوش مصنوعی، سالی پر از نوسانات ناگهانی برای آژانسها با پایان پرآشوب بهوجود آمد. اما برندگان جایزه آژانس سال 2025 ADWEEK نه تنها بر این فراز و نشیبها غلبه کردند، بلکه تمام توان خود را به کار گرفتند و خلاقیت پیشگام، استراتژی تحولساز تجاری و آثار شکلدهنده به فرهنگ را برای مشتریان خود ارائه دادند.
در همان زمان، این گروه از رهبران صنعت — بهویژه هشت نفر از یازده نفرشان مستقل هستند — کسبوکارهای خود را گسترش دادند، در حالی که بهترین استعدادها را جذب و حفظ کردند و شرکتهایشان را به مکانهای عالی برای کار تبدیل کردند.
تیم اجرایی Mischief
آژانس سال 2025 ایالات متحده: Mischief @ No Fixed Address
در پنج سالگی خود، Mischief @ No Fixed Address میتوانست سال 2025 را با رشد، فروش یا فروپاشی به پایان برساند. اما بهعنوان آژانس سال ایالات متحده ADWEEK برای دومین بار، Mischief مسیر خود را خلق کرد. این آژانس مستقل از روزهای زیرپایانهاش پیشرفت کرده و اکنون بهعنوان شریک برای ساختن برندهای بلندمدت شناخته میشود. متن کامل را بخوانید.
آژانس سال 2025 شبکههای اجتماعی/اینفلوئنسر: Billion Dollar Boy
همانطور که خالقان محتوا و رسانههای اجتماعی بهعنوان کانالهای اصلی بازاریابی تثبیت شدند، Billion Dollar Boy بهدستاوردهای خود دست یافت. با امکاناتی از ساختن برند تا بازاریابی عملکردی، BDB از شبکهای شامل بیش از ۲٬۵۰۰ خالق در ۴۲ بازار برای مشتریان خود بهره میبرد. در مسیر صعود به صدر هرم بازاریابی خالقان، BDB توانسته تعادل دشواری را برقرار کند: گسترش جهانی بدون از دست رفتن ارتباط با فرهنگ. متن کامل را بخوانید.
آژانس نوآور سال 2025: Special US
Special US در ابتدای سال 2025 با مواجهه با اختلالات عمده آغاز کرد. همانطور که آتشسوزیهای وحشی در لسآنجلس – خانه دفتر اصلی ایالات متحده این آژانس – رخ داد، تیم بهسرعت دو کمپین برجستهٔ سوپر بول را تکمیل کرد. این آشفتگی محدودیتهای Special را آزمون کرد، اما نیروی خلاقانهاش در سالی که تاکنون موفقترین سالش بوده، نشان داد. متن کامل را بخوانید.
آژانس جهانی سال 2025: Wieden + Kennedy
در اوائل سال 2025، پس از ۲۷ سال توقف، نایک تصمیم گرفت بهعنوان تبلیغکننده سوپر بول بازگردد. این انتخاب باعث شد آژانس قدیمیاش Wieden+Kennedy در موقعیتی حساس قرار گیرد. به سبک معمول خود، W+K همه را با رویکردش شگفتزده کرد — اما این همان چیزی است که W+K شناخته میشود: کارهایی که با طنین فرهنگی جهانی همپوشانی دارند. متن کامل را بخوانید.
آژانس چندفرهنگی سال 2025: IW Group
در میانهٔ کاهش شدید پیشرفتهای تنوع، برابری و شمول در این سال، آژانس چندفرهنگی IW Group بیش از این که فقط طوفان را پشت سر بگذارد، دستاوردهایی بهدست آورد. اگرچه درآمدها بهتنهایی تنها کمی افزایش یافت، از ۲۳ میلیون دلار به ۲۴ میلیون دلار سالی بهسالی، نیتا سونگ، رئیس و مسئول شتاب، آژانس را «قویتر از هر زمان دیگری» توصیف کرد. متن کامل را بخوانید.
آژانس کوچک سال 2025: Mirimar
Mirimar در حال رشد و نشان دادن جایگاه خود است. پس از دریافت جایزه آژانس نوآور ADWEEK در سال 2024، این شرکت مستقر در ونيس، کالیفرنیای آمریکا در سال 2025 ثابت کرد که شتاب بهدست آمده یک تصادف نیست. این آژانس در سال 2025 پنج شریک برند جدید، از جمله Poppi، Netflix و BJ’s Restaurant را بهعنوان AOR اضافه کرد و رابطه خود را با برندهای Mammoth Brands شامل Mando، Flamingo و Lume گسترش داد. متن کامل را بخوانید.
آژانس متوسط سال 2025: Known
در صنعتی که با معیارهای سطحی و اقتصادهای مبهم دست و پنجه نرم میکند، Known ثابت میکند که شفافیت و سودآوری میتوانند همپوشانی داشته باشند. پیام اصلی به مشتریان این است: «ما دروغ نمیگوییم»، گفت کرن شایرسون، رئیس و مدیر عامل. Known فقط برای خدمات و نرمافزارهایی که در پیشنهادهایش میگذارد هزینه میگیرد — بدون تخفیف، بدون حاشیه پنهان — و بین ۱۰٪ تا ۲۵٪ از هزینههای خود را به نتایج تجاری مشتریان پیوند میدهد. در سال 2025، این مدل ارزش خود را نشان داد. متن کامل را بخوانید.
آژانس نوآوری سال 2025: Code and Theory
هنگامی که توجه مصرفکنندگان جابهجا میشود، Code and Theory خود را برای پاسخ به این آشفتگی تغییر میدهد. سپس، با تیمی ترکیبی از نیمی خلاق و نیمی مهندسان، به مشتریان خود کمک میکند تا همین کار را انجام دهند. آژانس نوآوری سال 2025 ADWEEK که در سال 2001 با این فرض که ترکیب خلاقیت با فناوری برای حل مشکلات یک پیوند گمشده است، تاسیس شد. این آژانس میگوید DNA خلاقانه و مهندسیاش دلیل این است که بیش از ۳۵ شرکت فورچون ۵۰۰ به Code and Theory مراجعه کردهاند تا دکمهٔ بازنشانی را فشار دهند. متن کامل را بخوانید.
شبکه آژانس سال 2025: FCB
در این سال FCB موارد زیادی برای افتخار دارد، اما این جشن ترکیبی از خوشحالی و تلخی است. شاید عجیب باشد که جایزهای برده شود، وقتی که شرکت Omnicom در نوامبر تکمیل خرید IPG را انجام داد و FCB به BBDO ادغام شد — و از این رو دیگر وجود ندارد. اما منطق صفحات گسترده شرکتهای هلدینگ متفاوت است از این حقیقت که FCB تمام توان خود را به کار گرفت، در دورهای که خود آگاهی نداشت که این دور نهایی دوران ۱۵۱‑سالهاش است. متن کامل را بخوانید.
آژانس مستقل سال 2025: Rethink
در سال بیست و پنجم فعالیتاش، آژانس مستقر در تورنتو Rethink از تکیه بر میراث خود امتناع کرد. این ابرقدرت مستقل در شهر خود، همچنین در نیویورک، مونترئال و ونکوور گسترش یافت، در حالی که لبهٔ خلاقیتی که نام آن را ساخته بود، تیزتر شد. «از نظر هر معیار — مالی، انسانی، کار خلاقانه — ما بهتر از هر زمان دیگری هستیم»، گفت شون مکدونالد، مسئول استراتژی جهانی و شریک. متن کامل را بخوانید.
آژانس بینالمللی سال 2025: VCCP
از تمام کارهایی که VCCP در ۱۲ ماه گذشته تولید کرده است، هیچکدام به اندازه «دیزی در برابر کلاهبرداران» نشاندهندهٔ فناوری، استراتژی و خلاقیتی که فصل جدید آن را تأمین میکند، نیست. بر پایهٔ این بینش که یک نفر از هر پنج بریتانیایی در هر هفته با تلاش کلاهبرداری مواجه میشود، این آژانس مستقل با استفاده از هوش مصنوعی یک «مادربزرگ» ساخت که تماسهای مزاحم را پاسخ میداد و زمان کلاهبرداران را با گفتوگو درباره گربهاش، فلافی، هدر میداد. این کمپین سرنوشتساز در سرتاسر جهان سرسنجی شد و ۴۵ میلیون دلار درآمد رسانهای بهدست آورد. همچنین بهصورت تخمینی ۳ میلیون دلار برای مصرفکنندگان بریتانیا صرفهجویی کرد و در سال 2025، ۴۸ جایزه از جمله پنج جایزه Cannes Lions بهدست آورد. متن کامل را بخوانید.
این پرسش سئو، تغییر تمرکز از تعداد لینکها به پوشش معنادار روابط عمومی را نشان میدهد که مشتریان واقعی و تقاضای برند را بهوجود میآورد.
سوال این هفته در قالب پرسش سئو این است:
آیا سئوها باید بیشتر بر روابط عمومی دیجیتال تمرکز کنند تا بر ساخت لینک سنتی؟
در حال حاضر روابط عمومی دیجیتال معادل ساخت لینک محسوب میشود، چرا که سئوها به روشی جدید برای بستهبندی و بازفروش همان سرویس نیاز داشتند. کار واقعی روابط عمومی همیشه ارزشمندتر از ساخت لینک است، چرا که روابط عمومی، چه دیجیتال باشد چه سنتی، بر مخاطبان اصلی مشتریان و دسترسی به جمعیتهای خاص تمرکز دارد. این امر به کسبوکار ارزش میافزاید و درآمد را افزایش میدهد.
در این راستا، اگر مشتریی بخواهد تفاوت بین روابط عمومی دیجیتال و ساخت لینک را بپرسد، اینگونه تعریف میکنم:
روابط عمومی دیجیتال: بهدست آوردن پوشش برند و ارجاعها در رسانهها، نشریات تخصصی، ژورنالهای تجاری، وبلاگهای تخصصی و وبسایتهایی که اجازه پست مهمان، لینکهای پولی یا مشارکتکنندگان غیرمستند را ندارند، با هدف ارتقاء شناخت برند و جذب ترافیک از محتوا.
ساخت لینک: دریافت لینکها از وبسایتها بهعنوان روشی برای تلاش در ارتقاء رتبه در نتایج جستجو (SERP). ترافیک یا فروش حاصل از این لینکها ردیابی نمیشود و کیفیت وبسایت ممکن است زیر سؤال برود.
روابط عمومی دیجیتال همیشه نسبت به ساخت لینک برتری دارد، زیرا این تکنیک را بهعنوان یک کسبوکار میبینید نه یک دورهمی برای بازی با رتبهبندیها. ساخت لینک سالها پیش به یک عمل بد تبدیل شد، چون لینکها کمتر مرتبط شدند، اما همچنان مهم هستند؛ بنابراین میخواهم تأکید کنم که این نکته بهطور نادرست برداشت نشود که ساخت لینک را بهطور کامل متوقف کنیم. محتوای باکیفیت بهصورت طبیعی لینکها را جذب میکند، از جمله ارجاعهای رسانهای. وقتی این بهصورت طبیعی رخ دهد، سایت رشد میکند چون ارزش بالایی برای کاربران دارد و موتورهای جستجو میتوانند کیفیت سایت را تشخیص دهند.
اگر بدون ارزیابی تأثیر لینکها بر ترافیک و فروش آنها، بهسازندگی لینک میپردازید، احتمالاً سایت خود را برای شکست آماده میکنید. جمعآوری انبوه لینکها، همانند تولید محتوای انبوه با هوش مصنوعی/مدلهای زبانی بزرگ یا ابزارهای چرخش مقاله، میتواند سایت را به سرعت گسترش دهد؛ اما همانطور که به سرعت رشد میکند، میتواند به همان سرعت هم فروبیند.
به همین دلیل، وقتی یک لینک میخرم، یک تبلیغنوشته (advertorial) میخریم یا در یک مشارکت شرکت میکنیم، همیشه پرسشهای زیر را از خود میپرسیم:
آیا مخاطبان فعالی در این وبسایت وجود دارند که از طریق جستجوی برند برای اطلاعات به این سایت بازمیگردند؟
آیا مخاطبان این وبسایت بخشی از پایگاه مشتریان ما هستند؟
آیا مقالهای که ما ارائه میدهیم یا در آن حضور مییابیم، برای کاربر مفید است و محصول یا سرویس ما بهطور طبیعی در آن گنجانده شده است یا بهطرز اجباری؟
آیا در صورتی که برای درج لینک هزینه پرداخت میکنیم، با وضعیت nofollow یا sponsored بودن لینک مشکلی نداریم؟
اگر به این چهار سؤال پاسخ بله دادید، میتوانیم لینک را بپذیریم. وجود مخاطبان فعال در وبسایت و بازگشت افراد بهوسیله نام برند نشان میدهد که مخاطبی اعتماد به این منبع برای دریافت اطلاعات دارد. اگر خوانندگان، بازدیدکنندگان یا مشتریان با جمعیتشناسی مشابه یا همانند پایگاه کاربری ما باشند، منطقی است که بخواهیم در مقابل آنها حضور داشته باشیم که بهدنبال اطلاعات میگردند.
ممکن است دانش مفیدی داشته باشیم که برای کاربر مفید باشد، اما اگر در زمینه مطلب مرتبط نباشد، دلیلی برای مراجعه آنها به وبسایت ما، استفاده از خدماتمان، خرید محصولات یا اشتراک در خبرنامههای ما وجود ندارد. بنابراین تا زمانی که تطبیق مناسب پیدا شود صبر میکنیم تا ارتباط مستقیم بین محتوایی که ارائه میدهیم یا تخصصمان در آن است و وبسایت ما ایجاد شود.
برای سؤال آخر، هدف همواره ترافیک و جذب مشتری است، نه فقط بهدست آوردن یک لینک. مالک وبسایت این امر را کنترل میکند و اگر مایل باشد به بهترین شیوههای گوگل (که قطعاً توصیه میکنیم) پایبند باشد، خوشحال خواهیم شد حتی اگر لینک را بهعنوان sponsored یا nofollow علامتگذاری کند. این مهمترین سؤال است. ساخت لینک برای تقلب در نتایج جستجو ایده بدی است؛ ایجاد یک برند که مردم بهنام آن جستجو میکنند، هر روزی از هر لینکی پیشی میگیرد. این همواره هدف ما در روابط عمومی دیجیتال و ساخت لینک است: تقویت جستجوی برند.
پس سؤال پیش میآید: از کجا میتوانیم روابط عمومی دیجیتال را آغاز کنیم؟
منابع برای دریافت ارجاعها و لینکهای روابط عمومی دیجیتال
وقتی میخواهیم یک کمپین روابط عمومی دیجیتال آغاز کنیم، فهرستی از اهداف زیر را برای ارتباط تهیه میکنیم.
رسانههای عمومی: نامهای شناختهشدهای مانند مجلهها، وبسایتهای خبری و رسانههای محلی که در شهر، کشور یا جهان بهصورت گسترده شناخته میشوند. شرط تنها این است که آنها دستهبندی فعال داشته باشند نه فقط چند مقاله پراکنده. دستهبندی فعال یعنی موضوعی جذاب برای مخاطبانشان که بهصورت مستمر در آن سرمایهگذاری میشود و احتمال حضور مشتریان ما نیز بالا است.
نشریات تخصصی: کنفرانسها، انجمنها، سازمانهای غیرانتفاعی و همچنین افراد داخلی صنعت دارند وبسایتها و نشریات چاپی که بهعضویتکنندگان توزیع میشود. نشریهای مانند Search Engine Journal میتواند بهعنوان یک نشریه تخصصی برای صنعت سئو و تبلیغات کلیکی (PPC) محسوب شود، همانند SEO Roundtable یا برخی از جامعههای مانند Webmaster World. آنها محتواهای مستقیم مرتبط با بازاریابان موتور جستجو منتشر میکنند و کاربران فعالی دارند؛ بنابراین اگر من یک ارائهدهنده خدمات سئو یا ابزار بودم، اینجا جایی است که میخواهم در آن بهعنوان مهمان ظاهر شوم و لینک دریافت کنم.
سایتها و وبلاگهای تخصصی: کمبود سایتهای تخصصی و تولیدکنندگان محتوا وجود ندارد. نکته این است که سایتهایی را پیدا کنیم که بهصورت عمومی اجازه پست مهمان یا تبلیغنوشته نمیدهند و لینک به وبسایتهای غیرتخصصی ندارند. این شامل سایتهایی میشود که هک شده و لینکهای تزریقی در آنها وجود دارد. حتی اگر «اعتبار» آنها صفر باشد، اگر کنترل کیفی داشته باشند و تمام لینکها و ارجاعها بهدست آمده باشند، ارزش دارند.
تأثیرگذاران: چه در یوتیوب، چه در گروههای فیسبوک، یا لینکداین که قابلیت کرال شدن دارد و یا سایر کانالها، دریافت پوشش از افرادی که دنبالکنندگان و مخاطبان فعالی دارند، میتواند لینک را بهوبسایت شما برساند. این ممکن است رتبهها را بالا نبرد، اما مشتریان را جذب میکند و به کشف صفحات کمک میکند اگر لینک کرال شود. مدلهای زبانی بزرگ هم محتوای خود را بهعنوان منبع ذکر میکنند، پس ممکن است برای AIO نیز ارزش داشته باشد.
ساخت لینک به هیچوجه منقضی نشده است؛ لینکها همچنان مهم هستند. تنها نیازی به ساخت مداوم آنها نیست. تمرکز بر کیفیت در جاهایی باشد که مخاطبان فعال وجود دارند و فرصتی برای دریافت ترافیک و درآمد وجود دارد. این همان است که در درازمدت پیشرفت میکند و به شما کمک میکند در نتایج جستجویی که اهمیت دارند، رشد کنید.
منابع بیشتر:
استراتژیهای پیشرفته ساخت لینک برای ملی، بینالمللی و محلی
پیوندهای برگشت (Backlinks) بد و سمی که باید از آنها اجتناب کنید
۴ نوع کمپین دادهای در روابط عمومی دیجیتال برای سئو