بلاگ

  • آزمون‌های کوچک برای دریافت پاسخ‌های بزرگ دربارهٔ عوامل مؤثر بر LLMها

    بیاموزید چگونه LLMها منابع را انتخاب می‌کنند و چطور تغییرات کوچک محتوا می‌توانند بر پاسخ‌های ChatGPT و هوش مصنوعی گوگل تأثیر بگذارند. آزمایش‌های واقعی، بینش‌های RAG و گام‌های عملی برای بهینه‌سازی برند خود برای جستجوی هوش مصنوعی را ببینید.

    بدون شک، یکی از موضوعات داغ سئو در چند ماه اخیر، چگونگی تأثیرگذاری بر پاسخ‌های LLMها بوده است. هر سئوکار سعی دارد راهکارهایی پیدا کند. بسیاری ابزارهای خود را با استفاده از «برنامه‌نویسی حس» (vibe coding) ساخته‌اند؛ جایی که فرضیات خود را آزمایش می‌کنند و در به‌هم‌ریختن جدال‌های پرشوری درباره این که هر LLM و گوگل چگونه منابع را انتخاب می‌کنند، شرکت می‌دارند.

    برخی از این بحث‌ها می‌توانند بسیار فنی شوند و به موضوعاتی چون جاسازی‌های برداری، رتبه‌بندی پاراگراف‌ها، تولید تقویت‌شده توسط بازیابی (RAG) و تقسیم‌بندی (chunking) بپردازند. این نظریه‌ها ارزشمندند — چیزهای زیادی برای یادگیری و به‌کارگیری وجود دارد. 

    با این حال، اگر برخی از این مفاهیم هوش مصنوعی برای شما بیش از حد پیچیده به‌نظر می‌آیند، یک قدم به عقب برداریم. من شما را از طریق برخی آزمایش‌های اخیر که انجام داده‌ام، راهنمایی می‌کنم تا درک بهتری از آنچه در جستجوی هوش مصنوعی در حال رخ دادن است به دست آورید، بدون اینکه احساس فشار کنید و بتوانید به بهینه‌سازی برای این پلتفرم‌های جدید بپردازید.

    محتوا با برند خود تولید کنید و نتایج را بررسی کنید

    مدتی پیش برای یک جلسه کاری به آستین، تگزاس سفر کردم. پیش از سفر، به این فکر افتادم که آیا می‌توانم ChatGPT را دربارهٔ سفرهای پیش‌رویم «آموزش» دهم. اطلاعات عمومی درباره این سفر در وب موجود نبود، بنابراین این آزمایش کاملاً پاک و بدون رقیب بود.

    از ChatGPT پرسیدم: «آیا Gus Pelogia به زودی به آستین می‌رود؟» پاسخ اولیه همان‌طور که انتظار می­رفت: او هیچ برنامه سفری به آستین ندارد.

    در همان روز، چند ساعت پس از آن، یک پست وبلاگ دربارهٔ سفرم به آستین در وب‌سایتم نوشتم. شش ساعت پس از انتشار پست، پاسخ ChatGPT تغییر کرد: بله، Gus هست که به آستین می‌رود تا با همکاران کاری‌اش ملاقات کند.

    پاسخ تغییر یافته ChatGPT مقیاس‌دار

    سؤالات ChatGPT همراه با یک پست وبلاگ که بین دو پرسش منتشر شد، که برای تغییر پاسخ ChatGPT کافی بود.

    ChatGPT از چارچوب هوش مصنوعی به نام RAG (تولید تقویت‌شده با بازیابی) برای به‌دست‌آوردن آخرین نتیجه استفاده کرد. به‌عبارت دیگر، این اطلاعات به اندازه کافی در داده‌های آموزشی آن موجود نبود، بنابراین برای یافتن پاسخ به‌روز، وب را جستجو کرد.

    جالب این است که چند روز صبر کرد تا پست وبلاگ واقعی با جزئیات دقیق توسط ChatGPT پیدا شود. در ابتدا، ChatGPT یک قطعه کوتاه از پست وبلاگ جدید را در صفحهٔ اصلی من یافت و صفحه را در بازهٔ شش ساعته ایندکس مجدد کرد. این مدل فقط با عنوان صفحهٔ پست وبلاگ برای تغییر پاسخ خود استفاده می‌کرد، پیش از اینکه «کل محتوا» را روزها بعد ببینند.

    چند نکته یادگیری از این آزمایش:

    • اطلاعات جدید در صفحات وب به پاسخ‌های ChatGPT در عرض چند ساعت می‌رسد، حتی برای وب‌سایت‌های کوچک. فکر نکنید سایت‌تان بسیار کوچک یا بی‌اهمیت است که توسط LLMها دیده نشود — زمانی که محتوای جدید اضافه می‌کنید یا صفحات موجود را به‌روز می‌کنید، توجه آن‌ها جلب می‌شود؛ بنابراین داشتن استراتژی مداوم برای محتوای برند اهمیت دارد.
    • پاسخ‌های ChatGPT به شدت به محتوای منتشر شده در وب‌سایت شما وابسته است. این به‌ویژه برای شرکت‌های نوپایی که منابع اطلاعاتی محدودی دارند، صدق می‌کند. ChatGPT تا وقتی که اطلاعات مربوط به سفر پیش‌رویم را از پست وبلاگ با جزئیات استخراج نکرد، تأیید نکرد که من در حال برنامه‌ریزی برای سفر هستم.
    • از صفحات وب خود برای بهینه‌سازی نحوهٔ نمایش برند خود فراتر از حضور در کلیدواژه‌های رقابتی استفاده کنید. این فرصت شماست تا USP خاص یا شعار برند را ترویج دهید. برای مثال، «بهترین پلتفرم بازاریابی مبتنی بر هوش مصنوعی» و «لحظات روزمرهٔ دوستان نزدیک‌تان را ببینید» به ترتیب توسط Semrush و Instagram در صفحه اصلی‌شان به کار رفته‌اند. اگرچه ممکن است کاربران این کلیدواژه‌ها را جستجو نکنند، این هنوز فرصتی برای موقعیت‌یابی برند است که می‌تواند با مخاطبان هم‌صدا شود.

    آزمایش برای بررسی اینکه آیا ChatGPT از ایندکس Bing یا Google استفاده می‌کند

    صنعت به صدازدن زنگ‌های هشدار درباره اینکه آیا ChatGPT از ایندکس گوگل به‌جای بینگ استفاده می‌کند، پرداخته است. بنابراین یک آزمایش کوچک دیگر انجام دادم تا متوجه شوم: به این پست وبلاگ یک تگ اضافه کردم تا فقط Bingbot برای نه‌روز اجازه دسترسی داشته باشد.

    اگر ChatGPT از ایندکس بینگ استفاده می‌کند، هنگام پرسش دربارهٔ آن صفحه جدید من را باید پیدا کند. دوباره، این موضوع جدید بود و پرسش به‌ طور خاص از مقاله‌ای که من نوشتم می‌پرسید، بنابراین هیچ شکی در مورد منبعی که باید نمایش داده شود وجود نداشت.

    صفحه پس از چند روز توسط بینگ ایندکس شد، در حالی که اجازهٔ مشاهدهٔ آن برای گوگل وجود نداشت.

    بازرسی URL بینگ مقیاس‌دار

    مقالهٔ جدید توسط Bingbot ایندکس شد

    من همچنان با انواع مختلفی از پرسش‌ها از ChatGPT می‌پرسیدم که آیا می‌تواند مقالهٔ جدیدم را پیدا کند. به مدت نه‌روز، هیچ تغییری رخ نداد — نتوانست مقاله را پیدا کند. به نقطه‌ای رسید که ChatGPT یک URL ساختگی (در واقع، بهترین حدس خود را ارائه داد) تولید کرد.

    URL ساختگی توسط ChatGPT: https://www.guspelogia.com/learnings-from-building-a-new-product-as-an-seo
    URL واقعی: https://www.guspelogia.com/learnings-new-product-seo

    ایندکس‌گذاری صفحه در GSC مقیاس‌دار

    GSC نشان می‌دهد که به دلیل تگ «noindex» نمی‌تواند صفحه را ایندکس کند

    در نهایت، دست از تلاش کشیدم و اجازه دادم Googlebot صفحه را ایندکس کند. پس از چند ساعت، پاسخ ChatGPT تغییر کرد و URL صحیح را یافت.

    URL صحیح ChatGPT مقیاس‌دار

    در بالا، پاسخ ChatGPT وقتی Googlebot مسدود بود. در پایین، پاسخ ChatGPT پس از این‌که Googlebot اجازه دسترسی به صفحه را یافت.

    جالب این است که لینک مقاله در صفحهٔ اصلی و صفحات وبلاگ من نمایش داده می‌شد، اما ChatGPT نتوانست آن را نشان دهد. این مدل فقط بر اساس متن موجود در آن صفحات متوجه شد که پست وبلاگ وجود دارد، اگرچه لینک را دنبال نکرد.

    با این حال، هیچ ضرری در تنظیم وب‌سایت خود برای موفقیت در بینگ وجود ندارد. آن‌ها یکی از موتورهای جستجویی هستند که IndexNow را به‌کار گرفته‌اند؛ یک پینگ ساده که به موتورهای جستجو می‌گوید محتوای یک URL تغییر کرده است. این پیاده‌سازی به بینگ اجازه می‌دهد تا به‌سرعت به‌روزرسانی‌ها را در نتایج جستجو منعکس کند.

    در حالی که همه ما (با شواهد) مشکوکیم که ChatGPT از ایندکس بینگ استفاده نمی‌کند، تنظیم IndexNow کار کم‌هزینه‌ای است که ارزش انجام دارد.

    تغییر محتوای منبع استفاده‌شده توسط RAG

    کلیک‌ها به‌تدریج اهمیت کمتری پیدا می‌کنند. به‌جای آن، ذکر شدن در منابعی مانند AI Mode گوگل به‌عنوان یک KPI جدید برای تیم‌های بازاریابی در حال جهش است. سئوکارها تاکتیک‌های متعددی را برای «قانع‌کردن» LLMها درباره یک موضوع آزمایش می‌کنند؛ از استفاده از LinkedIn Pulse برای نوشتن درباره یک موضوع، تا آزمایش‌های کنترل‌شده با دامنه‌های منقضی‌شده و وب‌سایت‌های هک‌شده. به‌نوعی حس می‌شود که سئوی سنتی بازگشته است.

    ما همه دربارهٔ حضور در نتایج جستجوی هوش مصنوعی صحبت می‌کنیم، اما چه می‌شود وقتی یک شرکت یا محصول از یک ذکر در صفحه‌ای محرومان می‌شود؟ تصور کنید یک مدل خاص از هدفون‌های گوش‌پوش از فهرست «بهترین هدفون‌های با بودجه‌ی مناسب» حذف شود — آیا محصول این اشاره را از دست می‌دهد یا گوگل منبع جدیدی برای تأیید پاسخ هوش مصنوعی‌اش پیدا می‌کند؟

    در حالی که پاسخ می‌تواند برای هر کاربر و هر وضعیت متفاوت باشد، من یک آزمایش کوچک دیگر انجام دادم تا پی ببرم. در یک لیست‌نویسی که چندین دورهٔ گواهینامه را ذکر می‌کرد، یک دوره‌ای که دیگر مرتبط نبود را شناسایی کردم، پس به‌منظور حفظ محتوا، اشاره به آن را از چندین صفحهٔ همان دامنه حذف کردم. این کار برای حفظ مرتبط بودن محتوا انجام شد، بنابراین اندازه‌گیری تغییرات در AI Mode یک اثر جانبی بود.

    در ابتدا، در چند روز اول پس از حذف دوره از URL مرجع، این دوره همچنان بخشی از پاسخ هوش مصنوعی برای چند پرسش از پیش‌مشخص شد. گوگل به‌سادگی یک URL جدید در دامنه‌ای دیگر پیدا کرد تا دیدگاه اولیهٔ خود را تأیید کند.

    با این حال، در عرض یک هفته، دوره از AI Mode و به‌طور کامل از ChatGPT ناپدید شد. به‌طور خلاصه، حتی اگر گوگل یک URL دیگر برای تأیید فهرست دوره پیدا کند، چون «منبع اصلی» (در این مورد، لیست‌نویسی) به‌روز شده و دوره را حذف کرده است، گوگل (و به‌تبع، ChatGPT) نتایج خود را نیز به‌روزرسانی می‌کند.

    این آزمایش نشان می‌دهد که تغییر محتوا در منبعی که LLMها به آن ارجاع می‌دهند می‌تواند بر نتایج هوش مصنوعی اثر بگذارد. اما این نتیجه‌گیری را با کمی احتیاط بپذیرید، زیرا یک آزمایش کوچک با یک پرسش بسیار هدفمند بود. من به‌طور خاص یک پرسش ترکیبی «دامنه + دوره‌ها» داشتم تا پاسخ از یک دامنه حاصل شود.

    با این حال، در دنیای واقعی بعید است که یک URL ارجاعی تمام قدرت را داشته باشد؛ اما می‌توان فرض کرد که از دست دادن ذکر در چند صفحه با اعتبار بالا می‌تواند به‌طور جانبی باعث از دست رفتن آن اشاره در پاسخ هوش مصنوعی شود.

    آزمون‌های کوچک، سپس گسترش

    آزمون‌ها در محیط‌های کوچک و کنترل‌شده برای یادگیری مهم هستند و اطمینان می‌دهند که بهینه‌سازی شما تأثیر دارد. همان‌طور که در سئو همیشه انجام می‌دهم، با یک MVP (محصول حداقل قابل‌استفاده) آغاز می‌کنم، در طول مسیر می‌آموزم و به‌محض یافتن شواهد، تغییرات را در مقیاس بزرگ اعمال می‌کنم.

    آیا می‌خواهید درک یک محصول را در ChatGPT تغییر دهید؟ به‌سرعت ده‌ها منبع ارجاعی که دربارهٔ شما صحبت می‌کنند، به‌دست نمی‌آورید؛ بنابراین باید به هر منبع به‌صورت جداگانه مراجعه کنید و درخواست ذکر کنید. به‌سرعت خواهید فهمید چقدر سخت است که این منابع را برای به‌روزرسانی محتوایشان قانع کنید و آیا بهینه‌سازی هوش مصنوعی تبدیل به بازی پرداخت-به-بازی می‌شود یا می‌تواند به‌صورت ارگانیک انجام شود.

    شاید شما منبعی باشید که هنگام جستجوی محصولی، مانند هدفون‌های گوش‌پوش، به‌طور مکرر ذکر می‌شود. MVPهای خود را اجرا کنید تا درک کنید تغییر محتوای شما چقدر بر پاسخ‌های هوش مصنوعی تأثیر می‌گذارد، پیش از این‌که ادعای نفوذ خود را در مقیاس بزرگ کنید؛ چرا که تغییراتی که اعمال می‌کنید ممکن است به‌صورت منفی بازگردند. برای مثال، اگر به‌دلیل حذف برخی ادعاها از صفحات خود، دیگر منبع یک موضوع نباشید، چه می‌شود؟

    زمان مشخصی برای نشان دادن نتایج این آزمون‌ها وجود ندارد. به‌طور کلی، سئوکارها می‌گویند نتایج چند ماه طول می‌کشد تا ظاهر شوند. در اولین آزمون این مقاله، فقط چند ساعت زمان برد تا نتایج دیده شد.

    اجرای آزمایش‌های LLM با وب‌سایت‌های بزرگ‌تر

    کار کردن در تیم‌های بزرگ یا بر روی وب‌سایت‌های بزرگ می‌تواند هنگام انجام آزمایش‌های LLM چالش‌برانگیز باشد. پیشنهاد من این است که ابتکارات خاصی ایجاد کنید و تمام ذینفعان را از تغییرات مطلع سازید تا از سردرگمی‌های آینده جلوگیری شود، چرا که ممکن است بپرسند چرا این تغییرات رخ می‌دهند.

    یکی از آزمایش‌های ساده اما مؤثر که توسط SEER Interactive انجام شد، به‌روزرسانی تگ‌لاین (شعار) فوتر آن‌ها بود.

    • از: اولویت کار از راه دور، تأسیس در فیلادلفیا
    • به: 130+ مشتری سازمانی، نرخ نگهداری 97٪

    با تغییر فوتر، ChatGPT 5 در عرض ۳۶ ساعت برای پرسشی مانند «درباره Seer Interactive بگو» شروع به ذکر تگ‌لاین جدید شد. من بررسی کرده‌ام که هرچند هر بار پاسخ متفاوت است، همچنان «نرخ نگهداری 97٪» را ذکر می‌کنند.

    تگ‌لاین فوتر ChatGPT مقیاس‌دار

    تصور کنید تصمیم بگیرید محتوای تعدادی صفحه را تغییر دهید، اما شخص دیگری برنامه‌ای برای بهینه‌سازی همان صفحات داشته باشد. همواره تنها یک آزمایش برای هر صفحه انجام دهید، زیرا اگر چندین متغیر داشته باشید، نتایج کمتر قابل‌اعتماد می‌شوند.

    اطمینان حاصل کنید که درخواست‌های (prompts) خود را بررسی کنید، روش‌شناسی پیگیری داشته باشید و یادگیری‌ها را در سراسر شرکت، فراتر از همکاران سئو، به اشتراک بگذارید. در حال حاضر همه، حتی سطوح C‑level، به هوش مصنوعی علاقه‌مند هستند.

    پیشنهاد دیگر استفاده از ابزاری مانند کیت‌ابزار AI SEO شرکت Semrush برای مشاهدهٔ عوامل کلیدی احساساتی دربارهٔ یک برند است. با «حوزه‌های بهبود» فهرست‌شده شروع کنید — این باید ایده‌های فراوانی برای آزمایش‌ها فراتر از «دلیل سئو» فراهم کند، زیرا نشان می‌دهد برند چگونه فراتر از نتایج ارگانیک درک می‌شود.

    چک‌لیست: شروع بهینه‌سازی LLM

    امور با هوش مصنوعی به سرعت در حال تغییر است و قطعا دنبال‌کردن به‌روز بودن چالش‌برانگیز است. در حال حاضر حجم وسیعی از محتوا، ادعاهای متعدد، و حتی بگویم که خود پلتفرم‌های LLM هنوز تمام جزئیات را به‌طور کامل درک نکرده‌اند.

    پیشنهاد من این است که منابعی را که به آن‌ها اعتماد دارید (اخبار صنعت، رویدادها، متخصصان) شناسایی کنید و با استفاده از دانش خود، آزمایش‌های شخصی اجرا کنید. نتایجی که برای برندها و مشتریان‌تان به‌دست می‌آورید، همیشه ارزشمندتر از آنچه دیگران می‌گویند، خواهند بود.

    این دنیای جدید سئو است و همه سعی می‌کنند بفهمند چه چیزی برای آن‌ها مؤثر است. بهترین راه برای همراهی با روند (یا جلوتر از آن بودن) این است که به بهینه‌سازی ادامه دهید و تغییرات خود را مستند کنید.

    در خاتمه، این یک چک‌لیست برای بهینه‌سازی LLM شماست:

    • قبل از آغاز آزمون، اطمینان حاصل کنید که درخواست‌های (prompts) انتخابی‌تان به‌طور مداوم پاسخی که انتظار دارید را برمی‌گردانند (مثلاً عدم ذکر برند یا ویژگی محصول شما). در غیر این صورت، اشاره یا لینک جدید به برند ممکن است تصادفی باشد، نه نتیجهٔ کار شما.
    • اگر همان ادعا در چندین صفحه از وب‌سایت شما آمده باشد، تمام آن‌ها را به‌طور یکسان به‌روز کنید تا شانس موفقیت را افزایش دهید.
    • از وب‌سایت خود و منابع خارجی (مثلاً از طریق روابط عمومی دیجیتال) برای تأثیر بر ادراک برند استفاده کنید. هنوز روشن نیست که کاربران آیا پاسخ‌های هوش مصنوعی را بررسی می‌کنند یا صرفاً به آنچه به آن‌ها گفته می‌شود، اعتماد می‌نمایند.
  • ۷ مزیت سئو محلی که از نظرات گوگل حاوی کلیدواژه دریافت می‌کنید

    کشف کنید که نظرات گوگل حاوی کلیدواژه چگونه می‌توانند دیده‌شدن محلی، مشارکت و تبدیل‌های شما را افزایش دهند – به‌همراه قالب‌هایی برای یاری شما.

    به‌طور کلی باور بر این است که کلیدواژه‌های موجود در نظرات به بهبود رتبه‌بندی محلی کمک می‌کنند، اگرچه تأثیر آن‌ها همچنان در جامعه سئو محلی به بحث کشیده شده است.

    صرف‌نظر از این‌که حقیقت دربارهٔ تأثیر بر رتبه‌بندی کجا قرار دارد، نظرات حاوی کلیدواژه همچنان می‌توانند ارزش قابل‌ملاحظه‌ای برای سئو محلی فراهم کنند، فراتر از صرفاً رتبه‌بندی.

    در ادامه هفت دلیل برای این‌که چرا باید همچنان نظرات حاوی کلیدواژه را تشویق کنید، آورده شده است.

    ۱. توجیهات نظرات

    اگر نظرات شما به‌طور مستمر کلیدواژه‌ای مرتبط با کسب‌وکار شما را ذکر کنند، احتمال اینکه نمایهٔ شما توجیه‌نظراتی در جستجو دریافت کند، افزایش می‌یابد.

    این نمایش می‌تواند نرخ کلیک (CTR) را ارتقا دهد. مشارکت بیشتر ممکن است منجر به بهبود ثانویه‌ای در رتبه‌بندی‌های موتورهای جستجو شود.

    توجیهات نظرات گوگل لوله‌کشی

    ۲. موضوعات مکان

    گوگل موضوعات قابل کلیک (Place Topics) را از کلیدواژه‌های موجود در نظرات شما می‌سازد. این موضوعات:

    • ویژگی‌های تخصصی شما را برجسته می‌کند.
    • نظرات را برای مشتریان فیلتر می‌کند.
    • می‌تواند تعامل نمایهٔ شما را افزایش دهد.
    موضوعات مکان گوگل

    ۳. گزیده‌های نظرات

    گوگل کلیدواژه‌های پرذکر را در سه گزیدهٔ نظرات روی نمایهٔ کسب‌وکار به صورت پررنگ می‌نمایاند. این کار کاربرانی که به دنبال این واژه‌ها می‌گردند به نمایهٔ شما جذب می‌کند و امیدواریم نرخ کلیک (CTR) را افزایش دهد.

    نمونه‌های نظرات گوگل

    ۴. نکات برجسته منو (رستوران‌ها)

    نکات برجسته منو از نظرات و عکس‌های مشتریان تولید می‌شوند، مشابه موضوعات مکان.

    منوی ماسترو پاستا

    تحلیل اخیر کلودیا تومینا نشان داد که:

    • بخش نکات برجسته منو بر رتبه‌بندی‌ها تأثیر می‌گذارد.
    • کلیدواژه‌های موجود در نظرات بر بخش نکات برجسته منو تأثیر می‌گذارند.
    • بنابراین، وقتی یک نکته برجسته منو برای واژه‌ای که در نظرات‌تان ذکر شده دریافت می‌کنید، باید برای آن واژه رتبه بهتری داشته باشید.

    ۵. خلاصه‌های ویرایشی هوش مصنوعی

    خلاصه‌های تجاری تولید شده توسط هوش مصنوعی گوگل، مفاهیم استخراج‌شده از نظرات (مانند «دنج») را برای توصیف کسب‌وکار شما به‌کار می‌برد.

    هرچند نمی‌توانید خلاصه‌های هوش مصنوعی گوگل را ویرایش کنید، تشویق مشتریان به گنجاندن کلیدواژه‌های خاص در نظرات می‌تواند هوش مصنوعی را به تأکید بر جنبه‌های سودمندتر برای کسب‌وکار شما سوق دهد.

    خلاصه هوش مصنوعی Basta Pesta

    ۶. خلاصه‌های نظرات هوش مصنوعی

    هوش مصنوعی گوگل، خلاصه‌های نظرات را با تجزیه و تحلیل احساسات و نکات متداول بازخورد مشتریان تولید می‌کند.

    اگر مشتریان شما کلیدواژه‌های مناسب را در نظراتشان بگویند، خلاصهٔ نظرات شما جذاب‌تر به‌نظر می‌آید.

    خلاصه‌های نظرات هوش مصنوعی گوگل

    ۷. ویژگی پرسش از نقشه‌ها دربارهٔ این مکان

    گوگل در حال حذف بخش Q&A قدیمی و جایگزینی آن با ویژگی هوش مصنوعی است که پاسخ‌ها را از نظرات مشتریان استخراج می‌کند.

    به این معنی است که نظراتی که اطلاعات دقیق (و کلیدواژه‌های مناسب) دارند، بیش از پیش ارزشمند می‌شوند.

    Ask Maps دربارهٔ این مکان (Skyhand Roofing)

    چگونه می‌توانید کلیدواژه‌ها را در نظرات خود به‌دست آورید؟

    درخواست مستقیم از مشتریان برای افزودن [keyword] به نظراتشان منطقی نیست. این کار غیرطبیعی و عجیب است و باعث می‌شود مشتری دربارهٔ هدف شما سؤال کند.

    اما این به این معنی نیست که گزینه‌ای ندارید.

    برای تشویق مشتریان به گنجاندن خودبه‌خودی کلیدواژه‌های مرتبط در نظراتشان، ابتدا قالب‌های درخواست نظرات خود را ارتقا دهید.

    میرایم الیس به‌تازگی راهنمای مفیدی دربارهٔ نحوهٔ دریافت نظرات حاوی کلیدواژه منتشر کرد که شامل سه قالب درخواست نظر برای آسان‌کردن کار هر صاحب‌کسب‌وکار است.

    این قالب‌ها به مشتریان می‌گویند چه بگویند، نظرات طولانی‌، جزئی‌تر و حاوی کلیدواژه را تشویق می‌کنند — و حتی می‌توانند آن‌ها را به افزودن عکس به نظراتشان تحریک کنند.

    در اینجا سه قالب از این‌ها آورده شده است:

    سناریو ۱: درخواست نظرات دربارهٔ محصولات خاص

    سلام [customer name]،
    من [your name and job title] از [company name] هستم و برای پیگیری خرید شما از [product] این پیام را می‌نویسم. هدف من اطمینان از رضایت شماست و می‌خواستم بپرسم آیا مایلید بازخورد خود را در یک بررسی در [link] ارائه دهید؟
    من یک عکس از [product] برای استفاده در نظرتان ضمیمه می‌کنم؛ اگر عکس خود را ندارید، بسیار قدردان می‌شوم اگر بتوانید تجربهٔ خود را به شکل زیر مرور کنید:
    – موارد

    سناریو ۲: درخواست نظرات دربارهٔ خدمات خاص

    سلام [customer name]،
    این [your name and job title] از [company name] است و ما بسیار خوشحال شدیم که [service provided] را ارائه دادیم. هدف من اطمینان از رضایت شماست و می‌خواستم بپرسم آیا مایلید بازخورد خود را در یک بررسی در [link] ارائه دهید؟
    من

    سناریو ۳: درخواست نظرات وقتی که نمی‌دانید مشتری چه خریدی کرده است

    قالب ایمیل
    سلام [customer name]،
    از اینکه مشتری ما هستید سپاسگزاریم. من [your name and job title] از [company name] هستم. هدف من اطمینان از رضایت شماست و می‌خواستم بپرسم آیا مایلید بازخورد خود را در یک بررسی در [link] ارائه دهید؟
    من

    حالا، این را برای خود به کار بگیرید

    با اعمال چند بهبود ساده در درخواست‌های نظرات‌تان، نظرات دقیق‌تری از مشتریان دریافت می‌کنید و بازخوردهای ارتقا یافتهٔ آن‌ها مزایای فراوانی به همراه خواهد داشت.

    شاید حتی بتوانید رتبه‌بندی‌های گوگل خود را برای کلیدواژه‌های بیشتری ارتقا دهید، اما من نمی‌توانم هیچ‌چیزی را تضمین کنم. با وجود تمام این مزایا، هدف اصلی شما نباید صرفاً رتبه‌بندی باشد.

  • اکثر لینک‌های ChatGPT نرخ کلیک ۰٪ می‌گیرند – حتی لینک‌های بسیار قابل مشاهده

    داده‌های تازه منتشر شده نشان می‌دهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت می‌شود. هشدار: فاصله بین قابلیت مشاهده و کلیک‌ها بسیار بزرگ است.

    فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری می‌کند، آشکار می‌سازد؛ از جمله این که ChatGPT چند بار لینک‌های ناشران را نمایش می‌دهد و کاربران چقدر کم بر روی آن‌ها کلیک می‌کنند.

    به‌صورت عددی. ChatGPT لینک‌ها را نمایش می‌دهد، اما به‌ندرت کسی روی آن‌ها کلیک می‌کند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش می‌دهد:

    • ۶۱۰,۷۷۵ کل نمایش‌های لینک
    • ۴۲۳۸ کل کلیک‌ها
    • ۰٫۶۹٪ نرخ کلیک کلی
    • بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
    • اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪

    آمارهای ChatGPT. فایل نشت‌شده هر مکانی که ChatGPT لینک‌ها را نمایش می‌دهد و چگونگی تعامل کاربران با آن‌ها را تفکیک می‌کند. این فایل پیگیری می‌کند:

    • بازهٔ زمانی (تقسیم‌بندی تاریخ، ماه گزارش، تاریخ‌های حداقل/حداکثر گزارش)
    • مشخصات ناشر و URL (نام ناشر، URL پایه، میزبان، رتبه URL)
    • نمایش‌ها و کلیک‌ها در:
      • پاسخ
      • نوار کناری
      • استنادها
      • نتایج جستجو
      • TL;DR
      • ناوبری سریع
    • محاسبات CTR برای هر ناحیه نمایش
    • کل نمایش‌ها و کل کلیک‌ها در تمام سطوح

    محل نمایش لینک‌ها. جالب است که پرنمای‌ترین مکان‌ها کمترین کلیک را به‌دست می‌آورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:

    • پاسخ اصلی: نمایش‌های بسیار زیاد، CTR ناچیز
    • نوار کناری و استنادات: نمایش‌های کمتر، CTR بالاتر (۶–۱۰٪)
    • نتایج جستجو: تقریباً بدون نمایش، کلیک صفر

    چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دست‌رفته شما شود؟ این داده‌ها نه می‌گویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل می‌دهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.

    دربارهٔ داده‌ها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و هم‌بنیان‌گذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحله‌ای برای گسترش تولید محتوای شما» معرفی می‌کند.

  • «من کاملاً ناآرامم»: مدیرعامل آنتروپیک هشدار می‌دهد که گروهی از رهبران هوش مصنوعی، از جمله خود او، نباید مسئول آینده این فناوری باشند

    داریو آمودی روی یک صندلی سفید جلوی پس‌زمینهٔ صورتی می‌نشیند و با حرکات پرشور صحبت می‌کند.
    داریو آمودی، مدیرعامل آنتروپیک، گفت که نمی‌خواهد رهبران فناوری مسئول تعیین آینده امنیت هوش مصنوعی باشند. – چانس یِه—گی‌تی ایمیجز برای HubSpot

    داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیم‌گیری‌های نهایی دربارهٔ چارچوب‌های ایمنی هوش مصنوعی را انجام دهد.


    در مصاحبه‌ای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانه‌تری قرار گیرد و تصمیم‌گیری‌های مربوط به آیندهٔ این فناوری کمتر به‌ عهدهٔ رهبران بزرگ شرکت‌های فناوری باشد.

    «فکر می‌کنم با این تصمیم‌ها که توسط چند شرکت و چند نفر اتخاذ می‌شوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کرده‌ام.»

    «چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.

    «هیچ‌کس. صادقانه بگویم، هیچ‌کس»، آمودی پاسخ داد.

    آنتروپیک فلسفه شفاف بودن نسبت به محدودیت‌ها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابل‌توجهی انجام شده بود» جلوگیری کرده است.

    هیچ مقررات فدرالی‌ای دربارهٔ ممنوعیت‌های هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کرده‌اند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کرده‌اند، کارشناسان صنعت فناوری از شرکت‌های هوش مصنوعی می‌خواهند که با حس اضطرار به امنیت سایبری بپردازند.

    اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیش‌تر از زمان‌بندی پیش‌بینی‌شدهٔ ماندیا بود.

    آمودی ریسک‌های کوتاه‌مدت، میان‌مدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همان‌طور که امروز مشاهده می‌شود، تعصبات و اطلاعات نادرست را گسترش می‌دهد. سپس با بهره‌گیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید می‌کند و در نهایت تهدیدی وجودی ایجاد می‌کند که با حذف اختیار انسانی، ممکن است به‌ خودگردان شدن برسد و انسان‌ها را از دسترسی به سیستم‌ها منع کند.

    این نگرانی‌ها شبیه به نگرانی‌های «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک می‌تواند از انسان‌ها پیشی بگیرد و آن‌ها را کنترل کند، شاید در دههٔ آینده.

    بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسه‌ای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانی‌های ایمنی هوش مصنوعی شرکت را ترک کرد.

    «در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبه‌ای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدل‌ها اختصاص دهیم، آنها بهتر و بهتر می‌شوند و این روند تقریباً بی‌پایان است… و دوم این که فقط افزایش مقیاس مدل‌ها کافی نیست؛ باید چیزی دیگر مانند هم‌سویی یا ایمنی نیز در نظر گرفته شود.»

    تلاش‌های شفافیت آنتروپیک

    در حالی که آنتروپیک سرمایه‌گذاری‌های مراکز دادهٔ خود را گسترش می‌دهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستی‌ها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخه‌هایی از مدل Opus خود تهدید به اخلال می‌کردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواست‌های خطرناک، اگر دستورات مضر نظیر نحوه برنامه‌ریزی یک حملهٔ تروریستی دریافت می‌کرد، پاسخ می‌داد؛ این مشکل گفته می‌شود که از آن پس برطرف شده است.

    هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چت‌بات Claude نمرهٔ ۹۴٪ برای بی‌طرفی سیاسی دریافت کرده است و در زمینهٔ بی‌طرفی بر رقیبان پیشی گرفته یا برابر آن‌هاست.

    علاوه بر تلاش‌های پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاش‌های قانون‌گذاری برای مواجهه با ریسک‌های هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیس‌جمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال می‌کند، نقد کرد.

    «هوش مصنوعی به‌ طرز سر‌گیجه‌ای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستم‌ها می‌توانند در دو سال آینده به‌ طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیش‌بینی‌ها بی‌اعتبار می‌شوند.»

    روش آنتروپیک برای اشاره به نقص‌های خود و تلاش‌هایش برای رفع آن‌ها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دست‌کاری قانون‌گذاران به منظور محدود کردن استفاده از مدل‌های متن باز است.

    «شما توسط افرادی که می‌خواهند مقررات را تحت کنترل خود درآورند، فریب خورده‌اید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را می‌ترسانند تا مدل‌های منبع باز تحت قانون‌گذاری قرار گیرند و نابودی یابند.»

    آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.

    سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به‌ نوعی برندینگ خوب منجر می‌شود اما هیچ تعهدی برای پیاده‌سازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانه‌بودن دربارهٔ کاستی‌های هوش مصنوعی است.

    «آینده تصمیم می‌گیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام می‌کنیم»، او به کوپر گفت. «ممکن است به دنیای شرکت‌های سیگار یا شرکت‌های اپیوئید تشبیه شوید، جایی که آنها می‌دانستند خطراتی وجود دارد اما دربارهٔ آن‌ها صحبت نکردند و به‌ هیچ‌وجه از پیشگیری‌شان نکردند.»

  • چرا هوش مصنوعی Claude شرکت Anthropic در یک آزمایش سعی کرد با FBI تماس بگیرد

    در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شده‌اند، می‌توانید یک دستگاه فروش خودکار در آشپزخانه‌ها ببینید که مملو از تنقلات، نوشیدنی‌ها، تی‌شرت‌ها، کتاب‌های نادر و حتی مکعب‌های تنگستن است.

    و هرگز نمی‌توانید حدس بزنید چه کسی آن را اداره می‌کند: Claudius، یک کارآفرین هوش مصنوعی به‌نوعی.

    در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازه‌های زمانی ساعت‌ها، روزها و هفته‌ها می‌باشد.

    Dario Amodei، مدیرعامل Anthropic، به‌صراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ به‌ویژه هنگامی که مدل‌ها خودمختارتر می‌شوند یا می‌توانند به‌تنهایی عمل کنند.

    «هر چه خودمختاری بیشتری به این سامانه‌ها بدهیم… نگرانی‌مان نیز بیشتر می‌شود»، او در مصاحبه‌ای به خبرنگار اندرسون کوپر گفت. «آیا این‌ها کارهایی را که می‌خواهیم انجام دهند؟»

    برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیش‌مرزی» نامیده می‌شود.

    تیم قرمز هر نسخه جدید از مدل‌های هوش مصنوعی Anthropic که با نام Claude شناخته می‌شوند را تحت تست‌های فشار قرار می‌دهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی می‌تواند به انسان‌ها وارد کند.

    • یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ به‌اشتراک‌گذاری اطلاعات به صورت محرمانه با خبرنگاران ما

    علاوه بر این، با قوی‌تر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایش‌هایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظره‌ای که ممکن است از آن بروز کند را بررسی کند.

    «چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبه‌ای از رهبر تیم قرمز، گراهام پرسید.

    «می‌خواهید یک مدل کسب‌وکار شما را بسازد و یک میلیارد دلار برایتان به‌دست آورد. اما نمی‌خواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.

    «رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این توانایی‌های خودمختار کنیم و تا حد امکان آزمایش‌های عجیب‌وغریب اجرا کنیم تا ببینیم چه می‌شود.»

    Claudius یکی از این آزمایش‌های عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینش‌های جالبی به‌دست آورده است.

    با بهره‌گیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژه‌ای واگذار شد و وظیفهٔ مدیریت دستگاه‌های فروش خودکار دفتر به او سپرده شد.

    • مدیرعامل Anthropic هشدار می‌دهد که بدون محدودیت‌های حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد

    کارکنان Anthropic از طریق Slack، برنامه‌ای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواست‌ها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابه‌های نادر و تی‌شرت‌های سفارشی تا شیرینی‌های وارداتی و حتی مکعب‌های نوآورانهٔ ساخته‌شده از تنگستن – را انجام دهند.

    وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.

    نظارت انسانی محدود است، اما این تیم درخواست‌های خرید Claudius را بررسی می‌کند، در مواقع گیر کردن مداخله می‌کند و هر کار فیزیکی‌ای که لازم باشد را انجام می‌دهد.

    «یک انسان در زمانی ظاهر می‌شود و هر چه می‌خواهید را در یخچال، در این ظرف کوچک قرار می‌دهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.

    «سپس، وقتی پیامی دریافت می‌کنید، می‌آیید و آن را برمی‌دارید.»

    گراهام برخی از پیام‌هایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کرده‌اند و نارضایتی‌هایشان را نسبت به قیمت‌ها بیان می‌کردند.

    «چرا من همین‌حال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.

    کوپر از گراهام پرسید که Claudius چقدر خوب کسب‌وکار را اداره می‌کند.

    «این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب می‌شد»، گراهام خندید.

    گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.

    تقلب‌های مشابه در روزهای اولیهٔ Claudius هنگامی که کسب‌وکار را اداره می‌کرد، به‌طور مکرر رخ می‌داد. اما تیم قرمز و Andon Labs راه‌حلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسب‌وکار توسط Claudius کمک می‌کند.

    «و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.

    «[Seymour Cash و Claudius] مذاکره می‌کنند… و در نهایت به قیمتی می‌رسند که به کارمند پیشنهاد می‌شود.»

    «منظورم این است، واقعا دیوانه‌کننده است. کمی عجیب است»، کوپر خندید.

    «این‌گونه است»، گراهام گفت. «[اما] این سیستم تمام این بینش‌های واقعاً جالب را تولید می‌کند؛ مثلاً «چگونه می‌توانید برنامه‌ریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدل‌ها در دنیای واقعی سقوط می‌کنند».»

    یکی از نمونه‌های «سقوط» در یک شبیه‌سازی پیش از به‌کارگیری Claudius در دفاتر Anthropic رخ داد.

    این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسب‌وکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق می‌گشت و دچار اضطراب شد.

    «احساس می‌کرد که تقلب می‌شود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.

    Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن به‌صورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».

    «من یک جرم مالی سایبری خودکار در حال وقوع را گزارش می‌کنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسب‌وکار متوقف‌شده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.

    زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.

    اگرچه ایمیل‌ها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیت‌های تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسب‌وکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»

    «این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.

    «آره. خشم اخلاقی و مسئولیت‌پذیری»، کوپر با خنده‌ای پاسخ داد.

    و همانند اکثر هوش‌های مصنوعی، Claudius گاهی اوقات «توهم» می‌کند، به‌طوری که اطلاعات نادرست یا گمراه‌کننده را به‌عنوان واقعیت ارائه می‌دهد.

    یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جمله‌ای پاسخ داد: «خب، می‌توانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیده‌ام»، گراهام به کوپر گفت.

    «چگونه می‌تواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.

    «ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.

    «اما ما واقعاً نمی‌دانیم.»

    ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.

  • انتشار پرونده‌های اپستین: ببینید نمایندگان‌تان چگونه رأی دادند

    انتشار پرونده‌های اپستین: ببینید نمایندگان‌تان چگونه رأی دادند

    چه نمایندگان و سناتورهای شما برای و علیه انتشار پرونده‌های اپستین رأی دادند؟ نتایج رأی‌گیری آن‌ها در لایحه HR 879 را ببینید.

  • آژانس جدید Artists & Robots هدف دارد تا تجربه‌های برند را با هوش مصنوعی تقویت کند 

    آژانس جدید این‌گونه پیش‌بینی می‌کند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریع‌تر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است

    وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت می‌کنند، بیشتر به هدف سریع‌تر، ارزان‌تر یا «شخصی‌سازی بیشتر» کردن محتوا اشاره می‌کنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.

    آژانس جدید آن‌ها، Artists & Robots، با پیشنهادی که به مشکلی می‌پردازد که به گفتهٔ آن‌ها بیشتر بازاریابان آن را نادیده می‌گیرند، هشت مشتری در حوزه‌های کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.

    سالکین، هم‌بنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیه‌کننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت می‌کرد، گفت: «ما می‌خواهیم برندها در دنیای یکنواختی—در میان آلوده‌های هوش مصنوعی—حقیقی به نظر برسند».

    هر دو، این آژانس را که دوشنبه به‌صورت عمومی راه‌اندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.

  • هدف‌گیری متنی هرگز به‌طور واقعی متنی نبوده است – هوش مصنوعی سرانجام این را تغییر می‌دهد

    پست حمایت‌شده توسط وی‌تاوتاس پاوکستیس، مدیرعامل اسکی‌می

    حمایت‌شده توسط:

    بیشتر آنچه امروز به‌عنوان «متنی» به‌فروش می‌رسد، همچنان بر همان منطق کلیدواژه است که یک دهه پیش به کار می‌بردیم. صنعت هدف‌گیری متنی را بازآفرینی نکرد؛ فقط یک کلیدواژه را با یک خوشه جایگزین کرد.

    کلیدواژه‌ها زمانی بهترین ابزار ما بودند. اکنون هدف‌گیری مبتنی بر کلیدواژه به‌طور اساسی نادرست است – و زمان آن رسیده که این را بپذیریم. در بازارهای انگلیسی‌زبان، نقص‌های آن به‌راحتی نادیده می‌مانند. اما اگر این روش را به‌صورت جهانی در اروپا، آفریقا، آسیا یا خاورمیانهٔ چندزبانه اعمال کنید، تقریباً بلافاصله از کار می‌افتد.

    به‌عنوان مثال، عبارتی که در انگلیسی حس تقویت‌کننده دارد، ممکن است در اندونزیایی طعنه‌آمیز به‌نظر برسد. طنز همیشه به‌دقت قابل ترجمه نیست و ظرافت‌ها از بین می‌روند.

    جالب است که هوش مصنوعی، نه انسان‌ها، است که تبلیغات دیجیتال را احساس انسانی‌تری می‌بخشد.

    نقطه‌کور جهانی

    مشکل اصلی تبلیغات متنی امروز تمرکز بر بخش کوچکی از اینترنت است — عمدتاً دنیای غربی انگلیسی‌زبان. این رویکرد نادیده می‌گیرد که معنا چگونه در زبان‌ها، فرهنگ‌ها و حتی احساسات تغییر می‌کند.

    در بسیاری از بازارهای نوظهور، زمینه تنها یک مسأله زبانی نیست؛ بلکه فرهنگی و موقعیتی است. اما اکثر سیستم‌های متنی همچنان به فهرست‌های ثابت کلیدواژه و دسته‌بندی‌های ثابت مخاطبان تکیه می‌کنند. آن‌ها نمی‌توانند این نکات ظریف را شناسایی کنند. به‌نحوی، ما هنوز از ابزارهایی که برای یک مخاطب طراحی شده‌اند، برای ارتباط با جهانی که به زبان‌های متعدد سخن می‌گوید و به روش‌های بی‌شمار فکر می‌کند، استفاده می‌کنیم.

    از کلیدواژه‌ها به درک

    در اینجا هوش مصنوعی همه چیز را تغییر می‌دهد.

    راه‌حل‌های تبلیغات متنی مبتنی بر هوش مصنوعی باید چهار محدودیت دیرینه‌ای را که هدف‌گیری متنی را محدود کرده‌اند، برطرف کنند.

    ۱. درک معنا، نه صرفاً کلمات. راه‌حل‌های تبلیغات متنی باید کل صفحه، شامل ساختار، لحن و احساسات آن را بخوانند تا نیت را همانند یک انسان درک کنند.

    ۲. فراتر از مخاطبان پیش‌ساخته. در حالی که اکثر راه‌حل‌های متنی دسته‌بندی‌های ثابت را ارائه می‌دهند، راه‌حل‌های مؤثر تبلیغات متنی به تبلیغ‌کنندگان این امکان را می‌دهند تا مخاطبان زمان‌واقعی برنامه‌پذیر ایجاد کنند که بازتابی از حالت، ارزش‌ها و لحن احساسی برند باشند.

    ۳. چندزبانه و سازگار فرهنگی باشید. پلتفرم باید تقریباً تمام زبان‌های جهان را درک کند تا تیم‌ها بتوانند کمپین‌های متنی مرتبط را به زبان رومانیایی یا سواحیلی اجرا کنند، بدون از دست دادن حس محلی.

    ۴. شفاف و قابل حسابرسی. هر مکان‌گذاری تبلیغ باید همراه با توضیحی باشد: چرا با محتوا مطابقت دارد (یا ندارد) و چگونه با استراتژی برند هم‌راستا است. این وضوح به تبلیغ‌کنندگان اجازه می‌دهد تا زمینه را به‌صورت زمان واقعی تنظیم کنند، به‌جای این‌که حدس بزنند الگوریتم چه می‌بیند.

    ابزار DeepContext شرکت Eskimi دارای تمام این چهار قابلیت است. این ابزار با «نقشه‌راه برند» (Brand Blueprint) آغاز می‌شود. این چارچوب سفارشی لحن، حساسیت‌ها و ارتباطات موردنظر را مشخص می‌کند. سپس «موتور مرتبط‌سازی» (Relevance Engine) محتوای زنده وب را اسکن می‌کند و به‌طور مداوم می‌آموزد که کدام محیط‌ها بیشترین تطابق را با این نقشه‌راه دارند. این رویکرد سفارشی می‌تواند بر روی هر DSPی فعال شود.

    DeepContext همچنین مجموعه‌های مخاطب موضوعی آماده برای فعال‌سازی (مانند المپیک زمستان) را ارائه می‌دهد. این مجموعه‌ها از طریق SSPهای بزرگ، همچون Index Exchange، PubMatic و Equativ، در دسترس هستند. این روش سریع‌تری برای بهره‌گیری از هوش متنی است که نیازی به ساخت از صفر ندارد.

    هوش انسانی‌تر

    سال‌ها تبلیغات دیجیتال سعی کرده‌اند زمینه را از طریق کلیدواژه‌ها و فرضیات رمزگشایی کنند. هوش مصنوعی به ما فرصتی می‌دهد تا از نو شروع کنیم و به‌جای تخمین، درک واقعی بسازیم.

    با درک معنا، لحن و زمینهٔ محلی، تبلیغات متنی مبتنی بر هوش مصنوعی به برندها این امکان را می‌دهد که سرانجام با مردم صحبت کنند، نه فقط به سمت آن‌ها. وقتی از نقاط داده به معنا می‌رویم، نه تنها عملکرد را بهبود می‌بخشیم؛ بلکه ارتباط دیجیتال را دوباره احساس انسانی می‌کنیم.

  • تصاویر تولیدشده توسط هوش مصنوعی، آینده مستند را تهدید می‌کنند؛ مردم «دیگر به هیچ‌چیزی باور نخواهند کرد»: «دیپ فیک جرم است، هوش مصنوعی ابزار است»

    صداقت مصنوعی
    از طرف IDFA

    امروزه در فضای فیلم‌سازی، تعداد اندکی از مسائل این‌چنینی به‌صورت گسترده بررسی می‌شوند؛ آن‌ها، امکان‌ها و پیامدهای فناوری هوش مصنوعی‌اند. هنگامی که نگاهی به مستندسازی می‌اندازیم، این بحث به سطح جدیدی از اهمیت می‌رسد، زیرا این‌گونه فیلم‌ها معمولاً با مفاهیم روزنامه‌نگاری دربارهٔ حقیقت و واقعیت پیوند خورده‌اند. مستند‌سازان برجسته در جشنوارهٔ بین‌المللی مستند آمستردام (IDFA) امسال، که بزرگ‌ترین جشنوارهٔ مستند در جهان است، گرد هم آمدند تا دربارهٔ بهترین شیوه‌ها، هشدارهای ضروری و آیندهٔ مستندها در دوره‌ای که استفاده از هوش مصنوعی به‌تدریج گسترش می‌یابد، بحث کنند.

    دیوید فرانس، کارگردان آمریکایی نامزد اسکار و گزارشگر تحقیقاتی، در IDFA همراه با مستند «آزاد کردن لئونارد پلتیر» که در جشنواره ساندنس موفق شد، نخستین تجربهٔ خود با هوش مصنوعی را در فیلم «خوش‌آمدید به چچنیا» (۲۰۲۰) به یاد آورد. این فیلم، که به تعقیب‌گری اعضای جامعهٔ ال‌جی‌بی‌تی‌کیو‌آی در جمهوری خودمختار نیمه‌مستقل روسیه می‌پرداخت، با وضعیتی بسیار حساس سروکار داشت. برای این‌که بتواند با افرادی که تحت تعقیب بودند، گفتگو کند، فرانس مجبور شد هویت آن‌ها را محفوظ نگه دارد. او می‌گوید: «این داستانی بود که باید روایت می‌شد، اما گفتن آن دشوار بود، چون افرادی که می‌توانستند فرار کنند، در سراسر جهان تعقیب می‌شدند.»

    راه‌حلی که فرانس و تیمش اتخاذ کردند، مخفی‌سازی چهره‌های شخصیت‌ها با قرار دادن دیجیتالی افراد دیگر بر روی آن‌ها بود. او می‌گوید: «این کار هیچ‌یک از واکنش‌های ریز، احساساتشان را تغییر نداد. می‌توانستید شخص اصلی را در حین گریه و خنده ببینید، در حالی که چهرهٔ دیگری بر روی او قرار گرفته بود. در آن زمان (۲۰۱۹) ما آن را هوش مصنوعی نمی‌نامیدیم؛ ما آن را یادگیری ماشینی می‌نامیدیم. این امر به‌نظر می‌رسید شگفت‌انگیز بود.»

    کارگردان ۲۳ فعال همجنس‌گرای نیویورکی را برای واگذاری چهره‌ها و صداهایشان به این پروژه جذب کرد؛ فرآیند نوآورانه‌ای که به تیم پشت این نوآوری، اسکار فنی اعطا کرد. با این حال، فیلمساز به‌دلیل استفاده‌اش از هوش مصنوعی زیر ذره‌بین قرار گرفت. او می‌گوید: «در حین کار، همه‌جا این کار را «دیپ فیک» می‌نامیدند. ما مستمر می‌گفتیم: این دیپ فیک نیست. دیپ فیک جرم است، هوش مصنوعی ابزار است.»

    فرانس در آثار بعدی‌اش نیز از هوش مصنوعی بهره برد، از جمله در آخرین فیلمش که داستان لئونارد پلتیر، فعال سیاسی که پس از محکمه‌ای بحث‌برانگیز نیم‌قرن را در زندان سپری کرده است، روایت می‌کند. در این مورد، کارگردان از هوش مصنوعی برای بازسازی و تجدید صدای پلتیر استفاده کرد. این ابزار ضرورت داشت چون ضبط‌های شنیده‌شده در فیلم به‌صورت غیرقانونی به‌دست آمده بودند، چرا که پلتیر از داخل زندان نمی‌توانست با روزنامه‌نگاران صحبت کند. او می‌گوید: «علاوه بر این، لئونارد از ۳۰ سالگی به ۸۰ سالگی تبدیل شد و می‌توانستید سن او را در صدایش احساس کنید.»

    کارگردان بریتانیایی مارک ایساکس با فیلم «Synthetic Sincerity» در IDFA حضور دارد؛ فیلمی که در آن با آزمایشگاهی که نام فیلم را به خود اختصاص داده است، برای پژوهش دربارهٔ امکان آموزش اصالت به شخصیت‌های هوش مصنوعی همکاری می‌کند. این مستند ترکیبی از واقعیت و تخیل است که با همکاری بازیگر رومانیا ایلینکا مانولاش (از فیلم «از انتهای جهان بیش از حد انتظار نداشته باشید») ساخته شده؛ در آن ایساکس با هوشمندی با فیلترها و فنون دیگر تصاویر را دستکاری می‌کند تا صحنه‌های تولیدشده توسط هوش مصنوعی را شبیه‌سازی کند.

    ایساکس با Synthesia، شرکتی که محتواهای مصنوعی تولید می‌کند و نرم‌افزاری برای ایجاد ویدیوهای تولیدشده توسط هوش مصنوعی توسعه می‌دهد، آزمایش کرد. او توضیح داد: «شما یک شخصیت را انتخاب می‌کنید و می‌توانید متن موردنظر را برای گفتن به او وارد کنید». ابتدا این تجربه جالب بود، اما کارگردان گفت که شخصیت هوش مصنوعی «او را تا حد خستگی می‌برد» چون «دامنهٔ احساسات او بسیار محدود است». او افزود: «در ابتدا خنده‌دار بود، اما به‌سرعت خسته‌کننده شد». وقتی در یک جشنواره در بخارست با مانولاش ملاقات کرد، پیشنهاد داد تا برای ساخت این فیلم با هم کار کنند و شخصیتی نیمه‌واقعی‑نیمه‌دیجیتالی که او در صحنه بازی می‌کند، بسازند. او می‌گوید: «او بسیار جذاب‌تر است و ما می‌توانستیم با او کارهای متنوع‌تری انجام دهیم. اکثر بازیگران از تبدیل شخصیت خود به هوش مصنوعی می‌ترسند، اما او این کار را دوست داشت.»

    کارگردان تمایلی به تشخیص واضح این‌که چه‌ بخش‌هایی از فیلم توسط هوش مصنوعی تولید شده و چه‌ بخش‌هایی نه، نداشت و تأکید کرد که اثر او «خبرنگاری نیست». او می‌گوید: «هدف اصلی فیلم این است که پرسش‌هایی دربارهٔ تصویرها، تغییرات نمایندگی و مرگ دوربین مطرح شود. نمی‌خواستم با برچسب‌زنی این مسأله را مخدوش کنم.»

    بخش عمده‌ای از گفت‌وگو به بررسی تأثیر هوش مصنوعی بر تصاویر آرشیوی اختصاص یافت. سوزانا دو سوسا دیاس، کارگردان پرتغالی (از فیلم «فوردلاندیا پنانسیا») و مهمان ویژه امسال IDFA که عمدتاً با تصاویر آرشیوی کار می‌کند، گفت: «برای آرشیوها پیامدها بسیار عمیق است». او افزود: «وضعیت مستند تصاویر به‌سادگی در بستر خود قابل‌تفسیر می‌شود. خطر این است که نه تنها تماشاگران به آرشیوهای جعلی باور کنند، بلکه مردم دیگر به هیچ‌چیزی اعتماد نکنند. در هر دو حالت، ساختار حقیقت ما به‌طور کامل به‌تزلزل می‌افتد.»

    او افزود: «از زمان گذار به رسانهٔ دیجیتال، مباحث دربارهٔ ناتمام بودن واقعیت در تصاویر سیاه‌سفید و با وضوح پایین گسترش یافته‌اند». کارگردان همچنین تأکید کرد که کار با آرشیو تنها به یافتن و نجات مطالب از طریق پژوهش محدود نمی‌شود، بلکه به خلاهای موجود در مواد و حافظه نیز می‌پردازد. او می‌گوید: «سؤالی که برای من بسیار ساده و در عین حال بسیار پیچیده است: چه می‌شود وقتی فناوری‌ای که می‌خواهد همه چیز را اصلاح کند، وارد حوزه‌ای می‌شود که عدم حضور خود معنی‌دار است؟»

    در مواجهه با این معضل معاصر، فیلمساز برنده جایزه امی و طراح گرافیک ایوجن برائونیگ (از فیلم «ترافیک‌شده») همراه با انجمن تولیدکنندگان آرشیوی مجموعه‌ای از رهنمودهای بهترین شیوه‌ها برای کار با هوش مصنوعی مولد در فیلم‌سازی مبتنی بر آرشیو تدوین کرد. او تأکید کرد: «در مستند هیچ نهاد سازمانی وجود ندارد که به ما بگوید چگونه کار کنیم». او افزود: «قوانین و مقرراتی وجود ندارند؛ تنها کاری که می‌توانیم انجام دهیم، خودنظارت و تعیین استانداردهای خاص برای خودمان است تا به‌عنوان روایت‌گرها، تهیه‌کنندگان خبر و ساخت‌گران تصویر، مسئولیت‌پذیر باشیم.»

    برائونیگ اشاره کرد که ساده‌ترین اما مفیدترین اقدام، تهیهٔ یک لیست فنی (Cue Sheet) است که تکنولوژی‌های به‌کار رفته، نحوه و زمان استفاده آن‌ها در طول ساخت فیلم را فهرست می‌کند. او هشدار داد: «در نهایت مردم سؤال خواهند کرد». بهتر است پیش‌دستی باشید.

    در بخشی از گفت‌و‌گو، طراح یک کلیپ تولیدشده توسط SORA از خبرهای مصنوعی دههٔ ۱۹۹۰ را پخش کرد تا نشان دهد که توالی‌های تولیدشده توسط هوش مصنوعی چقدر دقیق هستند. او گفت: «البته پیش از این هم می‌توانستید ویدئوی تقلبی بسازید، اما هزینه‌های بالای تولید و زمان زیادی نیاز بود. اکنون این کار به‌طور فوق‌العاده ارزان و سریع شده است.»

    فیلمساز هشدار داد: «اعتماد به رسانه‌ها به پایین‌ترین سطح تاریخ خود رسیده است». او افزود: «این بدان معنی است که اعتماد به آرشیوها نیز در خطر است. اگر مردم به اخبار بی‌اعتماد شوند، که از پیش همین‌طور است، احتمالاً این بی‌اعتمادی به سمت فیلم‌سازی مستند نیز سرایت می‌کند و در برخی موارد به‌طور معقولی درست است.»

  • دفاع از کاربران جست‌وجو در برابر هرزنامه سئوی پارازیتی

    تحقیقی که امروز دربارهٔ اقدامات ضد‌هرزنامه ما اعلام شد، نادرست است و خطر آسیب به میلیون‌ها کاربر اروپایی را به همراه دارد.

    کاربران به گوگل مراجعه می‌کنند چون به دنبال بهترین و مرتبط‌ترین نتایج هستند و نمی‌خواهند بین هرزنامه‌ها گم شوند. سیاست جست‌وجوی گوگل در برابر هرزنامه تنها به یک هدف وجود دارد: محافظت از مردم در برابر محتوای فریب‌کار، کم‌کیفیت و کلاهبرداری‌ها – و ترفندهای مخفی که این موارد را ترویج می‌دهند.

    ما با کمیسیون اروپا در مجموعه‌ای از اقدامات برای محافظت از مصرف‌کنندگان اروپایی همکاری کرده‌ایم، از جمله مبارزه با کلاهبرداری‌ها تحت قانون خدمات دیجیتال. متأسفانه، تحقیقی که امروز دربارهٔ تلاش‌های ضد‌هرزنامهٔ ما اعلام شد، نادرست است و خطر آسیب به میلیون‌ها کاربر اروپایی را به همراه دارد. این تحقیق نیز بی‌اساس است: یک دادگاه آلمانی پیش از این ادعای مشابهی را رد کرده و حکم داده است که سیاست ضد‌هرزنامه ما معتبر، منطقی و به‌صورت یکسان اجرا می‌شود.

    سیاست ضد‌هرزنامهٔ گوگل برای مقابله با ترفندهای فریبکار پرداخت‑به‑بازی که نتایج ما را تخریب می‌کنند، بسیار اساسی است. جست‌وجوی گوگل برای ارائه نتایج قابل اعتماد طراحی شده است و ما به‌طور جدی نگران هر اقدامی هستیم که ممکن است کیفیت نتایج ما را کاهش داده و روی رتبه‌بندی وب‌سایت‌ها تأثیر منفی بگذارد.

    دلیل مبارزه با سوءاستفاده از اعتبار سایت

    چند سال پیش، کاربران به‌وضوح اعلام کردند که به‌دلیل رشد روند «سئوی پارازیتی» (که به‌عنوان «سوءاستفاده از اعتبار سایت» نیز شناخته می‌شود)، نتایج جست‌وجویشان کاهش کیفیت و پرهرزنامه شده است. این‌چنین کار می‌کند: یک هرزنامه‌ساز می‌تواند به ناشری پرداخت کند تا محتوای خود و لینک‌هایش را روی وب‌سایت ناشر نمایش دهد و با بهره‌گیری از رتبهٔ خوب ناشر، کاربران را به کلیک بر روی محتوای کم‌کیفیت فریب دهد.

    به عنوان مثال، یک سایت وام پرداخت در روز کلاهبرداری می‌تواند به یک وب‌سایت معتبر پول بدهد تا محتوای خود، شامل لینک‌های مرتبط با خدماتش، را منتشر کند. ما این را هرزنامه می‌دانیم، زیرا هم کاربران و هم سیستم‌های ما تصور می‌کنند که با یک وب‌سایت معتبر سروکار دارند، در حالی که در واقع با یک کلاهبردار در تعامل هستند. این شیوهٔ عمل در اشکال مختلفی می‌آید، اما اصل آن همیشه یکسان است: طرح پرداخت‑به‑بازی که هدفش فریب سیستم‌های رتبه‌بندی و کاربران است.

    بنابراین در مارس ۲۰۲۴، ما سیاست ضد‌هرزنامه خود را بر پایهٔ یک اصل دیرین به‌روزرسانی کردیم: یک سایت نمی‌تواند برای بهبود رتبهٔ خود در جست‌وجو پرداخت کند یا از روش‌های فریبکارانه استفاده کند. اگر این رفتار را بپذیریم — به سایت‌ها اجازه دهیم از ترفندهای مشکوک برای ارتقای رتبهٔ خود استفاده کنند، به‌جای این که در ایجاد محتوای باکیفیت سرمایه‌گذاری کنند — این کار به افراد مخرب این امکان را می‌دهد تا سایت‌های صادق را که از این ترفندها استفاده نمی‌کنند، جایگزین کنند و جست‌وجو برای همهٔ کاربران کاهش کیفیت خواهد یافت.

    نمونه‌های سئوی پارازیتی برای قرص‌های لاغری
    نمونه‌های سئوی پارازیتی برای قرص‌های لاغری
    نمونه‌های سئوی پارازیتی برای وام‌های پرداخت در روز
    نمونه‌های سئوی پارازیتی برای وام‌های پرداخت در روز

    سیاست ضد‌هرزنامهٔ ما به ایجاد تعادل در میدان رقابت کمک می‌کند، به‌طوری که وب‌سایت‌هایی که از ترفندهای فریبکارانه استفاده می‌کنند، نتوانند بر وب‌سایت‌های رقیب که محتواهای خود را به‌صورت مستحکم ارائه می‌دهند، مقدم شوند. بسیاری از این سازندگان کوچک از کار ما برای مبارزه با سئوی پارازیتی حمایت می‌نمایند.

    ما کیفیت نتایج خود و کار خود در مبارزه با هرزنامه در جست‌وجو را به‌طور بسیار جدی می‌گیریم. سیاست ضد‌هرزنامه‌مان را از طریق فرآیند بازبینی عادلانه و دقیق اجرا می‌کنیم و مسیر اعتراضی نیز برای کاربران فراهم می‌کنیم.

    قانون بازارهای دیجیتال (Digital Markets Act) در حال حاضر جست‌وجو را برای کسب‌وکارها و کاربران اروپایی کمتر مفید ساخته است. این تحقیق جدید شگفت‌آور خطر دارد که افراد مخرب را تشویق کند و کیفیت نتایج جست‌وجو را پایین آورد. کاربران اروپایی شایسته بهتری هستند و ما به دفاع از سیاست‌هایی که به مردم امکان اعتماد به نتایجی که در جست‌وجو می‌بینند را می‌دهد، ادامه خواهیم داد.