بلاگ

  • چگونه اشکالات شناسایی جغرافیایی هوش مصنوعی، سئو بین‌المللی را بازنویسی می‌کنند

    مدل‌های زبانی بزرگ (LLM) مرزهای جستجو را از میان می‌برند و محتوای منطقه‌ای نازک یا ناهماهنگ را به پیش‌فرض‌های جهانی تبدیل می‌کنند که وضوح بازارها را مخدوش می‌سازد.

    چگونه اشکالات شناسایی جغرافیائی هوش مصنوعی، سئو بین‌المللی را بازنویسی می‌کنند

    جستجوی هوش مصنوعی نه تنها چه محتوایی رتبه می‌گیرد را تغییر می‌دهد؛ بلکه به‌صورت آرام‌آرام کجا برند شما به‌نظر می‌رسد متعلق باشد را بازطراحی می‌کند. هنگامی که مدل‌های زبانی بزرگ (LLM) نتایج را در میان زبان‌ها و بازارها ترکیب می‌کنند، مرزهایی که پیش‌تر محتوای محلی را جدا می‌کردند، محو می‌شوند. سیگنال‌های جغرافیایی سنتی همچون hreflang، دامنه‌های سطح‌کشوری (ccTLD) و اسکیماهای منطقه‌ای دور زده، به‌خطا تعبیر یا توسط پیش‌فرض‌های جهانی جایگزین می‌شوند. نتیجه این است که سایت انگلیسی شما به‌عنوان «حقیقت» برای تمام بازارها شناخته می‌شود، در حالی که تیم‌های محلی‌تان می‌پرسند چرا ترافیک و تبدیل‌هایشان به‌سرعت از بین می‌روند.

    این مقاله عمدتاً بر سامانه‌های هوش مصنوعی مبتنی بر جستجو، مانند نماهای هوش مصنوعی گوگل و جستجوی مولد بینگ، متمرکز است که در آن مشکل انحراف شناسایی جغرافیایی به‌وضوح دیده می‌شود. هوش مصنوعی صرفاً مکالمه‌ای ممکن است رفتار متفاوتی داشته باشد، اما مسألهٔ اصلی همان‌جا می‌ماند: هنگامی که سیگنال‌های اعتبار و داده‌های آموزشی به سمت زمینهٔ جهانی و جغرافیایی متمایل می‌شوند، ترکیب (سنتز) معمولاً این زمینه را از دست می‌دهد.

    جغرافیای جدید جستجو

    در جستجوی کلاسیک، مکان به‌صورت صریح مشخص می‌شد:

    • آی‌پی، زبان و دامنه‌های مخصوص بازار تعیین می‌کردند که کاربران چه چیزی می‌بینند.
    • hreflang به گوگل می‌گفت کدام صفحه را در کدام بازار ارائه دهد.
    • محتوای محلی در دامنه‌های کشوری (ccTLD) یا زیرشاخه‌های جداگانه قرار می‌گرفت و توسط بک‌لینک‌ها و متادیتاهای مخصوص هر منطقه تقویت می‌شد.

    جستجوی هوش مصنوعی این نظام قطعی را دچار اختلال می‌کند.

    در مقاله‌ای اخیر درباره «شکاف‌های ترجمه هوش مصنوعی»، سئو بین‌المللی بلاز گیفونی این مشکل را هنگامی که عبارت «proveedores de químicos industriales» را وارد کرد، نشان داد. به‌جای ارائه وب‌سایت بازار محلی با فهرستی از تأمین‌کنندگان شیمیایی صنعتی در مکزیک، لیستی ترجمه‌شده از ایالات متحده نشان داده شد؛ که برخی از آن‌ها یا در مکزیک تجارت نمی‌کردند یا معیارهای ایمنی یا تجاری محلی را برآورده نمی‌نمودند. یک موتور مولد صرفاً اسناد را بازیابی نمی‌کند؛ بلکه پاسخی را ترکیب می‌کند که بر پایهٔ زبانی یا منبعی است که به‌نظر کامل‌ترین می‌آید.

    اگر صفحات محلی شما نازک، به‌صورت نامنظم علامت‌گذاری شده یا توسط محتوای انگلیسی جهانی تحت‌ سایه قرار گرفته باشند، مدل به‌سادگی از مجموعه جهانی اطلاعات استخراج می‌کند و پاسخ را به اسپانیایی یا فرانسوی بازنویسی می‌نماید.

    به‌نظر سطحی، محلی به‌نظر می‌رسد؛ اما در عمق، داده‌های انگلیسی هستند که پرچم دیگری بر تن دارند.

    چرا شناسایی جغرافیایی دچار مشکل می‌شود

    1. زبان ≠ مکان

    سیستم‌های هوش مصنوعی زبان را به‌عنوان یک نمایندهٔ جغرافیایی می‌دانند. یک جستجوی اسپانیایی می‌تواند مربوط به مکزیک، کلمبیا یا اسپانیا باشد. اگر سیگنال‌های شما از طریق اسکیما، hreflang و ارجاعات محلی مشخص نکنند که چه بازارهایی را هدف قرار می‌دهید، مدل این موارد را به‌هم می‌آمیزد.

    در این‌صورت، قوی‌ترین نمونه پیروز می‌شود. و در نُه مورد از ده، این همان وب‌سایت اصلی انگلیسی شماست.

    2. تعصب تجمیع بازار

    در طول آموزش، LLMها از توزیع‌هایی یاد می‌گیرند که به‌طور شدیدی به محتوای انگلیسی تمایل دارند. وقتی موجودیت‌های مرتبط در بازارهای مختلف (مانند «GlobalChem Mexico»، «GlobalChem Japan») ظاهر می‌شوند، نمایه‌های مدل توسط نمونه‌ای مسلط می‌شود که بیشترین مثال‌های آموزشی را دارد؛ که معمولاً برند جهانی انگلیسی است. این امر باعث عدم تعادل در اعتبار می‌شود که در زمان استنتاج ادامه دارد و مدل را وادار می‌کند حتی برای پرس‌وجوهای خاص بازار، به‌طور پیش‌فرض به محتوای جهانی رجوع کند.

    3. تقویت Canonical

    موتورهای جستجو به‌طور طبیعی سعی می‌کنند صفحات تقریباً یکسان را ترکیب کنند و hreflang برای مقابله با این تعصب وجود دارد تا به آن‌ها بگوید نسخه‌های مشابه، گزینه‌های معتبر برای بازارهای مختلف هستند. هنگامی که سیستم‌های هوش مصنوعی از این فهرست‌های ترکیبی استخراج می‌کنند، این سلسله‌مراتب را به ارث می‌برند و نسخهٔ اصلی (Canonical) را به‌عنوان منبع اصلی حقیقت در نظر می‌گیرند. بدون سیگنال‌های جغرافیایی صریح در خود محتوا، صفحات منطقه‌ای برای لایهٔ ترکیب نامرئی می‌شوند، حتی اگر به‌طور کافی با hreflang برچسب‌گذاری شده باشند.

    این امر تعصب تجمیع بازار را تشدید می‌کند؛ صفحات منطقه‌ای شما نه تنها تحت‌ سایه قرار می‌گیرند، بلکه به‌صورت مفهومی درون موجودیت والد جذب می‌شوند.

    آیا این مشکل خودبه‌خودی اصلاح می‌شود؟

    با گنجاندن داده‌های آموزشی متنوع‌تر در LLMها، برخی از عدم تعادل‌های جغرافیایی ممکن است کاهش یابد. با این حال، مشکلات ساختاری همچون تجمیع Canonical و تأثیرات شبکه‌ای اعتبار زبان انگلیسی همچنان پابرجا خواهند بود. حتی با توزیع کامل داده‌های آموزشی، سلسله‌مراتب داخلی برند و تفاوت عمق محتوا در میان بازارها همچنان بر این که کدام نسخه در ترکیب برتری دارد، تأثیر می‌گذارد.

    اثر موجی بر جستجوی محلی

    پاسخ‌های جهانی، کاربران محلی

    تیم‌های خرید در مکزیک یا ژاپن پاسخ‌های تولیدشده توسط هوش مصنوعی را دریافت می‌کنند که از صفحات انگلیسی استخراج شده‌اند. اطلاعات تماس، گواهینامه‌ها و سیاست‌های حمل‌ونقل نادرست هستند، حتی اگر صفحات محلی موجود باشند.

    اقتدار محلی، سایه‌روالی جهانی

    حتی رقبای محلی قدرتمند نیز جابجا می‌شوند، زیرا مدل‌ها وزن بیشتری به مجموعه داده‌های انگلیسی/جهانی می‌گذارند. نتیجه این است که اقتدار محلی ثبت نمی‌شود.

    تضعیف اعتماد به برند

    کاربران این وضعیت را به‌عنوان نادیده‌گیری می‌بینند:

    «آنها به بازار ما سرویس نمی‌دهند.»
    «اطلاعات آنها در اینجا مرتبط نیست.»

    در صنایع تنظیم‌شده یا B2B که تطابق، واحدها و استانداردها مهمند، این وضعیت به از دست رفتن درآمد و خطر شهرت منجر می‌شود.

    Hreflang در عصر هوش مصنوعی

    Hreflang یک ابزار دقیق در دنیای مبتنی بر قواعد بود. به گوگل می‌گفت کدام صفحه را در کدام بازار ارائه دهد. اما موتورهای هوش مصنوعی صفحات را «ارائه» نمی‌دهند – آن‌ها پاسخ‌ها را تولید می‌کنند پاسخ‌ها را تولید می‌کنند.

    به این معناست:

    • Hreflang به یک راهنمای مشورتی تبدیل می‌شود، نه یک دستورالعمل قطعی.
    • شواهد فعلی نشان می‌دهد که LLMها در طول ترکیب (سنتز) hreflang را به‌طور فعال تفسیر نمی‌کنند، زیرا این تگ در روابط سطح‑سند که برای استدلال استفاده می‌شود، کاربردی ندارد.
    • اگر ساختار Canonical شما به صفحات جهانی ارجاع دهد، مدل این سلسله‌مراتب را به‌ارث می‌برد، نه دستورالعمل‌های hreflang شما.

    به‌طور خلاصه، hreflang همچنان به فهرست‌بندی توسط گوگل کمک می‌کند، اما دیگر تفسیر محتوا را کنترل نمی‌کند.

    سیستم‌های هوش مصنوعی از الگوهای ارتباط، اعتبار و ارتباط‌پذیری می‌آموزند. اگر محتوای جهانی شما دارای پیوندهای داخلی غنی‌تر، تعامل بالاتر و استنادهای خارجی بیشتری باشد، همیشه بر لایهٔ ترکیب (سنتز) تسلط خواهد داشت – صرف‌نظر از hreflang.

    مطالعه بیشتر: پرس‌و‑پاسخ سئو: رایج‌ترین خطاهای hreflang چیست و چگونه می‌توان آن‌ها را ارزیابی کرد؟

    چگونه انحراف جغرافیایی رخ می‌دهد

    بیایید به یک الگؤ واقعی که در بازارهای مختلف مشاهده می‌شود، نگاهی بیندازیم:

    1. محتوای محلی ضعیف (متن کم، عدم وجود اسکیما، فهرست قدیمی).
    2. Canonical جهانی اعتبار را تحت دامنه .com متمرکز می‌کند.
    3. نمای کلی هوش مصنوعی یا چت‌سرچ. صفحه انگلیسی را به‌عنوان دادهٔ منبع استخراج می‌کند.
    4. مدل پاسخی به زبان کاربر تولید می‌کند، که از حقایق و زمینهٔ منبع انگلیسی بهره می‌گیرد، ضمن افزودن چند نام برند محلی برای ایجاد ظاهری بومی‌سازی شده، سپس یک پاسخ ترکیبی به زبان محلی ارائه می‌دهد.
    5. کاربر کلیک می‌کند تا به فرم تماس ایالات‌متحده برسد، به‌دلیل محدودیت‌های حمل‌ونقل مسدود می‌شود و با احساس ناراحتی صفحه را ترک می‌کند.

    هر یک از این گام‌ها به‌نظر جزئی می‌رسند، اما در مجموع یک مشکل حاکمیت دیجیتال ایجاد می‌کنند – داده‌های جهانی نمایندگی بازار محلی شما را تحت‌نوشتند.

    قابلیت شناسایی جغرافیایی: ضرورت جدید سئو

    در عصر جستجوی مولد، چالش فقط رتبه‌بندی در هر بازار نیست – بلکه باید حضور خود را قابل شناسایی جغرافیایی برای ماشین‌ها فراهم کنید.

    قابلیت شناسایی جغرافیایی بر اصول سئو بین‌المللی استوار است، اما به چالش جدیدی می‌پردازد: قابل‌تفسیر کردن مرزهای جغرافیایی در طول ترکیب هوش مصنوعی، نه صرفاً در مرحله بازیابی و رتبه‌بندی سنتی. در حالی که hreflang به گوگل می‌گوید کدام صفحه را برای کدام بازار فهرست‌بندی کند، قابلیت شناسایی جغرافیایی اطمینان می‌دهد که محتوا خود شامل سیگنال‌های صریح، قابل خواندن توسط ماشین باشد که پس از انتقال از ایندکس ساختاری به پاسخ مولد نیز باقی بمانند.

    به‌این معناست که جغرافیا، تطبیق و مرزهای بازار را به‌گونه‌ای رمزگذاری کنید که LLMها بتوانند هم در ایندکس‌سازی و هم در ترکیب (سنتز) آن‌ها را درک کنند.

    لایه‌های کلیدی قابلیت شناسایی جغرافیایی

    لایه اقدام نمونه چرا مهم است
    محتوا جای‌گذاری زمینهٔ صریح بازار (مثلاً «Distribuimos en México bajo norma NOM-018-STPS») ارتباط محتوا با جغرافیای تعریف‌شده را تقویت می‌کند.
    ساختار از اسکیما برای areaServed، priceCurrency و addressLocality استفاده کنید زمینهٔ جغرافیایی صریحی را فراهم می‌کند که ممکن است بر سیستم‌های بازیابی تأثیر بگذارد و به‌عنوان راهی برای آینده‌پایداری عمل می‌کند، زیرا سیستم‌های هوش مصنوعی به‌تدریج قادر به درک بهتر داده‌های ساختاری می‌شوند.
    لینک‌ها & اشاره‌ها دریافت بک‌لینک‌های معتبر از فهرست‌های محلی و انجمن‌های تجاری اعتبار محلی و خوشه‌بندی موجودیت‌ها را می‌سازد.
    یکپارچگی داده هماهنگ‌سازی آدرس، شماره تلفن و نام‌های سازمان در تمام منابع از ادغام ناخواستهٔ موجودیت‌ها و سردرگمی جلوگیری می‌کند.
    حاکمیت نظارت بر خروجی‌های هوش مصنوعی به‌منظور شناسایی اشتباه در تخصیص یا انحراف بین‌بازاری نشت اولیه را پیش از تثبیت شدن شناسایی می‌کند.

    تذکر: اگرچه شواهد فعلی دربارهٔ تأثیر مستقیم اسکیما بر ترکیب هوش مصنوعی محدود است، این ویژگی‌ها سیگنال‌های جستجوی سنتی را تقویت می‌کنند و محتوای شما را برای سیستم‌های هوش مصنوعی آینده آماده می‌سازند که ممکن است داده‌های ساختاری را به‌صورت سیستماتیک‌تری تجزیه و تحلیل کنند.

    گردش کار تشخیص: «بازار من کجا رفت؟»

    1. اجرای جستجوهای محلی در نمای کلی هوش مصنوعی یا چت‌سرچ. عبارت‌های کلیدی محصول و دسته‌بندی خود را به زبان محلی آزمایش کنید و ثبت کنید که هر نتیجه به چه زبان، دامنه و بازاری اشاره می‌کند.
    2. ثبت URLهای ارجاع شده و شاخص‌های بازار. اگر برای پرسش‌های غیر انگلیسی صفحات انگلیسی به‌عنوان منبع نشان داده شوند، این نشانگر این است که محتوای محلی شما فاقد اعتبار یا نمایانی‌پذیری کافی است.
    3. بازنگری پوشش Search Console. اطمینان حاصل کنید که URLهای محلی شما فهرست شده، قابل کشف و به‌درستی از طریق hreflang نقشه‌گذاری شده‌اند.
    4. بررسی سلسله‌مراتب Canonical. اطمینان حاصل کنید که URLهای منطقه‌ای شما به صفحات جهانی canonical نشده‌اند. سیستم‌های هوش مصنوعی معمولاً Canonical را به‌عنوان «حقیقت اصلی» در نظر می‌گیرند.
    5. آزمون جغرافیای ساختاری. برای گوگل و بینگ، اطمینان حاصل کنید که ویژگی‌های اسکیما مانند areaServed، address و priceCurrency را اضافه یا اعتبارسنجی کنید تا به موتورهای جستجو در توصیف ارتباط قضایی کمک شود.
    6. تکرار فصلی. جستجوی هوش مصنوعی به‌سرعت تکامل می‌یابد. آزمون‌های منظم اطمینان می‌دهند که مرزهای جغراف
  • آیا تست DNA انجام داده‌اید؟ این چت‌بات درباره نتایج شما صحبت خواهد کرد.

    الکس کوتلار، مؤسس Bystro AI، در دفترهای استارتاپ در بوستون.
    الکس کوتلار، مؤسس Bystro AI، در دفترهای استارتاپ در بوستون. دیوید ال. رایان/کارکنان گلوب

    آزمون‌های ژنتیکی ارسال‌شونده که میلیون‌ها نفر برای ردیابی پیشینهٔ خود از آن استفاده می‌کنند، می‌توانند به مردم در داشتن زندگی سالم‌تر نیز کمک کنند. این دقیقاً پیام Bystro AI است؛ استارتاپی بوستونی که با به‌کارگیری هوش مصنوعی، به افراد کمک می‌کند تا از DNA خود درس‌های کلیدی زندگی را بیاموزند.

    Bystro که در سال ۲۰۲۱ تأسیس شد، ثبت‌نام کاربران برای چت‌بات هوش مصنوعی جدید خود را آغاز کرده است. کاربران می‌توانند نتایج آزمون ژنتیکی خود را به آن وارد کنند و سپس سؤالاتی دربارهٔ بهینه‌سازی رژیم غذایی، بهترین نوع تمرینات یا احتمال ابتلا به بیماری‌های جدی مانند بیماری کلیه یا آلزایمر بپرسند.

    «من فکر می‌کنم در آدم‌ها تمایل پنهانی برای کنترل سلامت خود وجود دارد»، الکس کوتلار، بنیان‌گذار شرکت، گفت. «و تا جایی که می‌توانم، می‌خواهم به آن‌ها توانمندی این‌کار را اعطا کنم.»

    ویدئوی ویژه

    Bystro از سامانه‌ای هوش مصنوعی استفاده می‌کند که بر پایهٔ حجم عظیمی از پژوهش‌های مربوط به ژنتیک انسان و سلامت آموزش‌دیده است. این سامانه در نسخهٔ تجاری عرضه می‌شود تا به پزشکان و دانشمندان کمک کند داده‌های ژنتیکی مهم را به‌سرعت استخراج کرده و هم برای پژوهش و هم برای درمان بیماران به‌کار ببرند. شرکت انتظار دارد برای نسخهٔ حرفه‌ای، ماهانه بین ۲۰۰ تا ۳۰۰ دلار هزینه دریافت کند و همچنین قصد دارد مجوزهایی برای کاربران دانشگاهی و شرکتی ارائه دهد.

    اما Bystro همچنین قصد دارد نسخه‌ای مصرف‌کننده‌محور به‌قیمت ۱۰ دلار در ماه ارائه دهد که برای افرادی است که اطلاعات ژنومیک خود را از سرویس‌های تحلیل ژنوم‌های انسانی که برای پیگیری تاریخچهٔ خانوادگی افراد ارائه می‌شود، مانند Ancestry یا 23andMe، خریداری کرده‌اند.

    برخی پژوهشگران متخصص در ژنتیک و بیماری‌ها، تردید خود را نسبت به این‌که چنین خدمتی به مصرف‌کنندگان سود می‌رساند، ابراز کردند. آن‌ها استدلال می‌کنند که ژنتیک نقش نسبتاً کمی در اکثر وضعیت‌های پزشکی ایفا می‌کند، در حالی که محیط و سبک زندگی اهمیت بیشتری دارند. لیندسی فارر، استادیورژیک در دانشگاه بوستون، گفت: «پروفایل‌های ژنتیکی اکثر افراد خطر ابتلا به بیماری‌های شایع دوران بزرگسالی و سالمندی را تنها تا کسری که معمولاً به‌مرّ کمتر از ۵۰ درصد است، افزایش می‌دهند. نه ۱۰۰ درصد.»

    یک نگرانی دیگر می‌تواند حریم شخصی باشد. کوتلار می‌داند که DNA یک فرد از جملهٔ خصوصی‌ترین اطلاعات است. او می‌گوید Bystro سامانهٔ هوش مصنوعی خود را بر پایهٔ پژوهش‌های علمی آموزش می‌دهد، نه بر روی اطلاعات ژنتیکی کاربران. «ما نیازی نداریم که از داده‌های افراد یاد بگیریم»، او افزود. «مجموعهٔ داده‌ها تا زمانی که کاربر بخواهد از آن استفاده کند، باقی می‌ماند، اما ما کاری با آن انجام نمی‌دهیم.»

    کوتلار بر این باور است که افرادی که نگران سلامت خود هستند، حق دسترسی به تمام اطلاعاتی که می‌توانند به‌دست آورند را دارند.

    یک تصویر صفحه‌ای از پاسخ چت‌بات AI Bystro به درخواست ارزیابی ریسک ابتلا به بیماری کلیوی یک شخص، با استفاده از DNA یک فرد ناشناس به‌عنوان آزمایش.
    یک تصویر صفحه‌ای از پاسخ چت‌بات AI Bystro به درخواست ارزیابی ریسک ابتلا به بیماری کلیوی یک شخص، با استفاده از DNA یک فرد ناشناس به‌عنوان آزمایش. Bystro

    او در مارس ۱۹۸۶ در اوکراین به‌دنیا آمد، زمانی که این کشور هنوز جزو اتحاد جماهیر شوروی بود؛ یک ماه پس از آن انفجار راکتور هسته‌ای در چرنوبیل رخ داد. کوتلار و خانواده‌اش از منطقهٔ رادیواکتیو فرار کردند، هرچند دولت مقیاس فاجعه را مخفی نگه داشت. «ما فقط به این دلیل می‌دانستیم که باید فرار کنیم که کودکان افراد ثروتمند شوروی در حال فرار بودند»، او گفت.

    پس از سال‌ها آزارهای ضد یهودی، کوتلار و مادرش در سال ۱۹۹۱ به آمریکا مهاجرت کردند؛ او در آن زمان پنج ساله بود. در همین دوران، خانواده با مشکلات سلامتی متعددی مواجه شدند — شامل لوسمی، سرطان ریه و مری و کم‌کاری تیروئید. خود کوتلار نیز برای ترمیم کارتیل‌های شکنندهٔ شانه‌هایش به چندین عمل جراحی نیاز داشت.

    کوتلار برنامهٔ مهندسی زیست‌پزشکی را در دانشگاه بوستون آغاز کرد، اما بعداً به رشتهٔ مدیریت بازرگانıی تغییر مسیر داد؛ با این حال علاقه‌اش به پزشکی هرگز کم‌رنگ نشد. «من به‌مدت ۱۲ ساعت در روز PubMed (پایگاه دادهٔ آنلاین پزشکی) مطالعه می‌کردم تا بفهمم چه مشکلی در من وجود دارد و چگونه می‌توانم خانواده‌ام را در برابر آن محافظت کنم.»

    در دانشگاه ایموری آتلانتا، کوتلار دکترای ژنتیک را دریافت کرد و تمرکز خود را بر توسعه ابزارهایی گذاشت که به افراد کمک می‌کند تا اطلاعات مفید را از حجم عظیم داده‌های ژنتیکی استخراج کنند. ظهور سیستم‌هایی نظیر ChatGPT گزینهٔ قدرتمند جدیدی فراهم کرد — هوش مصنوعی‌ای که می‌تواند گفتار عادی انسان را درک کرده و به زبانی پاسخ دهد که افراد غیرمتخصص به‌راحتی درک کنند.

    اموری در تأمین هدیهٔ یک میلیون دلاری از یک خیرکار ناشناس برای راه‌اندازی Bystro کمک کرد. نام این شرکت ربطی به رستوران‌های صمیمی ندارد؛ این واژهٔ روسی به معنای «سریع» است.

    کاربران Bystro می‌توانند بپرسند آیا ویژگی‌های ژنتیکی خاصی دارند که ممکن است در آینده منجر به مشکلات سلامتی شوند. برای مثال، بسیاری از افراد با سابقهٔ افریقایی ژنی دارند که در برابر بیماری‌های انگلی محافظت می‌کند، اما به‌طرز قابل‌توجهی احتمال ابتلا به بیماری کلیوی را افزایش می‌دهد.

    یا کاربری می‌تواند بپرسد آیا یک مشکل پزشکی موجود ممکن است ریشهٔ ژنتیکی داشته باشد. به‌عنوان مثال، فردی که به‌طور مکرر دچار سوءهاضمه است، می‌تواند دریابد که به‌صورت ژنتیکی مستعد عدم تحمل لاکتوز است.

    اما ساموئل اسکاپینو، مدیر هوش مصنوعی و علوم زندگی در مؤسسهٔ AI تجربی در دانشگاه نورث‌ایسترن، گفت عوامل محیطی برای اکثر افراد به‌مرّ بیش از ژنتیک اهمیت دارند. «حتی اگر سیگنالی از کد ژنتیک استخراج شود، احتمالاً توسط انتخاب‌های سبک زندگی شما یا مکانی که به‌دنیا آمده‌اید، کم‌رنگ می‌شود»، اسکاپینو اظهار کرد. «همهٔ این عوامل متنوع تأثیر بسیار بزرگ‌تری خواهند داشت.»

    با این حال، نظرسنجی‌ای توسط مرکز پزشکی دانشگاه تگزاس سوت‌وِست‌رن نشان می‌دهد که ۴۰ درصد از ساکنان ایالات متحده از نوعی آزمایش ژنتیکی استفاده کرده‌اند. کوتلار بر این باور است که بسیاری از آن‌ها خوش‌حالانه برای یک چت‌بات DNA ثبت‌نام خواهند کرد.

    «با Bystro، هر کسی که ژنوم و سؤال دارد می‌تواند گفت‌و‌گویی با زیست‌شناسی خود آغاز کند»، او گفت.

  • هوش مصنوعی می‌تواند تا ۲۰۲۶، یک‌سوم از فیلم‌ها و انیمیشن‌های بلند را به‌دست گیرد، بر اساس گفته تِنست چین

    سون ژونگ‌هوای
    HIIFF

    هوش مصنوعی مولد آماده است تا عرضه محتواهای برتر تصویری را متحول کند؛ نایب رئیس غول رسانه‌های آنلاین چینی تِنست و مدیرعامل تِنست ویدیو، سون ژونگ‌هوای، پیش‌بینی می‌کند که تا یک‌سوم از فیلم‌ها و انیمیشن‌های بلند می‌تواند «توسط هوش مصنوعی تسلط پیدا کند یا به‌طور عمیق درگیر هوش مصنوعی باشد» در طول دو سال آینده، اگرچه نگرانی‌های ماندگار دربارهٔ دقت عملکرد و انسجام بصری باقی‌مانده‌اند.

    در جلسه‌ای که در 7ام جشنواره بین‌المللی فیلم جزیره هینان (HIIFF) برگزار شد، سون پیش‌بینی کرد که در سال‌های آینده تحول چشمگیری در تولید محتوای تلویزیونی و فیلم‌های برتر رخ خواهد داد.

    «از منظر زمانی، با نگاه به یک یا دو سال آینده، دلایل کافی داریم تا انتظار داشته باشیم تغییرات مشهودی در ساختار عرضه محتواهای این پلتفرم رخ دهد،» سون اظهار کرد. «در دسته‌های اصلی مانند فیلم، تلویزیون و انیمیشن، آثار تحت تسلط یا به‌طور عمیق درگیر هوش مصنوعی می‌توانند به‌احتمال ۱۰ تا ۳۰ درصد از کل سهم برسند.»

    با اشاره به محتوای کوتاه‌مدت، سون نتیجه‌گیری کرد که مسابقه‌ توسط محصولات هوش مصنوعی مولد پیشاپیش به‌دست آمده است.

    سون گفت: «محتوای کوتاه شبیه کالاهای مصرفی پرسرعت (FMCG) است که بی‌رحمانه به دنبال کارایی می‌گردد.» او افزود: «در این زمینه، درام‌های کوتاه و انیمیشن‌های کوتاهی که می‌شناسیم پیشتاز شده‌اند و هزینه‌ها را به‌طرز چشمگیری کاهش داده‌اند. ما برآورد می‌کنیم که شرکت‌های بومی هوش مصنوعی در زمینه انیمیشن‌های کوتاه هم‌اکنون تقریباً ۳۰٪ از بازار را تشکیل می‌دهند.»

    علیرغم پیش‌بینی خوش‌بینانه، عوامل متعددی همچنان به‌عنوان موانع برای هوش مصنوعی مولد در محتوای بلندمدت باقی مانده‌اند، از جمله توانایی حفظ ثبات و عدم توانایی در تکرار عملکردهای انسانی.

    سون توضیح داد: «فناوری ویدئوی هوش مصنوعی هنوز نتوانسته است مسائلی چون ثبات بصری و قابلیت کنترل را حل کند.» او افزود: «با افزایش مدت زمان صحنه‌ها، تغییرات جزئیات در شخصیت‌ها به‌وضوح آشکار می‌شود.»

    سون همچنین اشاره کرد که بازی‌های انسانی شامل میکرو‑ابرازات و میکرو‑حرکات است که نسل فعلی هوش مصنوعی قادر به بازتولید آن‌ها نیست، که این امر در ایجاد تنش و ظرافت عاطفی خلأهایی به‌وجود می‌آورد.

    او همچنین ذکر کرد که اکثر محتوای تولیدشده توسط هوش مصنوعی به‌صورت رزولوشن ۱۰۸۰p HD محدود است، که با استانداردهای ۴K یا انتشار در سالن‌های سینمایی DCI مطابقت ندارد.

    با این حال، سون تأکید کرد که این موانع موقت هستند و پیش‌بینی کرد که هوش مصنوعی به فیلمسازان امکان می‌دهد به ژانرهای بلندپروازانه‌ای بازگردند که پیشتر به‌دلیل ریسک مالی زیاد، برای استودیوها غیرقابل تأیید بودند.

    سون گفت: «ژانرهایی که پیش‌تر به‌دلیل ریسک‌های بازار نادیده گرفته می‌شدند، مانند علمی‑تخیلی بزرگ و روایت‌های عظیم «عصر کشفیات»، با کاهش هزینه‌ای که هوش مصنوعی فراهم می‌کند، احیا خواهند شد.»

    برای سازگاری با این آینده، سون فاش کرد که تِنست ویدیو به‌طور فعال ابزارهای هوش مصنوعی را در جریان کارهای سنتی خود می‌گنجاند؛ او گفت که در حال حاضر هوش مصنوعی در مراحل اولیه طراحی مفهوم، پیش‑نمایش (pre‑vis) و روت‌اسکاپینگ به‌کار گرفته می‌شود. در تولید مجازی با LED، هوش مصنوعی برای ساخت صحنه‌های دیجیتال پیچیده‌ای که به‌عنوان پس‌زمینه مورد نیاز است، استفاده می‌شود.

    سون به انتقادهایی که هوش مصنوعی سبب بیکاری در صنایع خلاق می‌شود پاسخ داد و بیان کرد که تِنست توسعه استعدادها را به‌عنوان اولویت اصلی در شرکت می‌داند.

    سون گفت: «مدل استعدادی برای تولید فیلم‌های آینده به افراد با توانایی‌های چندوجهی (پُلی‌مت) نیاز دارد؛ به زبان ساده‌تر، ما به مهندسان هنر یا هنرمندان فنی نیاز داریم و با برترین دانشگاه‌ها و مؤسسات برای پرورش این افراد همکاری می‌کنیم.»

    سون گفت: «ما واقعاً خوش‌شانسیم که می‌توانیم دورهٔ رنسانس واقعی را در صنعت فیلم تجربه کنیم. هیجان‌انگیزترین تجربه‌های انسانی هنگام عبور از حالت عدم‌اطمینان به سمت یقین رخ می‌دهد.»

  • برند کیف‌سفر Béis به‌خاطر ایمیل بازاریابی تقلبی با عنوان «هشدار تقلب» تحت بررسی است

    ایمیل Beis با عنوان "نیاز به اقدام: هشدار تقلب"
    ایمیل تقلبی «هشدار تقلب» Béis واکنش‌های منفی را برانگیخته است. (جسیکا لوینسون، لینکدین)

    نوشتهٔ اریکا ویلِس

    مصرف‌کنندگان و اینفلوئنسرها خشم خود را در شبکه‌های اجتماعی ابراز می‌کنند.

  • تحقیقات هوش مصنوعی با مشکل بی‌کیفیتی مواجه است؛ محققان می‌گویند: «وضعیت هرج‌ومرج است»

    تحقیقات هوش مصنوعی زیر سؤال قرار گرفته است؛ چرا که نویسنده ادعا می‌کند بیش از ۱۰۰ مقاله درباره هوش مصنوعی نوشته است؛ که یک کارشناس آن را «فاجعه» می‌نامد.

    یک فرد ادعا می‌کند که در این سال ۱۱۳ مقاله علمی در حوزه هوش مصنوعی منتشر کرده است؛ ۸۹ مقاله از اینها امشب در یکی از برترین همایش‌های جهان در زمینه هوش مصنوعی و یادگیری ماشین ارائه می‌شود؛ که این موضوع سؤالاتی را در میان محققان علوم کامپیوتر درباره وضعیت پژوهش‌های هوش مصنوعی برانگیخته است.

    نویسنده، کوین ژو، به‌تازگی مدرک لیسانس علوم کامپیوتر خود را از دانشگاه کالیفرنیا، برکلی دریافت کرده و اکنون شرکت Algoverse را که یک شرکت تحقیق و مشاوره هوش مصنوعی برای دانش‌آموزان دبیرستانی است – بسیاری از این دانش‌آموزان هم‌نویسندگان او در مقالات می‌باشند – اداره می‌کند. ژو خود در سال ۲۰۱۸ دیپلم دبیرستان خود را به‌دست آورد.

    مقالاتی که او در دو سال گذشته منتشر کرده است، شامل موضوعاتی مانند به‌کارگیری هوش مصنوعی برای شناسایی چوپانان کوچ‌نشین در جنوب صحرای آفریقا، ارزیابی ضایعات پوستی، و ترجمه گویش‌های اندونزیایی می‌شود. در صفحهٔ لینکدین‌اش، او ادعا می‌کند که «بیش از ۱۰۰ مقاله در کنفرانس‌های برتر در سال گذشته» منتشر کرده و این مقالات «توسط OpenAI، مایکروسافت، گوگل، استنفورد، MIT، آکسفورد و دیگران» ارجاع داده شده‌اند.

    پپ‌های ژو یک «فاجعه» است، هانی فرید، استاد علوم کامپیوتر در برکلی، در مصاحبه‌ای گفت. «من تقریباً مطمئن هستم که تمام این کار، از بالا تا پایین، صرفاً کدنویسی با هوش مصنوعی است»، او افزود، که به معنای استفاده از هوش مصنوعی برای ایجاد نرم‌افزار است.

    فرید در یک پست اخیر در لینکدین به انتشار پراکندهای مقالات ژو اشاره کرد؛ این موضوع بحثی درباره موارد مشابه دیگر در میان پژوهشگران هوش مصنوعی برانگیخت، که گفته‌اند این رشته‌ای که به‌تازگی پرطرفدار شده، با سیلابی از مقالات کم‌کیفیت مواجه است؛ این مسأله ناشی از فشارهای دانشگاهی و، در برخی موارد، ابزارهای هوش مصنوعی است.

    در پاسخ به سؤال گاردین، ژو اعلام کرد که بر ۱۳۱ مقاله نظارت داشته است؛ این مقالات «پروژه‌های تیمی» هستند که توسط شرکتش Algoverse اجرا می‌شوند. این شرکت برای دانش‌آموزان دبیرستانی و دوره‌های کارشناسی مبلغ ۳,۳۲۵ دلار بابت برنامهٔ انتخابی ۱۲ هفته‌ای مشاورهٔ آنلاین دریافت می‌کند – برنامه‌ای که شامل کمک برای ارسال کارها به همایش‌ها می‌شود.

    «در حداقل، من به بررسی روش‌شناسی و طراحی آزمایشی در پیشنهادها کمک می‌کنم و پیش‌نویس‌های کامل مقاله‌ها را پیش از ارسال می‌خوانم و نظراتم را اعلام می‌کنم»، او گفت و افزود که پروژه‌های مرتبط با حوزه‌های زبان‌شناسی، بهداشت یا آموزش شامل «پژوهشگر اصلی یا مربی با تخصص مرتبط» می‌شوند.

    تیم‌ها از «ابزارهای استاندارد بهره‌وری نظیر مدیران ارجاع، بررسی‌کنندهٔ املایی، و گاهی مدل‌های زبانی برای ویرایش متن یا بهبود وضوح» استفاده کردند، او در پاسخ به این سؤال که آیا مقالات با هوش مصنوعی نوشته شده‌اند، گفت.

    ناظران ربات‌ها در آشفتگی

    استانداردهای بازبینی مقالات در حوزه هوش مصنوعی با بیشتر حوزه‌های علمی دیگر متفاوت است. بیشتر کارهای هوش مصنوعی و یادگیری ماشین تحت فرآیند دقیق بررسی همتاهای علمی مانند در شیمی یا زیست‌شناسی قرار نمی‌گیرند؛ در عوض، مقالات اغلب به‌صورت غیررسمی‌تر در همایش‌های بزرگی چون NeurIPS – یکی از معتبرترین همایش‌های جهانی یادگیری ماشین و هوش مصنوعی – که ژو قرار است در آن ارائه دهد، ارائه می‌شوند.

    موارد ژو به یک مسألهٔ بزرگ‌تر در پژوهش هوش مصنوعی اشاره می‌کند، فرید گفت. همایش‌هایی از جمله NeurIPS با افزایش قابل توجهی در تعداد مقالات دریافتی مواجه هستند: این همایش در سال جاری ۲۱٬۵۷۵ مقاله دریافت کرده است که در سال ۲۰۲۰ کمتر از ۱۰٬۰۰۰ مقاله دریافت می‌کرد. یک همایش برتر دیگر هوش مصنوعی، International Conference on Learning Representations (ICLR)، گزارش داد که تعداد مقالات سالانهٔ خود برای همایش ۲۰۲۶، ۷۰٪ افزایش یافته است و به‌حدی نزدیک به ۲۰٬۰۰۰ مقاله رسیده؛ در مقایسه با بیش از ۱۱٬۰۰۰ مقاله در همایش ۲۰۲۵.

    «نقادان از کیفیت پایین مقالات شکایت می‌کنند، حتی گمان می‌دارند که برخی به‌وسیلۀ هوش مصنوعی تولید شده‌اند. چرا این جشنوارهٔ علمی طعم خود را از دست داده؟» این سؤال توسط وبلاگ فناوری چینی ۳۶Kr در یک پست نوامبر درباره ICLR مطرح شد و به این نکته اشاره کرد که میانگین امتیازهای داده‌شده به مقالات توسط بازبین‌ها سال به سال کاهش یافته است.

    در این میان، دانشجویان و پژوهشگران تحت فشار روزافزون برای افزایش تعداد مقالات و هم‌سطحی شدن با همتایانشان قرار دارند. تولید دو رقمی (و حتی سه رقمی) مقالهٔ علمی با کیفیت بالا در زمینهٔ علوم کامپیوتری در یک سال، امری نادر است؛ محققان اظهار داشتند. فرید می‌گوید که گاهی دانش‌آموزان او برای افزایش شمار مقالات خود، مقالاتی را با کدنویسی هوش مصنوعی تهیه می‌کنند.

    «بسیاری از جوانان می‌خواهند وارد هوش مصنوعی شوند. در حال حاضر یک هوس بزرگ وجود دارد»، فرید گفت.

    NeurIPS مقالات ارسالی را بازبینی می‌کند، اما فرایند آن بسیار سریع‌تر و کمتر دقیق نسبت به ارزیابی همتاهای علمی استاندارد است، جفری والینگ، استادیار دانشگاه ویرجینیای تک، گفت. در سال جاری، این همایش از تعداد زیادی دانشجوی دکترا برای ارزیابی مقالات بهره گرفته است؛ که یک رئیس بخش NeurIPS اعلام کرد این أمر فرایند را به‌خطر انداخته است.

    «واقعیت این است که بسیاری از ارزیابان همایش‌ها مجبورند در مدت زمان کوتاهی ده‌ها مقاله را بررسی کنند و معمولاً امکان اصلاح یا بازنگری وجود ندارد»، والینگ گفت.

    والینگ با فرید موافقت کرد که در حال حاضر تعداد زیادی مقاله منتشر می‌شود و گفت که با نویسندگانی که بیش از ۱۰۰ مقاله در یک سال منتشر کرده‌اند، مواجه شده است. «در دنیای آکادمیک، بیشتر برای حجم انتشار مقالات پاداش می‌دهند نه برای کیفیت… همه به افسانهٔ بهره‌وری فوق‌العاده علاقه‌مندند»، او افزود.

    در صفحهٔ پرسش‌های متداول (FAQ) Algoverse متعلق به ژو، توضیح داده می‌شود که چگونه برنامهٔ این شرکت می‌تواند افق‌های تحصیلی یا شغلی درخواست‌کنندگان را ارتقا بخشد. او می‌گوید: «مهارت‌ها، دستاوردها و انتشاراتی که اینجا به‌دست می‌آورید، در جامعهٔ علمی بسیار مورد احترام است و می‌تواند به‌طرز چشمگیری پروندهٔ پذیرش دانشگاه یا رزومهٔ شما را تقویت کند. این امر به‌ویژه در صورتی صادق است که پژوهش شما در یک همایش برتر پذیرفته شود – دستاوردی معتبر حتی برای پژوهشگران حرفه‌ای.»

    فرید می‌گوید که اکنون به دانش‌آموزان توصیه می‌کند از ورود به پژوهش‌های هوش مصنوعی خودداری کنند، زیرا «هوس» موجود در این حوزه و حجم بالای کارهای کم‌کیفیت که افراد برای بهبود چشم‌انداز شغلی خود منتشر می‌کنند، در حال گسترش است.

    سیل بی‌کیفیتی

    کارهای برجسته‌ای همچنان از این روند به‌دست آمده است. به‌عنوان مثال، مقالهٔ گوگل دربارهٔ ترانسفورمرها با عنوان «Attention Is All You Need» — که پایهٔ نظری پیشرفت‌های هوش مصنوعی منجر به ChatGPT است — در سال ۲۰۱۷ در NeurIPS ارائه شد.

    سازمان‌دهندگان NeurIPS تصدیق کردند که این همایش تحت فشار است. در اظهار نظری به گاردین، یک سخنگوی این همایش گفت که رشد هوش مصنوعی به‌عنوان حوزه‌ای، «افزایش قابل‌توجهی در تعداد مقالات ارسالی و ارزش افزوده در پذیرش‌های بازبینی همتا در NeurIPS» را به همراه داشته است؛ که «بار سنگینی بر سیستم ارزیابی ما وارد کرده است».

    مقالات ارسالی ژو عمدتاً در کارگاه‌های NeurIPS بوده‌اند، که فرآیند انتخاب متفاوتی نسبت به همایش اصلی دارند و معمولاً محلی برای ارائهٔ کارهای تازه‌کارانه هستند، به‌نظر برگزار‌کنندگان NeurIPS. فرید افزود که این توجیهی قانع‌کننده برای اینکه یک نفر نام خود را بر بیش از ۱۰۰ مقاله بگذارد، به‌نظر نمی‌رسد.

    «این توجیه برای افزودن نام خود بر ۱۰۰ مقاله که به‌طور معنا‌داری نمی‌توانستید در آن‌ها مشارکت کنید، برایم قانع‌کننده نیست»، فرید گفت.

    این مشکل بزرگ‌تر از سیل مقالات در NeurIPS است. ICLR برای بررسی حجم زیادی از ارسال‌ها از هوش مصنوعی بهره برد؛ که به‌نظر می‌رسید منجر به ارجاعاتی «تخیلی» و بازخوردی «بسیار پرحرف با تعداد زیادی نکته‌نامه» شده است، طبق مقاله‌ای اخیر در Nature.

    احساس کاهش کیفیت به حدی گسترده شد که یافتن راه‌حل برای این بحران خود به‌عنوان موضوعی برای مقالات بدل گشت. مقالهٔ موضعی‌ای که در ماه می ۲۰۲۵ منتشر شد — نسخهٔ علمی و مبتنی بر شواهدی از یک مقالهٔ سرخط روزنامه — توسط سه دانشمند کامپیوتر کرهٔ جنوبی تألیف شد که راه‌حلی برای «چالش‌های بی‌سابقهٔ رشدی که در ارسال مقالات رخ داده، به‌همراه نگرانی‌های فزاینده درباره کیفیت ارزیابی و مسئولیت داوران» ارائه داد؛ این مقاله جوایز کار برتر را در همایش بین‌المللی یادگیری ماشین ۲۰۲۵ به خود اختصاص داد.

    در همین حال، به گفته فرید، شرکت‌های بزرگ فناوری و سازمان‌های کوچک ایمنی هوش مصنوعی کارهای خود را در arXiv بارگذاری می‌کنند؛ سایتی که پیش‌تر فقط برای پیش‌چاپ‌های با بازدید کم در حوزهٔ ریاضیات و فیزیک استفاده می‌شد، و این امر اینترنت را با کارهایی که به‌عنوان علم ارائه می‌شوند پر کرده است — اما تحت استانداردهای بازبینی قرار ندارند.

    هزینهٔ این وضعیت، به گفته فرید، این است که برای خبرنگاران، عموم مردم و حتی کارشناسان این حوزه تقریباً غیرممکن است بفهمند در هوش مصنوعی چه اتفاقی می‌افتد. «به‌عنوان خوانندهٔ متوسط، شما شانس ندارید که بفهمید چه‌ می‌گذرد در ادبیات علمی. نسبت سیگنال به نویز شما تقریباً یک است. من به سختی می‌توانم به این همایش‌ها بروم و بفهمم چه جهنمی در جریان است.»

    «چیزی که به دانشجویان می‌گویم این است که اگر هدف شما انتشار مقالات است، صادقانه بگویم کار خیلی سختی نیست. فقط کارهای بسیار ضعیف و کم‌کیفیت انجام دهید و آنها را به‌صورت انبوه به کنفرانس‌ها بفرستید. اما اگر می‌خواهید کارهای دقیق و اندیشمندانه انجام دهید، در یک موقعیت نامساعد هستید، زیرا عملاً به‌تنهایی سلاح ندارید»، او افزود.

  • محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    بسیاری از شرکت‌ها به‌طور فزاینده‌ای دسترسی به ChatGPT و ابزارهای مشابه هوش مصنوعی را مسدود می‌کنند، عمدتاً به دلیل نگرانی از نشت احتمالی داده‌ها.

    سازمان‌ها نگران‌اند که مدل‌های هوش مصنوعی حاوی اطلاعات محرمانه‌ای باشند، که می‌تواند منجر به آسیب‌پذیری‌های امنیتی شود وقتی کاربران در سراسر جهان با درخواست‌های خود سعی می‌کنند از این مدل‌ها استخراج کنند.

    در نتیجه، شرکت‌ها سیاست‌های دیجیتالی سختگیرانه‌تری را اعمال کرده و دسترسی به پلتفرم‌های خارجی هوش مصنوعی را محدود می‌سازند، حتی اگر این ابزارها می‌توانند بهره‌وری و نوآوری را ارتقا دهند.

    دانشگاه‌ها و مؤسسات آموزشی نیز کنترل‌ها را سخت‌تر می‌کنند و از سامانه‌های تشخیص برای شناسایی محتواهای تولید شده توسط هوش مصنوعی در تکالیف استفاده می‌نمایند.

    آموزگاران بر این باورند که استفادهٔ نامحدود از هوش مصنوعی می‌تواند رشد تفکر انتقادی، خلاقیت و مهارت‌های بنیادی را مختل کند.

    این موضع باعث بروز بحث‌هایی شده است که آیا چنین محدودیت‌هایی به‌واقع محافظت از فرآیند یادگیری را تضمین می‌کند یا صرفاً مانع از ارتقای سواد فناورانهٔ دانش‌آموزان می‌شود؛ سواد فناورانه‌ای که آیندهٔ آنان را شکل خواهد داد.

    به‌طور کلی، محدودیت‌های افزایشی اعمال‌شده بر هوش مصنوعی سؤالات مهمی را دربارهٔ پیامدهای طولانی‌مدت برای خود مدل‌های هوش مصنوعی و رابطهٔ جامعه با هوش مصنوعی نوظهور برانگیخته می‌کند.

    محدود کردن استفاده می‌تواند آشنایی عمومی با هوش مصنوعی را کندتر کند و تنوع به‌کارگیری آن را کاهش دهد.

    در مسیر پیشرفت، یافتن تعادل میان امنیت، اخلاق و نوآوری برای اطمینان از این‌که هوش مصنوعی به‌گونه‌ای تکامل یابد که هم امنیت سازمانی و هم رشد شناختی انسان را پشتیبانی کند، امری اساسی خواهد بود.

  • کلودفلر می‌گوید که در پنج ماه ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است — مدیرعامل هشدار می‌دهد که مدل کسب‌وکار اینترنت به‌طور چشمگیری تغییر خواهد کرد

    نوشته جویی موراتس

    دفتر کلودفلر
    اعتبار تصویر: گتی ایمیجز / ساندری فوتوگرافی

    متیو پرینس، مدیرعامل کلودفلر، اعلام کرد که شرکتش بیش از ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است، از زمان اینکه در جولای امسال پس از اعلام ابتکار «روز استقلال محتوا» این گزینه را به‌صورت پیش‌فرض فعال کرد. پرینس در مصاحبه‌ای با Wired گفت این ویژگی به صاحبان وب‌سایت‌ها اجازه می‌دهد که به‌طور پیش‌فرض ربات‌های هوش مصنوعی را مسدود کنند، مگر این که شرکت هوش مصنوعی برای دسترسی به محتوایشان هزینه‌ای پرداخت کند.

    «مدل کسب‌وکار اینترنت همواره بر پایه تولید محتوایی است که ترافیک را جذب می‌کند و سپس از طریق فروش کالاها، اشتراک‌ها یا تبلیغات درآمدزایی می‌شود»، پرینس به Wired گفت. «اما چیزی که مردم معمولاً درک نمی‌کنند این است که هوش مصنوعی یک تحول سکو (پلتفرمی) است. مدل کسب‌وکار اینترنت در آستانه تغییر چشمگیری است. هنوز نمی‌دانم به چه سمت‌ایی تغییر خواهد کرد، اما این مسأله‌ای است که تقریباً تمام ساعت‌های بیداری‌ام را به فکر آن می‌گذرانم.»

    اگرچه کلودفلر تقریباً تمام ربات‌های هوش مصنوعی را مسدود می‌کند، یک ربات خاص وجود دارد که نمی‌توان بدون تأثیر بر حضور آنلاین مشتریان آن را مسدود کرد — گوگل. این غول جستجو ترکیب‌کردن ربات جستجو و ربات هوش مصنوعی خود را به یک ربات ترکیبی درآورد، به این معنا که کاربرانی که از ربات هوش مصنوعی گوگل انصراف می‌دهند، در نتایج جستجوی گوگل نیز فهرست نمی‌شوند. پرینس ادامه داد: «نمی‌توانید از یکی صرف‌نظر کنید بدون اینکه از هر دو انصراف دهید؛ این یک چالش واقعی است — دیوانه‌کننده است.» «نباید این‌چنین باشد که بتوانید از موقعیت انحصاری دیروز خود بهره‌برداری کنید تا موقعیت انحصاری در بازار فردا بدست آورید.»

    محتوای تولید شده توسط انسان برای شرکت‌های هوش مصنوعی برای آموزش مدل‌هایشان حیاتی است؛ تحقیقات نشان داده‌اند که مدل‌های هوش مصنوعی زمانی که بر پایه داده‌های تولید شده توسط هوش مصنوعی آموزش می‌بینند، کیفیت پایین‌تری تولید می‌کنند. خلاصه‌سازی‌های هوش مصنوعی ثابت کرده‌اند که ترافیک وب‌سایت‌ها را کاهش می‌دهند — به‌ویژه برای سایت‌هایی که به شدت به دیده‌شدن و بازدید برای درآمد تبلیغاتی وابسته‌اند — اما قراردادهای مجوز می‌توانند این کمبود را جبران کنند و به انتشارات آنلاین امکان می‌دهند که همچنان منبع درآمد قابل‌اعتمادی برای خالقان و ناشران باشند.

    کلودفلر همچنین از اینترنت متنوعی که محتوای واقعی انسان‌ها را میزبانی می‌کند، سود خواهد برد. مدیرعامل این شرکت به Wired گفت که به‌دنبال آینده‌ای هستند که در آن خالقان و کسب‌وکارها بر روی یک سطح برابر رشد کنند، زیرا وب‌سایت‌های بیشتری نیاز به محافظت دارند و این مسأله منجر به جذب مشتریان بیشتری برای کلودفلر می‌شود. این امر آن را به یکی از بزرگ‌ترین شبکه‌های تحویل محتوا در جهان تبدیل کرده است؛ به‌طوری‌که در سال ۲۰۲۲، ۷۹٫۹٪ از بازار را در اختیار داشته است. با این حال، این وضعیت اینترنت را در برابر خطرات آسیب‌پذیر می‌کند؛ همان‌طور که یک فایل پیکربندی اشتباه در نوامبر باعث از کار افتادن بخش عظیمی از وب شد.

    این مسأله، مشکل فعلی زیرساخت وب جهانی را که وابسته به تنها چند شرکت بزرگ — از جمله AWS، Azure، کلودفلر، CrowdStrike و گوگل — برای سرویس‌دهی به تمام کره زمین است، برجسته می‌کند. اگرچه این نهادها کار را برای شرکت‌هایی که به اینترنت وابسته‌اند ساده‌تر و کارآمدتر کرده‌اند، اما به این معناست که حتی یک قطعی در این خدمات می‌تواند ضررهای میلیاردی و اختلالات شدید در سرتاسر جهان به بار آورد.

  • «پدرخوانده هوش مصنوعی» گریفی هینتون می‌گوید گوگل در حال «پیشی گرفتن» از OpenAI است: «حدس من این است که گوگل بر خواهد شد»

    گریفی هینتون در یک رویداد سخن می‌گوید
    پیشرو هوش مصنوعی گریفی هینتون می‌گوید گوگل با ساخت سخت‌افزار خود برتری دارد. پونتوس لوندال/خبرگزاری تی‌تی/ای‌اف‌پی از طریق گتی ایمیجز
    • گریفی هینتون گفت از اینکه گوگل این‌قدر طول کشید تا در مسابقه هوش مصنوعی پیشی بگیرد، شگفت‌زده شد.
    • گوگل به‌دلیل عرضهٔ مدل‌های Gemini 3 و Nano Banana Pro تحسین‌های فراوانی دریافت کرد.
    • هینتون، پیشگام هوش مصنوعی که پیش از این در Google Brain کار می‌کرد، گفت این غول فناوری احتمالاً OpenAI را پشت سر خواهد گذاشت.

    «پدرخوانده هوش مصنوعی» معتقد است که زمان آن رسیده که گوگل در مسابقه هوش مصنوعی پیشی بگیرد.

    «به‌نظر من، حتی شگفت‌انگیزتر است که گوگل این‌قدر طول کشیده تا OpenAI را پیشی بگیرد»، گریفی هینتون، استاد بازنشسته دانشگاه تورنتو که پیش از این در Google Brain مشغول به کار بود، در مصاحبه‌ای با Business Insider روز سه‌شنبه گفت.

    گوگل پس از رونمایی پرتحسینی که از Gemini 3 انجام داد، به‌نظر برخی متخصصان فناوری، این به‌روزرسانی شرکت را به سطحی فراتر از GPT‑5 OpenAI ارتقا می‌دهد. مدل تصویر هوش مصنوعی Nano Banana Pro این شرکت نیز به‌عنوان یک موفقیت ثابت شده است.

    سه‌سال پس از آنکه گوگل به‌طور گزارش‌شده پس از انتشار ChatGPT اعلام «کد قرمز» کرد، گزارش‌های اخیر نشان می‌دهند که حالا این OpenAI است که زنگ خطر را می‌زند.

    هینتون درباره موقعیت گوگل نسبت به OpenAI گفت: «فکر می‌کنم در حال حاضر آن‌ها در حال پیشی گرفتن است».

    در کنار موفقیت انتشار آخرین مدل هوش مصنوعی‌اش، سهام گوگل به‌دلیل گزارش‌هایی که ممکن است قرارداد میلیارد دلاری برای تأمین Meta با تراشه‌های هوش مصنوعی خود بسته شود، رشد کرد.

    ساخت تراشه‌های خود، یک «مزیت بزرگ» برای گوگل است، هینتون گفت.

    او گفت: «گوگل دارای پژوهشگران بسیار خوب، داده‌های فراوان و مراکز دادهٔ متعدد است. حدس من این است که گوگل برنده خواهد شد.»

    هینتون که در طول دوران کاری خود در Google Brain به پیشبرد پژوهش‌های هوش مصنوعی کمک کرده بود، گفت که این غول جستجوگر روزی در خط مقدم هوش مصنوعی بود اما خود را محدود کرد.

    او گفت: «گوگل مدت طولانی در صدر بود، نه؟» «گوگل مخازن (transformers) را اختراع کرد. گوگل پیش از دیگران چت‌بات‌های بزرگ داشت.»

    هینتون گفت گوگل پس از راه‌اندازی فاجعه‌بار چت‌بات هوش مصنوعی «Tay» مایکروسافت در سال ۲۰۱۶، که پس از انتشار توییت‌های نژادپرستانه از سرویس خارج شد، محتاط شد.

    او افزود: «گوگل، طبیعتاً، شناخت خوبی داشت و نگران بود که به‌این‌سان به اعتبار خود آسیب برساند.»

    سندار پیشی، مدیرعامل گوگل، پیشتر گفته بود که شرکت در انتشار چت‌بات خود محتاط بوده است.

    پیشی در اوایل امسال گفت: «ما هنوز به سطحی نرسیده بودیم که بتوانیم محصول را منتشر کنیم و مردم با انتشار آن توسط گوگل مشکلی نداشته باشند. آن زمان هنوز مشکلات زیادی داشت.»

    در گذشته، این شرکت برخی عرضه‌های ناپایدار داشته است. فقط سال گذشته، گوگل مجبور شد تولیدکنندهٔ تصویر هوش مصنوعی خود را متوقف کند پس از اینکه برخی کاربران شکایت کردند که نتایج نشان‌دهندهٔ تصاویر تاریخی نادرست از افراد رنگین‌پوست که برای برخی بیش از حد حساس (woke) بود. خلاصه‌های جستجوی اولیهٔ هوش مصنوعی آن‌ها مشاوره‌های بی‌معنی، مانند چسباندن چسب به پیتزا برای جلوگیری از سقوط پنیر، تولید می‌کرد.

    گوگل به‌تازگی کمک مالی بزرگی به دانشگاه در احترام به هینتون ارائه داد

    هینتون پیش از اعلام اینکه گوگل ۱۰ میلیون دلار کانادایی به‌منظور تأسیس کرسی هینتون در هوش مصنوعی در دانشگاه تورنتو اهدا می‌کند، با Business Insider گفتگو کرد. دانشگاهی که هینتون در دوره حضورش در گوگل زمان خود را بین این دو تقسیم می‌کرد، اعلام کرد که این کمک را همتا می‌کند.

    هینتون در سال ۲۰۲۳ گوگل را ترک کرد و نگرانی‌های خود دربارهٔ توسعه هوش مصنوعی را مطرح کرد. از آن زمان، او به‌طور مکرر دربارهٔ خطرات هوش مصنوعی برای جامعه، از توانایی پیشی گرفتن از انسان تا جایگزینی مشاغل، سخن گفته است. در سال ۲۰۲۴، هینتون به‌صورت مشترک جایزه نوبل فیزیک را دریافت کرد.

    گوگل در بیانیه‌ای گفت: «کارهای گریفی هینتون در زمینهٔ شبکه‌های عصبی — از دوران دانشگاهی‌اش تا دهه‌ای که در گوگل سپری کرد — بنای هوش مصنوعی مدرن را پایه‌گذاری کرد.» «این کرسی، به ارث او افتخار می‌کند و به دانشگاه کمک می‌نماید تا پژوهشگران بصیرتی را جذب کند که به همان‌گونه که هینتون تشویق می‌کرد، به تحقیق بنیادی و کنجکاوی‌محور متعهد باشند.»

  • دیسکورد ‘Checkpoint 2025’ را راه‌اندازی کرد: ویژگی جامع بازنگری سالانه برای کاربران؛ این‌جا چطور می‌توانید خلاصه‌سالانه دیسکورد خود را ببینید

    چک‌پوینت 2025 دیسکورد: دیسکورد اولین خلاصه‌سالانهٔ فعالیت خود را به نام چک‌پوینت 2025 منتشر کرد. کاربران اکنون می‌توانند تعداد پیام‌های ارسال‌شده، ساعت صرف‌شده در کانال‌های صوتی، ایموجی‌های برتر، سرورهای پرکاربرد و دوستانی که بیشترین پیام‌های خصوصی (DM) را با آن‌ها رد و بدل کرده‌اند، مشاهده کنند. تزئینات اختصاصی آواتار نیز در دسترس است. این ویژگی به‌صورت تدریجی در دسترس قرار می‌گیرد و برای استفاده از آن باید آخرین نسخهٔ برنامه نصب شده باشد.

    این مقاله را به‌صورت خلاصه گوش کنید

    چک‌پوینت 2025 دیسکورد
    آیکون برنامهٔ دیسکورد در یک گوشی هوشمند.

    دیسکورد رسماً چک‌پوینت 2025 را راه‌اندازی کرد، اولین بازنگری جامع سالانه که به کاربران اجازه می‌دهد خلاصه‌ای شخصی‌سازی‌شده از نحوهٔ استفاده‌اشان از پلتفرم در طول سال را ببینند. این انتشار اولین تلاش شرکت برای ارائه خلاصه‌ای به سبک «خلاصه‌سالانهٔ دیسکورد» است و طرفداران آن را پیش از این انتظار می‌کردند.

    موارد موجود در چک‌پوینت 2025 دیسکورد

    ویژگی جدید چک‌پوینت‌های دیسکورد، تصویری دقیق از فعالیت‌های شما در سال 2025 را به‌ همراه موارد زیر ارائه می‌دهد:

    • مجموع پیام‌های ارسال‌شده
    • ساعات صرف‌شده در کانال‌های صوتی
    • ایموجی پرکاربرد شما
    • سرور فعال‌ترین شما
    • دوستی که بیشترین مکالمات خصوصی (DM) را با او داشته‌اید

    پس از تمام کردن مشاهدهٔ خلاصه‌سالانهٔ دیسکورد 2025، برنامه یکی از ده کارت چک‌پوینت را به شما اختصاص می‌دهد؛ هر کارت با یک تزئینات اختصاصی آواتار همراه است که می‌توانید تا ۱۵ ژانویهٔ ۲۰۲۶ از آن استفاده کنید.

    نحوه مشاهده خلاصه‌سالانه دیسکورد: چک‌پوینت را چگونه بررسی کنید

    دیسکورد می‌گوید که کاربران باید برای دسترسی به خلاصه‌سالانه، آخرین نسخهٔ برنامه را به‌روز کنند. مراحل برای کاربران موبایل و دسکتاپ کمی متفاوت است.

    لوگوی ET

    رویدادهای زنده

    نحوهٔ مشاهده چک‌پوینت دیسکورد در موبایل (چک‌پوینت موبایل)

    1. دیسکورد را به آخرین نسخه به‌روز کنید.
    2. برنامه را باز کنید و روی تصویر پروفایلتان ضربه بزنید.
    3. در بخش «شما»، بنر چک‌پوینت را جستجو کنید.
    4. برای مشاهدهٔ خلاصهٔ چک‌پوینت 2025 دیسکورد، ضربه بزنید.

    نحوهٔ بررسی چک‌پوینت دیسکورد در دسکتاپ

    1. دیسکورد را روی رایانه یا در مرورگر خود باز کنید.
    2. یک آیکون پرچم کوچک در گوشهٔ بالا-راست، در نزدیکی صندوق‌ورودی‌تان را پیدا کنید.
    3. روی آن کلیک کنید تا خلاصه‌سالانهٔ دیسکورد 2025 خود را باز کنید.

    چرا ممکن است چک‌پوینت دیسکورد شما نمایش داده نشود

    بسیاری از کاربران گزارش کرده‌اند که هنوز چک‌پوینت 2025 دیسکورد خود را مشاهده نکرده‌اند، اما این امر طبیعی است. دیسکورد تأیید کرده است که این ویژگی به‌صورت تدریجی در دسترس قرار می‌گیرد، به‌طوری که همه حساب‌ها همزمان خلاصه را دریافت نخواهند کرد.

    در موارد دیگر، ممکن است چک‌پوینت شما به‌دلیل موارد زیر نمایش داده نشود:

    • در سال 2025 فعالیت کافی در دیسکورد نداشته‌اید تا خلاصه‌ای معنادار تولید شود.
    • تنظیم «استفاده از داده‌ها برای شخصی‌سازی تجربهٔ دیسکورد من» را غیرفعال کرده‌اید. برای ایجاد چک‌پوینت، این تنظیم باید فعال باشد.

    این پایان مقاله است.

  • رسانه‌های اجتماعی، پیشی سئو را به عنوان منبع اصلی ترافیک کسب‌وکارهای کوچک و متوسط می‌گیرد؛ نظرسنجی می‌گوید

    اکنون رسانه‌های اجتماعی پیش از جستجو می‌آیند، کسب‌وکارهای کوچک از خلاصه‌های هوش مصنوعی خسته شده‌اند و بیشترین دیده شدن همچنان به صفحه اصلی وابسته است.

    در حال حاضر رسانه‌های اجتماعی بیش از جستجو ترافیک بیشتری به کسب‌وکارهای کوچک و متوسط می‌رسانند و بسیاری از این کسب‌وکارها شروع به پیگیری ارجاعات تولیدشده توسط هوش مصنوعی کرده‌اند. آن‌ها همچنین رقبایی که در خلاصه‌های هوش مصنوعی ظاهر می‌شوند را به‌عنوان تهدیدی نوظهور می‌بینند، طبق داده‌های جدید نظرسنجی که امروز توسط WordStream توسط LocaliQ منتشر شد.

    چرا این موضوع مهم است. کسب‌وکارهای کوچک اکنون خلاصه‌های هوش مصنوعی را به‌عنوان کانالی نوظهور و مهم می‌بینند. این خلاصه‌ها تصمیم‌گیری اولیه خریداران را شکل می‌دهند و می‌توانند آن‌ها را به سمت محصولات رقیب سوق دهند. ارجاعات هوش مصنوعی نیز شفاف و قابل ردیابی شده‌اند و کسب‌وکارها را قانع می‌کنند که می‌توانند – و باید – برای آن‌ها بهینه‌سازی کنند.

    کاهش ترافیک گوگل در حال افزایش است. چهل درصد از کسب‌وکارهای کوچک می‌گویند که به‌دلیل به‌روزرسانی‌های گوگل و جستجوی مبتنی بر هوش مصنوعی ترافیک خود را از دست داده‌اند. شرکت‌های بزرگتر بیشترین ضربه را دریافت کرده‌اند؛ تقریباً نیمی از آن‌ها کاهش را گزارش کردند. با این حال، اکثر کسب‌وکارهای کوچک (۷۲٪) گفتند سئوی آن‌ها «موثر» است.

    رسانه‌های اجتماعی بر جستجو پیشی می‌گیرد. ۶۴ درصد، رسانه‌های اجتماعی را به‌عنوان اصلی‌ترین منبع ترافیک نام بردند که از جستجوی ارگانیک با ۵۲ درصد پیشی گرفتند.

    • کارآفرینان تک‌نفره و کسب‌وکارهای میکرو، رسانه‌های اجتماعی را در رده نخست برتری دادند.
    • ۳۵٪ از کسب‌وکارهایی که وب‌سایت ندارند گفتند رسانه‌های اجتماعی و بازارهای آنلاین به‌اندازه کافی سرنخ فراهم می‌کنند تا نیازی به وب‌سایت ندارند.

    توجه به هوش مصنوعی در حال افزایش است. جستجوی هوش مصنوعی هنوز به‌عنوان عامل اصلی ترافیک محسوب نمی‌شود، اما در دید کسب‌وکارهای کوچک قرار دارد:

    • ۵۰٪ ارجاعات و ذکرهای هوش مصنوعی را مانیتور می‌کنند.
    • ۷۰٪ از کسب‌وکارهای بزرگ‌تر نیز همین کار را انجام می‌دهند.
    • آگاهی جغرافیایی (GEO) در میان تمام اندازه‌های کسب‌وکار در حال رشد است.

    بزرگ‌ترین ناامیدی کسب‌وکارهای کوچک این است که رقبایشان به‌جای آن‌ها در خلاصه‌های هوش مصنوعی ظاهر می‌شوند؛ اما نکته مثبت این است که این مدل‌ها اغلب اطلاعاتی از سایت‌های بیش از ده‌تا برتر گوگل استخراج می‌کنند و به برندهای کوچک فرصتی نادر برای دیده شدن می‌دهند که معمولاً به‌دست نمی‌آورند.

    صفحات اصلی وب‌سایت حیاتی هستند. در میان کسب‌وکارهای کوچک که ترافیک هوش مصنوعی را ردیابی می‌کنند، پر بازدیدترین صفحات عبارتند از:

    • صفحات اصلی (۵۷٪)
    • صفحات محصول یا خدمات (۴۸٪)
    • صفحات تماس (۳۴٪)

    چگونگی سازگاری کسب‌وکارهای کوچک. برترین اقدامات برای افزایش دیده شدن در هوش مصنوعی، با اصول سئو هم‌پوشانی دارد:

    • استفاده از سرفصل‌های واضح و توصیفی (۳۵٪)
    • بهبود خوانایی (۲۶٪)
    • رفع موارد پایه فنی مانند سرعت و عملکرد موبایل (۲۴٪)
    • کسب‌وکارهای بزرگ‌تر به‌سوی ساخت اشاره‌های خارجی به برند (۳۳٪) و افزودن داده‌های ساختاریافته (۳۰٪) حرکت می‌کنند

    دربارهٔ داده‌ها. WordStream توسط LocaliQ بیش از ۳۰۰ کسب‌وکار کوچک در ایالات متحده را در ۲۴ حوزه‌ی صنعتی مورد نظرسنجی کرد. پاسخ‌ها از شرکت‌های دارای وب‌سایت و بدون وب‌سایت، از افراد خوداشتغال تا سازمان‌های با ۱۰۰ نفر پرسنل دریافت شد.

    گزارش. گزارش بزرگ روندهای وب‌سایت کسب‌وکارهای کوچک: سئو، GEO و آینده ترافیک

    Search Engine Land متعلق به Semrush است. ما همچنان متعهد به ارائه پوشش با کیفیت بالا از موضوعات بازاریابی هستیم. مگر در مواردی که به‌وضوح اعلام شده باشد، محتوای این صفحه توسط یک کارمند یا یک پیمانکار حقوق‌بگیر Semrush Inc. نوشته شده است.