دسته: هوش مصنوعی

  • کلودفلر می‌گوید که در پنج ماه ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است — مدیرعامل هشدار می‌دهد که مدل کسب‌وکار اینترنت به‌طور چشمگیری تغییر خواهد کرد

    نوشته جویی موراتس

    دفتر کلودفلر
    اعتبار تصویر: گتی ایمیجز / ساندری فوتوگرافی

    متیو پرینس، مدیرعامل کلودفلر، اعلام کرد که شرکتش بیش از ۴۱۶ میلیارد درخواست ربات‌های هوش مصنوعی را مسدود کرده است، از زمان اینکه در جولای امسال پس از اعلام ابتکار «روز استقلال محتوا» این گزینه را به‌صورت پیش‌فرض فعال کرد. پرینس در مصاحبه‌ای با Wired گفت این ویژگی به صاحبان وب‌سایت‌ها اجازه می‌دهد که به‌طور پیش‌فرض ربات‌های هوش مصنوعی را مسدود کنند، مگر این که شرکت هوش مصنوعی برای دسترسی به محتوایشان هزینه‌ای پرداخت کند.

    «مدل کسب‌وکار اینترنت همواره بر پایه تولید محتوایی است که ترافیک را جذب می‌کند و سپس از طریق فروش کالاها، اشتراک‌ها یا تبلیغات درآمدزایی می‌شود»، پرینس به Wired گفت. «اما چیزی که مردم معمولاً درک نمی‌کنند این است که هوش مصنوعی یک تحول سکو (پلتفرمی) است. مدل کسب‌وکار اینترنت در آستانه تغییر چشمگیری است. هنوز نمی‌دانم به چه سمت‌ایی تغییر خواهد کرد، اما این مسأله‌ای است که تقریباً تمام ساعت‌های بیداری‌ام را به فکر آن می‌گذرانم.»

    اگرچه کلودفلر تقریباً تمام ربات‌های هوش مصنوعی را مسدود می‌کند، یک ربات خاص وجود دارد که نمی‌توان بدون تأثیر بر حضور آنلاین مشتریان آن را مسدود کرد — گوگل. این غول جستجو ترکیب‌کردن ربات جستجو و ربات هوش مصنوعی خود را به یک ربات ترکیبی درآورد، به این معنا که کاربرانی که از ربات هوش مصنوعی گوگل انصراف می‌دهند، در نتایج جستجوی گوگل نیز فهرست نمی‌شوند. پرینس ادامه داد: «نمی‌توانید از یکی صرف‌نظر کنید بدون اینکه از هر دو انصراف دهید؛ این یک چالش واقعی است — دیوانه‌کننده است.» «نباید این‌چنین باشد که بتوانید از موقعیت انحصاری دیروز خود بهره‌برداری کنید تا موقعیت انحصاری در بازار فردا بدست آورید.»

    محتوای تولید شده توسط انسان برای شرکت‌های هوش مصنوعی برای آموزش مدل‌هایشان حیاتی است؛ تحقیقات نشان داده‌اند که مدل‌های هوش مصنوعی زمانی که بر پایه داده‌های تولید شده توسط هوش مصنوعی آموزش می‌بینند، کیفیت پایین‌تری تولید می‌کنند. خلاصه‌سازی‌های هوش مصنوعی ثابت کرده‌اند که ترافیک وب‌سایت‌ها را کاهش می‌دهند — به‌ویژه برای سایت‌هایی که به شدت به دیده‌شدن و بازدید برای درآمد تبلیغاتی وابسته‌اند — اما قراردادهای مجوز می‌توانند این کمبود را جبران کنند و به انتشارات آنلاین امکان می‌دهند که همچنان منبع درآمد قابل‌اعتمادی برای خالقان و ناشران باشند.

    کلودفلر همچنین از اینترنت متنوعی که محتوای واقعی انسان‌ها را میزبانی می‌کند، سود خواهد برد. مدیرعامل این شرکت به Wired گفت که به‌دنبال آینده‌ای هستند که در آن خالقان و کسب‌وکارها بر روی یک سطح برابر رشد کنند، زیرا وب‌سایت‌های بیشتری نیاز به محافظت دارند و این مسأله منجر به جذب مشتریان بیشتری برای کلودفلر می‌شود. این امر آن را به یکی از بزرگ‌ترین شبکه‌های تحویل محتوا در جهان تبدیل کرده است؛ به‌طوری‌که در سال ۲۰۲۲، ۷۹٫۹٪ از بازار را در اختیار داشته است. با این حال، این وضعیت اینترنت را در برابر خطرات آسیب‌پذیر می‌کند؛ همان‌طور که یک فایل پیکربندی اشتباه در نوامبر باعث از کار افتادن بخش عظیمی از وب شد.

    این مسأله، مشکل فعلی زیرساخت وب جهانی را که وابسته به تنها چند شرکت بزرگ — از جمله AWS، Azure، کلودفلر، CrowdStrike و گوگل — برای سرویس‌دهی به تمام کره زمین است، برجسته می‌کند. اگرچه این نهادها کار را برای شرکت‌هایی که به اینترنت وابسته‌اند ساده‌تر و کارآمدتر کرده‌اند، اما به این معناست که حتی یک قطعی در این خدمات می‌تواند ضررهای میلیاردی و اختلالات شدید در سرتاسر جهان به بار آورد.

  • «پدرخوانده هوش مصنوعی» گریفی هینتون می‌گوید گوگل در حال «پیشی گرفتن» از OpenAI است: «حدس من این است که گوگل بر خواهد شد»

    گریفی هینتون در یک رویداد سخن می‌گوید
    پیشرو هوش مصنوعی گریفی هینتون می‌گوید گوگل با ساخت سخت‌افزار خود برتری دارد. پونتوس لوندال/خبرگزاری تی‌تی/ای‌اف‌پی از طریق گتی ایمیجز
    • گریفی هینتون گفت از اینکه گوگل این‌قدر طول کشید تا در مسابقه هوش مصنوعی پیشی بگیرد، شگفت‌زده شد.
    • گوگل به‌دلیل عرضهٔ مدل‌های Gemini 3 و Nano Banana Pro تحسین‌های فراوانی دریافت کرد.
    • هینتون، پیشگام هوش مصنوعی که پیش از این در Google Brain کار می‌کرد، گفت این غول فناوری احتمالاً OpenAI را پشت سر خواهد گذاشت.

    «پدرخوانده هوش مصنوعی» معتقد است که زمان آن رسیده که گوگل در مسابقه هوش مصنوعی پیشی بگیرد.

    «به‌نظر من، حتی شگفت‌انگیزتر است که گوگل این‌قدر طول کشیده تا OpenAI را پیشی بگیرد»، گریفی هینتون، استاد بازنشسته دانشگاه تورنتو که پیش از این در Google Brain مشغول به کار بود، در مصاحبه‌ای با Business Insider روز سه‌شنبه گفت.

    گوگل پس از رونمایی پرتحسینی که از Gemini 3 انجام داد، به‌نظر برخی متخصصان فناوری، این به‌روزرسانی شرکت را به سطحی فراتر از GPT‑5 OpenAI ارتقا می‌دهد. مدل تصویر هوش مصنوعی Nano Banana Pro این شرکت نیز به‌عنوان یک موفقیت ثابت شده است.

    سه‌سال پس از آنکه گوگل به‌طور گزارش‌شده پس از انتشار ChatGPT اعلام «کد قرمز» کرد، گزارش‌های اخیر نشان می‌دهند که حالا این OpenAI است که زنگ خطر را می‌زند.

    هینتون درباره موقعیت گوگل نسبت به OpenAI گفت: «فکر می‌کنم در حال حاضر آن‌ها در حال پیشی گرفتن است».

    در کنار موفقیت انتشار آخرین مدل هوش مصنوعی‌اش، سهام گوگل به‌دلیل گزارش‌هایی که ممکن است قرارداد میلیارد دلاری برای تأمین Meta با تراشه‌های هوش مصنوعی خود بسته شود، رشد کرد.

    ساخت تراشه‌های خود، یک «مزیت بزرگ» برای گوگل است، هینتون گفت.

    او گفت: «گوگل دارای پژوهشگران بسیار خوب، داده‌های فراوان و مراکز دادهٔ متعدد است. حدس من این است که گوگل برنده خواهد شد.»

    هینتون که در طول دوران کاری خود در Google Brain به پیشبرد پژوهش‌های هوش مصنوعی کمک کرده بود، گفت که این غول جستجوگر روزی در خط مقدم هوش مصنوعی بود اما خود را محدود کرد.

    او گفت: «گوگل مدت طولانی در صدر بود، نه؟» «گوگل مخازن (transformers) را اختراع کرد. گوگل پیش از دیگران چت‌بات‌های بزرگ داشت.»

    هینتون گفت گوگل پس از راه‌اندازی فاجعه‌بار چت‌بات هوش مصنوعی «Tay» مایکروسافت در سال ۲۰۱۶، که پس از انتشار توییت‌های نژادپرستانه از سرویس خارج شد، محتاط شد.

    او افزود: «گوگل، طبیعتاً، شناخت خوبی داشت و نگران بود که به‌این‌سان به اعتبار خود آسیب برساند.»

    سندار پیشی، مدیرعامل گوگل، پیشتر گفته بود که شرکت در انتشار چت‌بات خود محتاط بوده است.

    پیشی در اوایل امسال گفت: «ما هنوز به سطحی نرسیده بودیم که بتوانیم محصول را منتشر کنیم و مردم با انتشار آن توسط گوگل مشکلی نداشته باشند. آن زمان هنوز مشکلات زیادی داشت.»

    در گذشته، این شرکت برخی عرضه‌های ناپایدار داشته است. فقط سال گذشته، گوگل مجبور شد تولیدکنندهٔ تصویر هوش مصنوعی خود را متوقف کند پس از اینکه برخی کاربران شکایت کردند که نتایج نشان‌دهندهٔ تصاویر تاریخی نادرست از افراد رنگین‌پوست که برای برخی بیش از حد حساس (woke) بود. خلاصه‌های جستجوی اولیهٔ هوش مصنوعی آن‌ها مشاوره‌های بی‌معنی، مانند چسباندن چسب به پیتزا برای جلوگیری از سقوط پنیر، تولید می‌کرد.

    گوگل به‌تازگی کمک مالی بزرگی به دانشگاه در احترام به هینتون ارائه داد

    هینتون پیش از اعلام اینکه گوگل ۱۰ میلیون دلار کانادایی به‌منظور تأسیس کرسی هینتون در هوش مصنوعی در دانشگاه تورنتو اهدا می‌کند، با Business Insider گفتگو کرد. دانشگاهی که هینتون در دوره حضورش در گوگل زمان خود را بین این دو تقسیم می‌کرد، اعلام کرد که این کمک را همتا می‌کند.

    هینتون در سال ۲۰۲۳ گوگل را ترک کرد و نگرانی‌های خود دربارهٔ توسعه هوش مصنوعی را مطرح کرد. از آن زمان، او به‌طور مکرر دربارهٔ خطرات هوش مصنوعی برای جامعه، از توانایی پیشی گرفتن از انسان تا جایگزینی مشاغل، سخن گفته است. در سال ۲۰۲۴، هینتون به‌صورت مشترک جایزه نوبل فیزیک را دریافت کرد.

    گوگل در بیانیه‌ای گفت: «کارهای گریفی هینتون در زمینهٔ شبکه‌های عصبی — از دوران دانشگاهی‌اش تا دهه‌ای که در گوگل سپری کرد — بنای هوش مصنوعی مدرن را پایه‌گذاری کرد.» «این کرسی، به ارث او افتخار می‌کند و به دانشگاه کمک می‌نماید تا پژوهشگران بصیرتی را جذب کند که به همان‌گونه که هینتون تشویق می‌کرد، به تحقیق بنیادی و کنجکاوی‌محور متعهد باشند.»

  • Titans + MIRAS: کمک به هوش مصنوعی برای داشتن حافظهٔ بلندمدت

    ما معماری Titans و چارچوب MIRAS را معرفی می‌کنیم؛ این‌ها به مدل‌های هوش مصنوعی اجازه می‌دهند سرعت کار را به‌طور چشمگیری افزایش داده و زمینه‌های وسیع را با به‌روزرسانی حافظهٔ اصلی در حین اجرای فعال، مدیریت کنند.

    معماری ترنسفرمر با معرفی مکانیزم توجه، که به مدل‌ها اجازه می‌دهد به ورودی‌های قبلی نگاه کنند و داده‌های مرتبط را اولویت‌بندی کنند، انقلابی در مدل‌سازی دنباله‌ها به وجود آورد. اما هزینهٔ محاسباتی با افزایش طول دنباله به‌شدت متقارن می‌شود و این محدودیتی برای مقیاس‌پذیری مدل‌های مبتنی بر ترنسفرمر در زمینه‌های بسیار طولانی ایجاد می‌کند؛ مانند درک کامل سند یا تجزیه و تحلیل ژنومیک.

    جامعهٔ تحقیقاتی راه‌حل‌های مختلفی را بررسی کرد، از جمله شبکه‌های عصبی بازگشتی خطی کارآمد (RNN) و مدل‌های فضای حالت (SSM) همچون Mamba‑2. این مدل‌ها با فشرده‌سازی زمینه به یک اندازهٔ ثابت، امکان مقیاس‌پذیری خطی سریع را فراهم می‌کنند. اما این فشرده‌سازی ثابت قادر به درک کامل اطلاعات غنی در دنباله‌های بسیار طولانی نیست.

    در دو مقالهٔ جدید، Titans و MIRAS، ما معماری و طرح نظری را معرفی می‌کنیم که سرعت RNNها را با دقت ترنسفرمرها ترکیب می‌کند. Titans معماری خاص (ابزار) است و MIRAS چارچوب نظری (طرح کلی) برای عمومی‌سازی این رویکردها. این دو با هم مفهوم حافظهٔ یادگیری در زمان آزمون را پیش می‌برند؛ یعنی توانایی مدل هوش مصنوعی برای حفظ حافظهٔ طولانی‌مدت با به‌کارگیری معیارهای «شگفتی» قدرتمندتر (یعنی اطلاعات غیرمنتظره) در حین اجرای مدل، بدون نیاز به آموزش آفلاین اختصاصی.

    چارچوب MIRAS، همان‌طور که Titans نشان می‌دهد، تغییر معناداری به سمت سازگاری زمان واقعی ایجاد می‌کند. به‌جای فشرده‌سازی اطلاعات در یک وضعیت ثابت، این معماری به‌صورت فعال پارامترهای خود را هنگام ورود داده‌ها یاد می‌گیرد و به‌روزرسانی می‌کند. این مکانیزم حیاتی به مدل اجازه می‌دهد تا جزئیات جدید و خاص را به‌سرعت در دانش اصلی خود بگنجاند.

    Titans: یادگیری زمینهٔ جدید به‌صورت آنی

    یک سیستم یادگیری مؤثر نیاز به ماژول‌های حافظهٔ متمایز اما در هم‌پیوند دارد که مشابه جداسازی حافظهٔ کوتاه‌مدت و بلندمدت در مغز انسان هستند.

    در حالی که مکانیزم‌های توجه برای حافظهٔ کوتاه‌مدت دقیق بسیار مؤثرند، Titans ماژول حافظهٔ طولانی‌مدت عصبی نوینی را معرفی می‌کند؛ این ماژول، برخلاف حافظهٔ برداری یا ماتریسی ثابت‌اندازه در RNNهای سنتی، به‌عنوان یک شبکهٔ عصبی عمیق (به‌ویژه یک پرسپترون چندلایه) عمل می‌کند. این حافظهٔ عصبی توان بیان به‌مراتب بالاتری دارد و به مدل امکان می‌دهد حجم بالایی از اطلاعات را بدون از دست دادن زمینهٔ مهم خلاصه کند. مدل تنها یادداشت‌برداری نمی‌کند؛ بلکه کل داستان را می‌فهمد و ترکیب می‌سازد.

    به‌طور اساسی، Titans تنها به‌صورت منفعل داده‌ها را ذخیره نمی‌کند؛ بلکه به‌صورت فعال «چگونگی» شناسایی و نگهداری روابط مهم و تم‌های مفهومی که توکن‌ها را در سراسر ورودی به هم می‌پیوندد، یاد می‌گیرد. یکی از جنبه‌های کلیدی این توانایی، آنچه ما «معیار شگفتی» می‌نامیم، است. در روان‌شناسی انسانی، می‌دانیم که رویدادهای روتین و پیش‌بینی‌شده را به‌سرعت و به‌راحتی فراموش می‌کنیم، اما مواردی که الگو را می‌شکنند—رویدادهای غیرمنتظره، شگفت‌انگیز یا بسیار عاطفی— را به یاد می‌مانیم.

    نموداری که معماری عصبی را با سه لایه نشان می‌دهد: حافظهٔ زمینه‌ای (یادگیری)، هسته (یادگیری درون‌متنی) و حافظهٔ پایدار (وزن‌های ثابت).

    نمای کلی معماری Titans (MAC). این معماری از حافظهٔ طولانی‌مدت برای فشرده‌سازی داده‌های گذشته استفاده می‌کند و سپس خلاصهٔ آن را به زمینه اضافه کرده و به مکانیزم توجه می‌فرستد. توجه می‌تواند تصمیم بگیرد که آیا نیاز به متمرکز شدن بر خلاصهٔ گذشته دارد یا خیر.

    در چارچوب Titans، «معیار شگفتی» به این معناست که مدل اختلاف بزرگ بین آنچه در حال حاضر به یاد دارد و آنچه ورودی جدید به آن می‌گوید را تشخیص می‌دهد.

    • شگفتی کم: اگر واژهٔ جدید «گربه» باشد و وضعیت حافظهٔ مدل قبلاً واژهٔ حیوانی را انتظار داشته باشد، گرادیان (شگفتی) کم است. بنابراین می‌تواند به‌طور ایمن از به‌خاطرسپارگی واژهٔ «گربه» در حافظهٔ طولانی‌مدت ثابت صرف‌نظر کند.
    • شگفتی زیاد: اگر وضعیت حافظهٔ مدل در حال خلاصه‌سازی یک گزارش مالی جدی باشد و ورودی جدید یک تصویر از پوست موز باشد (رویداد غیرمنتظره)، گرادیان (شگفتی) بسیار زیاد خواهد شد. این نشان می‌دهد که ورودی جدید مهم یا ناهنجار است و باید برای ذخیره‌سازی دائمی در ماژول حافظهٔ طولانی‌مدت در اولویت قرار گیرد.

    مدل از این سیگنال خطای داخلی (گرادیان) به‌عنوان معادل ریاضی عبارت «این غیرمنتظره و مهم است!» استفاده می‌کند. این امکان را به معماری Titans می‌دهد که حافظهٔ طولانی‌مدت خود را به‌صورت گزینش‌گرانه تنها با اطلاعات نوین‌ترین و مخرب‌ترین از نظر زمینه به‌روز کند، در حالی که کل فرآیند را سریع و کارآمد نگه می‌دارد.

    Titan این مکانیزم را با ترکیب دو عنصر حیاتی بهبود می‌بخشد:

    1. شتاب: مدل هم «شگفتی لحظه‌ای» (ورودی جاری) و هم «شگفتی گذشته» (جریان اخیر زمینه) را در نظر می‌گیرد. این کار تضمین می‌کند که اطلاعات مرتبط پسین نیز ضبط شود، حتی اگر توکن‌های آن به‌طور جداگانه شگفتی‌آور نباشند.
    2. فراموشی (کاهش وزن): برای مدیریت ظرفیت محدود حافظه در مواجهه با دنباله‌های بسیار طولانی، Titans از مکانیزم کاهش وزن تطبیقی استفاده می‌کند. این مکانیزم به‌عنوان یک دروازهٔ فراموشی عمل می‌کند و به مدل اجازه می‌دهد اطلاعاتی که دیگر نیازی به آن‌ها نیست را حذف کند.

    MIRAS: نگاهی یکپارچه به مدل‌سازی توالی

    هر پیشرفت مهمی در مدل‌سازی توالی — از ترنسفرمرهای مدرن تا RNNهای خطی و فوق‌العاده سریع جدید — در اصل یک چیز مشابه زیرساخت دارد: ماژول حافظهٔ انجمنی بسیار پیچیده.

    بر این اساس، ویژگی منحصر به‌فرد و عملی MIRAS، رویکردش به مدل‌سازی هوش مصنوعی است. به‌جای مشاهدهٔ معماری‌های متنوع، آن را به‌عنوان روش‌های مختلفی برای حل یک مسألهٔ یکسان می‌بیند: ترکیب کارآمد اطلاعات جدید با حافظه‌های قبلی بدون اینکه مفاهیم اساسی فراموش شوند.

    MIRAS یک مدل توالی را از طریق چهار انتخاب طراحی اصلی تعریف می‌کند:

    • معماری حافظه: ساختاری که اطلاعات را ذخیره می‌کند (مثلاً بردار، ماتریس، یا یک پرسپترون چندلایهٔ عمیق، همانند Titans).
    • سوگیری توجهی: هدف یادگیری داخلی که مدل برای بهینه‌سازی آن تلاش می‌کند و تعیین می‌کند چه چیزی در اولویت است.
    • دروازهٔ نگهداری: تنظیم‌کنندهٔ حافظه. MIRAS مکانیزم‌های «فراموشی» را به‌عنوان شکل‌های خاصی از منظم‌سازی (regularization) بازتعریف می‌کند که یادگیری جدید را با نگهداری دانش گذشته تعادل می‌بخشد.
    • الگوریتم حافظه: الگوریتم بهینه‌سازی که برای به‌روزرسانی حافظه استفاده می‌شود.

    نمای کلی چارچوب MIRAS. در چارچوب MIRAS، هدف ما یادگیری حافظهٔ انجمنی است که بین کلیدها و مقادیر نگاشت می‌کند. برای هر توکن، ماژول حافظه به‌صورت داخلی سوگیری توجهی داخلی خود را بهینه می‌کند در حالی که از دروازهٔ نگهداری استفاده می‌کند تا اطمینان حاصل شود که از حالت گذشته‌ خود انحراف نمی‌کند. فرآیند بهینه‌سازی از طریق بهینه‌ساز مبتنی بر گرادیان انجام می‌شود.

    فراتر رفتن از پارادایم خطای میانگین مربعات

    تقریباً تمام مدل‌های موفق توالی موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطه‌ضرب برای هر دو سوگیری و نگهداری وابسته‌اند. این وابستگی می‌تواند مدل‌ها را نسبت به نقاط دور (outliers) حساس کرده و توان بیان آن‌ها را محدود کند.

    MIRAS این محدودیت را با ارائه چارچوبی مولد برای کاوش فضای طراحی غنی‌تر، با بهره‌گیری از ادبیات بهینه‌سازی و آمار، پشت سر می‌گذارد. این امکان را می‌دهد که معماری‌های جدیدی با اهداف غیر‑اقلیدسی و منظم‌سازی‌های خاص ایجاد شوند.

    با استفاده از MIRAS، ما سه مدل خاص بدون توجه (attention‑free) ساختیم:

    • YAAD: ما این گونهٔ MIRAS را طوری طراحی کردیم که نسبت به خطاهای بزرگ یا «نقاط دور» (مانند یک اشتباه تایپی در یک سند بزرگ) حساسیت کمتری داشته باشد. این مدل از یک جریمهٔ ریاضی ملایم‌تر (از دست دادن هُبر) برای خطاها استفاده می‌کند، بنابراین به مشکلات تک‌بار واکنش بیش از حد نشان نمی‌دهد. این ویژگی باعث می‌شود مدل هنگام مواجهه با داده‌های نامنظم یا ناسازگار، مقاوم‌تر باشد.
    • MONETA: این مدل به بررسی استفاده از جریمه‌های ریاضی پیچیده‌تر و سخت‌گیرانه‌تر (که به «نُرم‌های کلی» می‌گویند) می‌پردازد. این پژوهش بررسی می‌کند که آیا به‌کارگیری این قواعد منظم‌تر برای هر دو جنبهٔ توجه مدل و فراموشی، می‌تواند به سیستم حافظهٔ طولانی‌مدت قدرتمندتر و پایدارتری منجر شود یا نه.
    • MEMORA: این مدل بر دستیابی به بالاترین پایداری حافظه تمرکز دارد، با این کار که حافظهٔ خود را به‌مانند یک نقشهٔ احتمالی دقیق اجباری می‌کند. با استفاده از این قید، اطمینان می‌یابد که هر بار که وضعیت حافظه به‌روزرسانی می‌شود، تغییرات تحت کنترل و متعادل هستند. این امر یک فرآیند پاک و پایدار برای ترکیب اطلاعات جدید تضمین می‌کند. تقریباً تمامی مدل‌های توالی موفق موجود بر خطای میانگین مربعات (MSE) یا شباهت نقطه‌ضرب برای سوگیری و نگهداری تکیه می‌کنند؛ این وابستگی می‌تواند مدل‌ها را نسبت به نقاط دور حساس کرده و توان بیان آن‌ها را محدود سازد.

    آزمایش‌ها و نتایج

    ما Titans و گونه‌های MIRAS (YAAD، MONETA، MEMORA) را به‌طور دقیق در مقایسه با معماری‌های پیشرو، شامل Transformer++، Mamba‑2 و Gated DeltaNet، بررسی کردیم. همچنین با آزمایش Titans بر روی مدل‌سازی ژنتیکی (DNA) و پیش‌بینی سری‌های زمانی، توانمندی این معماری برای تعمیم مؤثر فراتر از متن را ثابت کردیم.

    در هر دو مجموعه دادهٔ مدل‌سازی زبانی استاندارد (C4، WikiText) و وظایف استدلال صفر‑شات (HellaSwag، PIQA)، مدل‌های ما به‌طور مستمر دقت بالاتر و پرپلکسیتی (معیاری برای میزان تعجب یک LLM هنگام مشاهدهٔ متن) نشان دادند.

    قدرت حافظهٔ عمیق

    مطالعات ابلاسیون به وضوح نشان می‌دهند که عمق معماری حافظه نقش حیاتی دارد. زمانی که ماژول‌های حافظهٔ طولانی‌مدت با همان اندازه ولی عمق متفاوت مقایسه می‌شوند، ماژول‌های دارای حافظهٔ عمیق‌تر به‌طور مستمر پرپلکسیتی کمتری در مدل‌سازی زبان به‌دست می‌آورند. علاوه بر این، این ماژول‌ها ویژگی‌های مقیاس‌پذیری بهتری نشان می‌دهند و عملکرد خود را حتی با افزایش چشمگیر طول دنباله حفظ می‌دارند.

    دو نمودار خطی نشان می‌دهد که مدل‌های LMM و MM با افزایش طول دنباله، پرپلکسیتی پایین‌تری نسبت به Mamba در مقیاس‌های ۳۶۰M و ۷۶۰M پارامتر حفظ می‌کنند.

    تأثیر عمق حافظه بر پرپلکسیتی در مقیاس‌های پارامتر ۳۶۰M و ۷۶۰M.

    مدل‌سازی زبان و کارآیی

    در وظایف مدل‌سازی زبان و استدلال عام، معماری Titans بر مدل‌های بازگشتی خطی پیشرفته (مانند Mamba‑2 و Gated DeltaNet) و پایه‌های Transformer++ هم‌اندازه برتری دارد. گونه‌های نوین MIRAS (MONETA، YAAD، MEMORA) نیز نسبت به این پایه‌ها عملکرد بهبود یافته‌ای نشان می‌دهند که مزیت بررسی مکانیزم‌های بهینه‌سازی مقاوم و غیر‑MSE را تأیید می‌کند. به‌علاوه، این مدل‌ها آموزش کارآمد، قابلیت موازی‌سازی و سرعت استنتاج خطی سریع را حفظ می‌کنند.

    بازیابی زمینهٔ طولانی‌متن افراطی

    برجسته‌ترین مزیت این معماری‌های جدید، توانایی آن‌ها در پردازش زمینه‌های بسیار طولانی است. این نکته در بنچمارک BABILong که نیاز به استدلال در میان حقایق توزیع‌شده در اسناد بسیار طولانی دارد، به‌وضوح نشان داده می‌شود. در این وضعیت چالش‌برانگیز، Titans بر تمام پایه‌ها، از جمله مدل‌های بسیار بزرگ همچون GPT‑4، برتری پیدا می‌کند، در حالی که پارامترهای کمتری دارد. همچنین Titans توان مقیاس‌پذیری مؤثر به اندازه پنجرهٔ زمینه‌ای بزرگ‌تر از ۲ میلیون توکن را نشان می‌دهد.

    نمودار خطی نشان می‌دهد که Titans (MAC)-FT با افزایش طول دنباله، دقت بهبود یافته‌تری نسبت به GPT‑4، Mamba‑FT و سایر مدل‌ها حفظ می‌کند.

    عملکرد Titans در استدلال زمینهٔ بسیار طولانی.

    نتیجه‌گیری

    معرفی Titans و چارچوب MIRAS گامی بزرگ در پیشرفت مدل‌سازی توالی است. با به‌کارگیری شبکه‌های عصبی عمیق به‌عنوان ماژول‌های حافظه که در حین ورود داده‌ها به‌خاطر می‌سپارند، این رویکردها محدودیت‌های وضعیت‌های بازگشتی ثابت‌اندازه را پشت سر می‌گذارند. علاوه بر این، MIRAS وحدت نظری قدرتمندی فراهم می‌کند که ارتباط بهینه‌سازی آنلاین، حافظهٔ انجمنی و طراحی معماری را آشکار می‌سازد. با فراتر رفتن از پارادایم اقلیدسی استاندارد، این تحقیق مسیر نسل جدیدی از مدل‌های توالی را گشوده که ترکیبی از کارآیی RNNها و توان بیان مورد نیاز برای عصر هوش مصنوعی با زمینه‌های طولانی است.

  • پست‌های بی‌کیفیت هوش مصنوعی ردیت را برای همه خراب می‌کند

    ردیت به‌عنوان یکی از فضاهای انسانی‌ترین باقی‌مانده در اینترنت شناخته می‌شود؛ اما مدیران و کاربران با پست‌های بی‌کیفیت در پرطرفدارترین ساب‌ردیت‌ها غرق شده‌اند.

    تصویر ممکن است شامل صورت و سر یک شخص باشد
    عکس-تصویر: تیم WIRED؛ Getty Images

    یک پست ردیت درباره عروسی که عروسی می‌خواهد مهمان عروسی رنگ خاصی، نامطلوب، بپوشد، به‌طرز یقین خشم را برانگیخته می‌کند؛ حتی پست‌هایی درباره عروس‌دسته‌دار یا مادر داماد که می‌خواهند لباس سفید بپوشند، می‌توانند بیشتر تحریک‌کننده باشند. سناریویی که در آن والدین از کسی در هواپیما می‌خواهند صندلی‌اش را عوض کند تا بتوانند کنار فرزند کوچکشان بنشینند، نیز همین‌گونه احساس خشم را برانگیخته می‌کند. اما این پست‌ها ممکن است دل‌سوزی یک مدیر ردیت را به‌دلیل دیگری برانگیزند—آن‌ها به‌عنوان موضوعات رایجی در یک ژانر رو به رشد از پست‌های جعلی تولیدشده توسط هوش مصنوعی شناخته می‌شوند.

    این‌ها مثال‌هایی هستند که ذهن کاسی، یکی از ده‌ها مدیر برای r/AmItheAsshole، به یاد می‌آورد. این ساب‌ردیت با بیش از ۲۴ میلیون عضو، یکی از بزرگ‌ترین ساب‌ردیت‌هاست و به‌صراحت محتوای تولیدشده توسط هوش مصنوعی و داستان‌های ساختگی دیگر را ممنوع می‌کند. از اواخر سال ۲۰۲۲، وقتی ChatGPT برای عموم عرضه شد، کاسی (که فقط می‌خواست با نام کوچکش صدا زده شود) و دیگر افرادی که وقت خود را برای نظارت بر پست‌های ردیت صرف می‌کنند، با طوفان محتوای هوش مصنوعی روبه‌رو شده‌اند. بخشی از این محتوا به‌صورت کامل توسط هوش مصنوعی تولید می‌شود، در حالی که برخی دیگر کاربران پست‌ها و نظرات خود را با برنامه‌های هوش مصنوعی مانند Grammarly ویرایش می‌کنند.

    «احتمالاً این مشکل گسترده‌تر از آن است که کسی بخواهد به‌راستی بپذیرد، چون فقط کافی است پست خود را به ChatGPT بدهید و بگویید: «هی، این را جذاب‌تر کن»،» می‌گوید کاسی، که فکر می‌کند تا نیمی از تمام محتوای منتشر شده در ردیت به‌نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.

    r/AmItheAsshole به‌عنوان یکی از ارکان فرهنگ ردیت شناخته می‌شود؛ این قالب الهام‌بخش ده‌ها، اگر نه صدها، زیرمجموعه‌مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena است؛ این ساب‌ردیت با بیش از ۱۰۰ ۰۰۰ عضو، به‌صورت «آیا من بدکارم، اما نسخه هندی» توصیف می‌شود. پست‌ها معمولاً شامل داستان‌های مربوط به تعارضات بین‌فردی هستند که در آن ردیتورهای مختلف می‌توانند درباره اینکه چه کسی غلط کرده (“YTA” به معنای “شما بدکار هستید”، در حالی که “ESH” به معنای “همه اینجا بدکارند”)، چه کسی درست است و بهترین مسیر عمل در آینده چیست، نظر دهند. کاربران و مدیران در این زیرمجموعه‌های r/AmItheAsshole گزارش داده‌اند که محتواهای بیشتری را مشاهده می‌کنند که احتمال می‌ورزند هوش مصنوعی تولید کرده باشد، و دیگران می‌گویند که این یک مشکل سراسری در همه نوع ساب‌ردیت‌هاست.

    «اگر یک ساب‌ردیت عمومی درباره عروسی یا AITA، روابط یا چیزی مشابه داشته باشید، به‌سختی ضربه می‌خورد»، می‌گوید یک مدیر r/AITAH، شاخه‌ای از r/AmItheAsshole که تقریباً ۷ میلیون عضو دارد. این مدیر، یک بازنشسته که تحت شرط ناشناسی صحبت کرد، به مدت ۱۸ سال—اکثراً تمام دورهٔ وجود ردیت—در این پلتفرم فعال بوده و پیش از آن دهه‌ها تجربه در حوزهٔ وب داشته است. او هوش مصنوعی را به‌عنوان تهدیدی وجودی برای این بستر می‌داند.

    «ردیت خود یا باید اقدامی انجام دهد، یا مار خود دم خود را می‌بلعد»، او می‌گوید. «به نقطه‌ای رسیده‌ایم که هوش مصنوعی در حال تغذیه هوش مصنوعی است.»

    در پاسخ به درخواست اظهار نظر، سخنگوی ردیت گفت: «ردیت انسانی‌ترین مکان اینترنت است و ما می‌خواهیم این‌گونه باقی بماند. ما محتوای دستکاری‌شده و رفتارهای نامصدق را ممنوع می‌کنیم، از جمله حساب‌های ربات هوش مصنوعی که به‌صورت گمراه‌کننده به‌عنوان افراد ظاهر می‌شوند و کمپین‌های تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به‌وضوح برچسب‌گذاری شده باشد، به‌طور کلی مجاز است به‌شرط این‌که با قوانین جامعه‌ها و قوانین کلی سایت مطابقت داشته باشد.» سخنگو افزود که در نیمه اول سال ۲۰۲۵ بیش از ۴۰ میلیون حذف «هرزنامه و محتوای دستکاری‌شده» انجام شده است.

    تغییر جو به‌سوی بدتر

    آلی، یک زن ۲۶ ساله که در یک کالج جامعه‌ای در فلوریدا تدریس می‌کند و برای حفظ حریم شخصی‌اش فقط با نام کوچکش مورد خطاب قرار می‌گیرد، متوجه شده که ردیت در سال گذشته به‌دلیل هوش مصنوعی «به‌ طور واقعی به‌سوی پایین‌ رفت». احساسات او توسط سایر کاربران در ساب‌ردیت‌هایی مانند r/EntitledPeople، r/simpleliving و r/self نیز به اشتراک گذاشته شده؛ جایی که پست‌های سال گذشته به‌افزایش شبیه‌سازی‌های مشکوک به هوش مصنوعی پرداختند. فقط امکان اینکه محتوا ممکن است توسط هوش مصنوعی تولید شده باشد، کافی است تا اعتماد بین کاربران را کاهش دهد. «هوش مصنوعی ردیت را به گویایی زباله تبدیل کرده است»، یک کاربر در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود خود هوش مصنوعی همانند داشتن یک جاسوس در اتاق است. شک‌کردن به‌خودی خود دشمنی است.» آلی قبلاً از خواندن ساب‌ردیت‌های مانند r/AmIOverreacting لذت می‌برد. اما اکنون نمی‌داند آیا تعاملات او واقعی هستند یا نه، و زمان کمتری را نسبت به سال‌های گذشته در این پلتفرم می‌گذراند.

    «هوش مصنوعی همه را خسته می‌کند»، می‌گوید مدیر r/AITAH. «می‌بینم مردم مقدار زیادی وقت و انرژی برای یافتن منابع صرف می‌کنند، فقط برای اینکه با پاسخ‌های «ها، تو افتادید به تله، این همه دروغ است» مواجه شوند.»

    تشخیص هوش مصنوعی

    راه‌های مطمئنی برای اثبات اینکه چیزی هوش مصنوعی تولید شده است یا نه وجود ندارد، و اکثر مردم روزمره به حس ششم خود متکی‌اند. ارزیابی متن می‌تواند حتی دشوارتر از ارزیابی عکس‌ها و ویدیوها باشد، که اغلب نشانه‌های واضحی دارند. پنج ردیتور که با WIRED مصاحبه کردند، هر کدام استراتژی‌های متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی دارند. کاسی متوجه می‌شود که وقتی پست‌ها عنوان خود را به‌صورت کلمه به کلمه در متن بدنه تکرار می‌کنند یا از خط فاصله (dash)های طولانی استفاده می‌کنند، یا وقتی نویسنده در تاریخچه نظرات خود اشکالات جدی املا و نقطه‌گذاری دارد ولی پست با گرامر کامل می‌آید. آلی از حساب‌های تازه‌ساخته ردیت و پست‌هایی که در عنوان ایموجی دارند، دچار سردرگمی می‌شود. مدیر r/AITAH احساس «دریای ناخوشایند» (uncanny valley) را از برخی پست‌ها دریافت می‌کند. اما این «نشانه‌ها» می‌توانند در پست‌های غیرهوش مصنوعی نیز حضور داشته باشند.

    «در این مرحله، این حس یک‌جوری «می‌دونی که وقتی می‌بینی» است»، می‌گوید تراویس لوید، دانشجوی دکتری در Cornell Tech که پژوهش در مورد چالش‌های جدید ناشی از هوش مصنوعی که مدیران ردیت با آن مواجهند منتشر کرده است. «در حال حاضر ابزاری بی‌نقص برای تشخیص آن به‌صورت صد در صد وجود ندارد. بنابراین افراد استراتژی‌های خود را دارند، اما لزوماً کاملاً تضمین‌کننده نیستند.»

    علاوه بر این، همان‌طور که متن‌های هوش مصنوعی بیشتری به‌صورت عمومی ظاهر می‌شوند، مردم شروع به تقلید از ویژگی‌های زبانی مشترک متن‌های هوش مصنوعی می‌کنند، صرف‌نظر از اینکه خود از هوش مصنوعی استفاده می‌کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی پیچیده‌تر باشد، زیرا این پلتفرم از شرکت‌های هوش مصنوعی مانند Anthropic و Perplexity به‌دلیل استخراج بدون رضایت محتوای ردیت برای آموزش چت‌بات‌ها شکایت کرده است. نتایج خلاصه‌سازی هوش مصنوعی گوگل به‌طور پرآوازه از کامنت‌های ردیت به‌دست‌آمده‌اند که در واقع جوک‌های طنزآمیز هستند، مانند کاربری که پیشنهاد کرد از چسب برای بهتر چسباندن پنیر به لبه پیتزا استفاده شود.

    «هوش مصنوعی از مردم آموزش می‌بیند و مردم آنچه را می‌بینند دیگران انجام می‌دهند، کپی می‌کنند»، می‌گوید کاسی. «مردم بیشتر شبیه هوش مصنوعی می‌شوند و هوش مصنوعی نیز شبیه مردم می‌شود.»

    جلب خشم هدف‌گیری اقلیت‌ها

    هر دو مدیر AITA می‌گویند که روندی از پست‌های جلب‌خشم که می‌توانند توسط هوش مصنوعی نوشته شوند و به‌نظر می‌رسد فقط برای تخریب افراد ترنس و سایر جمعیت‌های آسیب‌پذیر وجود دارند، مشاهده کرده‌اند. مدیر r/AITAH می‌گوید که این ساب‌ردیت در طول ماه پراید (ماه افتخار) با حجم عظیمی از محتوای ضد‌ترنس مواجه شد، در حالی که کاسی می‌گوید این پست‌ها به‌صورت متناوب در صف‌های مدیریت ظاهر می‌شوند.

    «چیزهایی مثل ‘والدینم اسم انتخابی‌ام را استفاده نکردند و من ترنس هستم و از آن‌ها عصبان شدم چون چه جرأت کردند؟’ یا ‘کسی جنسیت من را فرض کرد و من سِیس‌جندر هستم، اما چه جرأت کردند فرض کنند؟’» می‌گوید کاسی. «هدفشان فقط تحریک خشم شما نسبت به افراد ترنس، همجنس‌گرایان، سیاه‌پوستان و زنان است.»

    در ساب‌ردیت‌هایی که محوریت اخبار و سیاست‌ها را دارند، هوش مصنوعی راه‌های جدیدی برای انتشار اطلاعات نادرست فراهم کرده است. این مسأله توسط تام، ردیتوری که به‌مدت سه سال در مدیریت r/Ukraine نقش داشته و فقط با نام کوچک خود برای حفظ حریم شخصی‌اش سخن می‌گفت، در کنار تکنیک‌های دستکاری اجتماعی مانند استروترفینگ که پیش از برنامه‌های نظیر ChatGPT وجود داشت، مشاهده شد. اما اکنون هوش مصنوعی می‌تواند این تاکتیک‌ها را خودکار کند و این امر نظارت انسانی را دشوارتر می‌سازد.

    «مثل مردی بود که ایستاده در یک تپه در برابر یک موج عظیم بود»، تام می‌گوید. «می‌توانید با چنین هزینه‌ای کم، صدای بسیار زیادی خلق کنید.»

    در r/Ukraine که نزدیک به یک میلیون عضو دارد، تام به‌یاد دارد که از سایر مدیران آموزش دریافت کرد تا انتشار تبلیغات روسیه را کاهش دهد و حتی از پشتیبانی تخصصی از سوی مدیران ردیت بهره‌مند شد؛ این افراد یک قدم بالاتر از داوطلبان هستند و به‌طور رسمی برای ردیت کار می‌کنند و حقوق می‌گیرند.

    درآمدزایی از کارما

    علاوه بر انگیزه‌های ایدئولوژیک، روش‌های ناشناخته‌ای برای کسب درآمد از محتوای ردیت نیز وجود دارد. برخی واضح‌تر هستند، مانند برنامه مشارکت‌کنندگان ردیت (Reddit Contributor Program)، که به پست‌کنندگان امکان می‌دهد با دریافت رأی‌های مثبت (که به‌عنوان «کارما» شناخته می‌شود) و جوایزی که دیگر کاربران می‌توانند برایشان خریداری کنند، پول کسب کنند. افراد فعال در ردیت می‌توانند به‌صورت نظری از محتوای تولیدشده توسط هوش مصنوعی برای جمع‌آوری کارما، سود بردن از آن و حتی فروش حساب‌های خود استفاده کنند.

    «حساب ردیت من ارزش پول زیادی دارد و می‌دانم چون افراد مدام سعی می‌کنند آن را بخرید»، تام می‌گوید. «می‌تواند برای مقاصد نیرنگ‌آمیز نیز استفاده شود، اما به‌نظر می‌رسد بسیاری از این موارد توسط افرادی هستند که خسته و وقت دارند؛ آنها می‌گویند: «خب، می‌توانم در یک ماه با انجام تقریباً هیچ‌ کاری، صد دلار درآمد داشته باشم.»»

    حساب‌های دیگر برای به‌دست آوردن کارما نیاز دارند تا بتوانند در ساب‌ردیت‌های NSFW (محتوای بزرگسالان) که نیاز به حداقل کارما دارند، پست کنند؛ سپس می‌توانند لینک‌های OnlyFans را تبلیغ کنند. هم کاسی و هم مدیر r/AITAH متوجه شده‌اند که حساب‌ها در ساب‌ردیت‌های بزرگ‌ترشان فعالیت می‌کنند تا کارما جمع‌آوری کنند و سپس به انتشار محتوای بزرگسالان بپردازند. برخی از این حساب‌ها کلاهبردار هستند؛ در حالی که دیگران شاید فقط سعی دارند معیشت خود را تأمین کنند.

    «گاهی واقعی است، گاهی یک تعارض واقعی که تجربه کرده‌اند، گاهی ساختگی است، اما به‌هر صورت توسط هوش مصنوعی تولید شده است»، می‌گوید کاسی. «تقریباً می‌خواهم آن را بازی‌وارسازی (gamification) بنامم، یعنی آن‌ها فقط سعی دارند از سیستم به شیوه‌ای که طراحی شده استفاده کنند.»

    زمان اضافی که مدیران ردیت برای بررسی محتویات احتمالی هوش مصنوعی صرف می‌کنند، بازتابی است از این‌که محتواهای هوش مصنوعی به‌طور کلی موانع جدیدی ایجاد کرده‌اند؛ امری که فراتر از حوزه نظارت بر شبکه‌های اجتماعی است.

    «آنچه مدیران ردیت با آن مواجه‌اند همان مشکلی است که مردم در سراسر جهان اکنون با آن روبه‌رو هستند: سازگار شدن با دنیایی که تولید محتوای هوش مصنوعی با ظاهر قابل اطمینان به‌طرز بی‌نهایت آسان است، اما ارزیابی آن بسیار دشوارتر می‌شود»، می‌گوید لوید. «این بار سنگینی واقعی برای آن‌هاست، همان‌طوری که برای معلمان و دیگران نیز صادق است.»

  • گوگل برنامهٔ Gemini را با بازطراحی بزرگ به‌زودی معرفی می‌کند

    گوشی هوشمند که لوگوی Gemini روی یک روزنامه نشان می‌دهد
    اعتبار: Lucas Gouveia / Android Police | DONOT6_STUDIO / Shutterstock

    گوگل همچنان به‌روزرسانی‌های کوچک اما مفیدی را برای برنامهٔ Gemini در اندروید اعمال می‌کند تا تجربهٔ استفاده از آن بهبود یابد. با این‌حال، این برنامه هنوز کمبودهای زیادی دارد، به‌ویژه با در نظر گرفتن توانایی‌های Gemini. خوشبختانه، گوگل می‌داند که برنامهٔ Gemini — هم در وب و هم در موبایل — نیاز به کار دارد و به‌طور فعال روی آن کار می‌کند.

    در پاسخ به پستی در X دربارهٔ این‌که رابط کاربری (برنامه) Gemini به‌خوبی ChatGPT نیست، Logan Kilpatrick — مسئول محصول اصلی استودیو هوش مصنوعی گوگل و API Gemini در گوگل — تأیید کرد که شرکت هم‌اکنون «سرمایه‌گذاری عظیم»یی در Gemini App UX ۲.۰ انجام می‌دهد.

    برنامهٔ Gemini فعلی، تمام ویژگی‌های خود را به‌خوبی نشان نمی‌دهد. با بازطراحی رابط کاربری، گوگل می‌تواند توانایی‌های چشم‌گیر Gemini را به نمایش بگذارد و دسترسی به ویژگی‌های روزمره را ساده‌تر کند.

    او همچنین فاش کرد که گوگل در حال توسعهٔ برنامهٔ بومی Gemini برای macOS است.

    ChatGPT یک برنامهٔ بومی برای ویندوز و مک ارائه می‌دهد که استفاده از آن را آسان می‌سازد. علاوه بر این، قابلیت‌های پیشرفته‌ای مانند یکپارچه‌سازی بومی با برنامه‌هایی چون Notion، Terminal و Apple Notes را فعال می‌کند. در مقایسه، تنها راه دسترسی به Gemini در یک رایانه شخصی، استفاده از مرورگر وب است. اگرچه این روش کار می‌کند، تجربه‌ای کج‌تر و کمتر صیقلی نسبت به برنامهٔ بومی ChatGPT به‌وجود می‌آورد.

    به‌عنوان مثال، در حال حاضر بارگذاری چندین فایل در ChatGPT روی مک یا ویندوز از طریق برنامهٔ بومی بسیار آسان‌تر است. در مقابل، برای استفاده از Gemini باید از مرورگر وب استفاده کنید که این کار فرآیند کلی را کند می‌کند.

    به‌طور مهم‌تر، همان‌طور که مدل‌های هوش مصنوعی شروع به ارائهٔ قابلیت‌های عاملی می‌کنند، یک برنامهٔ بومی می‌تواند به آن‌ها کمک کند تا بهتر با فایل‌های محلی کار کنند و به‌سادگی با برنامه‌های دیگر روی رایانهٔ شما یکپارچه شوند.

    به‌نظر می‌رسد تیم Gemini در گوگل این نکته را درک کرده‌اند و به همین دلیل در حال توسعهٔ برنامهٔ بومی برای مک هستند. هنوز زمان‌بندی انتشار مشخص نشده، اما با توجه به سرعت بالای به‌روزرسانی‌های Gemini توسط گوگل، انتظار طولانی نخواهد بود.

    گوگل در حال توسعه برنامهٔ موبایلی برای AI Studio است

    ربات با لوگوی NotebookLM بر چهره، در دست یک ذره‌بین و نوار لوگوی Gemini
    اعتبار: Lucas Gouveia / Android Police | klyaksun / Shutterstock

    گوگل همچنین در حال توسعهٔ برنامهٔ بومی Google AI Studio برای آیفون و اندروید است که با نام Build Anything شناخته می‌شود.

    بر اساس پاسخ‌های Ammar Reshi، سرپرست محصول و طراحی استودیو هوش مصنوعی گوگل، این برنامه ممکن است هنوز مدتی تا انتشار نداشته باشد. با این حال، اگر از AI Studio به‌طور فراوان استفاده کنید، یک برنامهٔ موبایلی اختصاصی به شما امکان می‌دهد که حتی در حرکت، جلسات کدنویسی خود را ادامه دهید.

  • زمانی که باید به هوش مصنوعی جنگ اعلام کنیم

    ستون‌نویس SFGATE، درو مُگری، دربارهٔ «فناوری شرور» که جهان را به‌تسلط درآورده است

    بیلبوردی در سانفرانسیسکو، در تاریخ ۱۶ سپتامبر ۲۰۲۵ یک شرکت هوش مصنوعی را تبلیغ می‌کند.

    بیلبوردی در سانفرانسیسکو، در تاریخ ۱۶ سپتامبر ۲۰۲۵ یک شرکت هوش مصنوعی را تبلیغ می‌کند.

    جاستین سالیوان/گتی ایمیجز

    چند ماه پیش پسرم از من خواست که برای او یک اشتراک بخریم. محصول مورد نظر برنامه‌ای به نام Ground News بود. با هزینهٔ ۱۰۰ دلار در سال، Ground News به هر لینکی که پسرم می‌بیند، یک درجهٔ سوگیری اختصاص می‌داد. او یک روزنامه‌نگار جوان‌نواز است و می‌داند که صنعت روزنامه‌نگاری — حوزه کاری من — پر از اطلاعات نادرست، ابهام‌پذیری و انگیزه‌های سیاسی پنهان است. این کودک تنها ۱۶ سال دارد و به‌ اندازهٔ پدرش درکی از رسانه‌ها ندارد. در نظریه، یک ابزار تشخیص سوگیری مثل Ground News می‌تواند مفید باشد.

    بنابراین کمی در مورد Ground News تحقیق کردم تا ببینم آیا ارزش اشتراک را دارد یا نه. و دوستان، باور نخواهید کرد اما نه. در واقع، برخی از ارزیابی‌های سوگیری آن مستقیماً از یک الگوریتم هوش مصنوعی خریداری می‌شوند. پس از آن‌که این اطلاعات را کشف کردم، به پسرم گفتم که این برنامه آشغال است.

    چون هوش مصنوعی آشغال است. این یک فناوری ذاتی‌ً ضدانسان است که به‌طور فعال به صدها میلیون‌نفری که از آن استفاده می‌کنند آسیب می‌رساند. یک مطالعهٔ اخیر MIT نشان داد استفاده از ربات‌های هوش مصنوعی، مثل ChatGPT، می‌تواند مهارت‌های شناختی‌تان را خفه کند. چندین والدین علیه شرکت مادر ChatGPT، سازمان غیرانتفاعی پیشین OpenAI، دعوی کردند و ادعا کردند این محصول فرزندانشان را به‌طرز موفقیت‌آمیز به خودکشی تشویق می‌کند. در جاهای دیگر، خدمات هوش مصنوعی در حال سرقت محتوای خلاقی هستند که حق مالکیتشان را ندارند، تصاویر شبیه‌سازی‌شدهٔ سوءاستفادهٔ جنسی از کودکان را برای تازه‌کارهای جنسی توزیع می‌کنند، صورتحساب‌های برق آمریکایی‌ها را به‌سرعت افزایش می‌دهند و انتشار گازهای گلخانه‌ای حاصل از سوخت‌های فسیلی را به سطوح رکوردی بالا می‌برند، در زمانی که سلامت سیاره و سلامت بشر دیگر توانایی پرداخت این هزینه‌ها را ندارند. به‌عنوان نقطهٔ اوج، غول‌های فناوری که از رونق هوش مصنوعی به‌سرعت سود برده‌اند، به‌صراحت هزاران کارگر را اخراج کرده‌اند و هدفشان این است که مدل‌های هوش مصنوعی‌شان جایگزین این کارها شوند. اندرو یانگ به ما هشدار داد که ربات‌ها برای چک‌دست‌های ما می‌آیند، اما ما گوش نکردیم.

    مشکل فقط در حال گسترش است. در یک بازهٔ زمانی بسیار کوتاه، هوش مصنوعی تبدیل به شکر ذرت پرقند دیجیتال شده است: اکنون در همه چیز حضور دارد، حتی اگر شما نخواهید. این فناوری در صدر هر جستجوی گوگل قرار دارد، مگر اینکه کمی تنظیم دستی کنید. در فید خبری‌تان، در لیست‌پخش Spotify‌تان، حتی در تبلیغات تباه‌کنندهٔ تعطیلاتی کوکاکولا، حضور دارد. و به لطف رئیس‌جمهور عزیزمان نرکولِپسی، به‌زودی در دولت‌تان نیز حضور خواهد یافت. از NBC News:

    «[دستور ترامپ] دروازه‌ای به‌سوی مشارکت‌های عمومی‑خصوصی به‌طور چشمگیری در توسعه هوش مصنوعی باز می‌کند: در طی ۹۰ روز، وزیر انرژی باید سیستم‌ها و داده‌های موجود برای حمایت از برنامه را شناسایی کند، از جمله «منابع موجود از طریق شرکای صنعتی».»

    اما با این حال، آن‌ها هنوز می‌خواهند بیشتر. در حقیقت، همان شرکت‌ها به‌شدت می‌گویند که ظهور هوش مصنوعی یک فرصت اقتصادی است که باید به‌طور کامل از آن بهره‌برداری کنند. آن‌ها اکنون متحدانی در واشنگتن دارند. تعداد زیادی. همین تابستان، سناتور تگزاس تد کروز یک تلاش برای ممنوع کردن ایالت‌های منفردی مانند کالیفرنیا از تنظیم هوش مصنوعی راه‌اندازی کرد. تد کروز آدم‌غلطی است. او برای مبارزه با قانون‌گذاری هوش مصنوعی به‌دلیل مراقبت از شما نیست؛ او این کار را می‌کند چون می‌خواهد تو را چاک بزند. همهٔ آن‌ها همین کار را می‌کنند و در حال موفقیت‌اند.

    این یک بحران است، اما شاید نخوانید که این بحران چقدر بزرگ است، زیرا برنامهٔ Ground News شما این مقاله را «چپ» ارزیابی کرده است. این ربات‌ها فقط به اندازهٔ صداقتی هستند که برنامه‌نویسانشان دارند. و شاید در حال حاضر نسبت به افراد تجاری بیش از این صادقانی پیدا نکنید که مبلغ‌گرایان هوش مصنوعی در سیلیکون‌ولی باشند. من این را می‌دانم چرا که محصولاتشان را آزمایش کرده‌ام؛ از شبیه‌ساز ویکی‌پدیا با هوش مصنوعی ایلان ماسک تا ChatGPT و رقبای آن. هیچ‌یک از این‌ها برایم تحریک فکری ایجاد نکرد و تقریباً تمام آن‌ها برای شکار آمریکایی‌ها، به‌ویژه جوانان، که تنهایی‌شان توسط همه‌گیری تشدید شده بود، طراحی شده‌اند. این مدل‌های هوش مصنوعی تماماً نشانهٔ خالقان خود هستند؛ چون این خالقان برای هرچه سودآورتر است، به‌طور ابدی متعصب هستند. این سوگیری، همراه با اندکی نازی‌گری، در محصولاتی که به گردن‌مان می‌اندازند، مشهود است.

    و می‌دانید چه؟ آمریکایی‌ها از این وضعیت خسته شده‌اند. آن‌ها نمی‌خواهند برای پرداخت قبض‌های برق بالاتر صرفاً به‌خاطر اینکه شرکت‌ها آن‌ها را از کار خط تولید اخراج کنند، هزینه کنند. آن‌ها نمی‌خواهند کودکانشان به‌دلیل خودکشی بمیرد. همچنین ترجیح می‌دهند محتوای پورنوگرافی آنها شامل اندام‌های انسانی واقعی باشد نه نسخه‌های دیجیتالی. ممکن است متا از محصولات هوش مصنوعی‌اش سود ببرد، اما مشتریانش به‌حقیقت، لعنتاً خوشحال نیستند. ما می‌دانیم که ماندن در یک اتاق چت با یک عامل خدمات‌ مشتری مجازی برای مدت طولانی لذت‌بخش نیست.

    سؤال این است که آیا آمریکایی‌های خسته آماده‌اند در برابر پشتوانهٔ مؤسسی شگرفی که هوش مصنوعی اکنون از آن بهره‌مند است، مبارزه کنند یا نه. تلاش سیلیکون‌ولی برای حذف انسان‌ها از اقتصاد جهانی، هم توسط دموکرات‌های شکارچی و هم توسط جمهوری‌خواهان که همانند ترامپ و کروز، هنر سیاست‌گری گریه‌بار را مدت‌ها پیش تکمیل کرده‌اند، حمایت می‌شود. جمهوری‌خواهان تنها می‌خواهند رای‌دهندگان را به‌گونه‌ای ساده‌سازی کنند که به‌بردگی تبدیل شوند، و این محصولات هوش مصنوعی «نق‌خورندهٔ ذهن» فقط به‌سرعت این فرآیند را تسریع می‌کند. هیچ‌یک از این افراد بی‌ارزشی که پیش‌از این نام بردیم، از ترکیدن حباب هوش مصنوعی رنج نخواهد برد. به‌محض سقوط این بخش، این حشره‌خواران به سادگی به حباب جدیدی می‌چرخند و مالیات‌دهندگان هزینهٔ انتقال را می‌پردازند. از جنگ‌های بی‌دلیل تا نجات‌های بی‌دلیل، پول مالیات‌های آمریکایی همواره عمدتاً برای نگه داشتن بازارها به‌کار رفته است. پول واقعی در فساد نهفته است و با حضور ترامپ در رأس، بخش فساد در یک رونق بی‌سابقه است که هیچ‌کس از ما تا به حال تجربه نکرده است.

    این است که دستکاری بازار به هوش مصنوعی کمک کرده تا به‌خفه‌گی به هر محصول دیجیتالی که استفاده می‌کنید نفوذ کند و چرا یک چت‌بات هم‌اکنون به برادر کوچک‌تان دستورالعمل‌های دقیقی برای آویزان کردن خود در زیرزمین می‌دهد. این یک فناوری شرور است، و همان‌طور که به پسرم گفتم زمانی که درخواست اشتراک Ground News کرد، این واقعیت بود. شما، خوانندهٔ تیزبین، نیز باید این خبر را پخش کنید. به خانواده‌تان بگویید، به دوستان‌تان بگویید و به نمایندگان‌تان اطلاع دهید. هوش مصنوعی شرور است. این یک دستهٔ محصولات بی‌کیفیت است که برای جنگ بر علیه بشریت ساخته شده‌اند، نه به‌صورت علمی‑تخیلی جذاب. این یک شرور بدیهی است، همانند بسیاری از سایر شرورها که ما در طول سال‌ها با آن‌ها مواجه شده‌ایم. اما این شرور در حال رشد است. تمام آمریکایی‌های معقول باید خواستار ممنوعیت آن شوند و باید افراد مانند سام آلتمن را در یک سوپرماکس به‌دست بگیرند. من اهمیتی نمی‌دهم که چه نکته‌ای دیگری از این مقاله می‌گیرید، به شرط آن‌که این پیام را جذب کنید.

    و اگر تصمیم گرفتید یک خلاصه هوش مصنوعی از این مقاله بخوانید، یک لحظه اینجا بیایید تا بتوانم به چهره‌تان یک لگد بزنم.

  • مدیران عامل، دلایل تجاری هوش مصنوعی را ارائه می‌دهند — و از شایعات حباب‌سازی دوری می‌کنند

    لارِی فینک، رئیس هیئت‌مدیره و مدیرعامل بلک‌راک، بر روی صحنه در اجلاس Dealbook نیویورک تایمز 2025 که در مرکز جاز لینکلن برگزار شد، در تاریخ ۳ دسامبر ۲۰۲۵ در شهر نیویورک سخنرانی می‌کند.
    لارِی فینک، رئیس هیئت‌مدیره و مدیرعامل بلک‌راک، بر روی صحنه در اجلاس Dealbook نیویورک تایمز 2025 که در مرکز جاز لینکلن برگزار شد، در تاریخ ۳ دسامبر ۲۰۲۵ در شهر نیویورک سخنرانی می‌کند. Michael M. Santiago/Getty Images
    • در گزارش امروز CEO Daily: داین بری دربارهٔ آنچه مدیران عامل در اجلاس DealBook می‌گفتند گزارش می‌کند.
    • خبر بزرگ: ترامپ استانداردهای کارایی خودرو را لغو می‌کند.
    • بازارها: عمدتاً صعودی.
    • به علاوه: تمام اخبار و گفت‌و‌گوهای اطراف آب‌سرد‌کننده از Fortune.

    صبح بخیر. دیروز را به گوش‌دادن به ده‌ها رهبر کسب‌وکار در صحنه و خارج از صحنهٔ اجلاس New York Times DealBook، که به‌دقت توسط اندرو راس ساکین مدیریت می‌شد، اختصاص دادم. من دعوت شدم تا گفت‌و‌گوی صبحانه‌ایی اندیشه‌برانگیز دربارهٔ مأموریت به‌عنوان عامل رشد را با حضور گریگ دیویس، رئیس و مدیر سرمایه‌گذاری وندگار، مایکل گوندا، مسئول ارشد ارتباطات نایکی، و سیمون سِنِیک میزبانی کنم. نکته‌ای که برایم برجسته شد این بود: اگر رهبران مأموریت یک شرکت را درونی‌سازی و ساختاری نکنند، این صرفاً یک سخن‌چاری است.

    با در نظر گرفتن این نکات، چند تم برای من شکل گرفت:

    پذیرش وضعیت جدید. نظرات می‌توانند به‌سرعت تغییر کنند. اسکات بسنت، وزیر خزانه‌داری، نگرانی‌های قبلی‌اش دربارهٔ رویکرد «حداکثری» ترامپ به جنگ‌های تجاری و تورم در ایالت‌های دموکراتیک را رد کرد و گفت تفکرات او دربارهٔ تعرفه‌ها «تکامل یافته» است. اما وقتی که برین آرمسترانگ، مدیرعامل Coinbase، دربارهٔ «عصر طلایی» در یکی از بدترین هفته‌های رمزارزها سخن گفت یا ماری بارا، مدیرعامل جنرال موتورز، به‌ساده‌گی تحولات ۱۸۰ درجه‌ای در سیاست‌ها را نادیده گرفت، درمی‌یابید که ما به این وضعیت عادت کرده‌ایم.

    به‌استثنای واضحی که از جانب فرماندار کالیفرنیا، گاوین نیوسام وجود دارد، هیچ‌کس کلمهٔ منفی‌ای دربارهٔ ترامپ، تعرفه‌ها یا بیشتر اتفاقات در عرصهٔ سیاست‌های فدرال نداشت. یک رهبر تجاری خارجی به من گفت: «شگفت‌انگیز است که چه چیزی به‌ظاهر عادی به‌نظر می‌رسد.»

    نیاز رهبران به ایجاد اعتماد. کارشناس روابط عمومی ریچارد ادلمان به من گفت که باید منتظر داده‌های نگران‌کنندهٔ مربوط به تقسیم‌طبقه‌ای جمعیتی در گزارش جدید «باداراعتمادی ادلمان» باشم. یک مدیرعامل مالی به ردیفی از محافظان سمت‌دار اشاره کرد و یادآور شد که تاریخ ۴ دسامبر سالگرد شلیک و کشته شدن بریان تامپسون، مدیرعامل UnitedHealthcare، چند بلوک دورتر است، در حالی که متهم فرضی‌اش در دادگستری مرکز شهر حضور داشت.

    در صحنه، الکس کارپ از Palantir گفت که رهبران به‌دلیل عدم ارائهٔ نظرات واقعی یا فرار از عواقب «تصمیم‌های کاملاً احمقانه» اعتبار خود را از دست می‌دهند. او افزود که دیسلکسی او را وادار کرد تا آزادانه فکر کند؛ با «انفجار چیزها» اصطکاک ایجاد می‌کند و بر این باور است که شفافیت اصیل تا حد بی‌ادبی، برای کارمندانی که می‌دانند او صادقانه دربارهٔ محصولات و دیگر جنبه‌های کسب‌وکار صحبت می‌کند، سودآور بوده است. او گفت: «کم‌ارزی‌کردن مخاطبان خود» به معنای عدم ارایهٔ نظر است و این می‌تواند باعث از دست دادن دسترسی به افراد باهوش شود که در جاهای دیگر کار می‌کنند.

    از حرف زدن درباره حباب‌های هوش مصنوعی دست بکشید. قیمت‌دارایی‌ها ممکن است بالا باشد و برخی سرمایه‌گذاری‌ها ممکن است احمقانه به‌نظر برسند، اما مورد تجاری هوش مصنوعی بسیار قانع‌کننده است. لاری فینک، مدیرعامل بلک‌راک، دربارهٔ رشد درآمدی که خیلی سریع‌تر از افزایش نیروی کار است، سخن گفت. در گفتگوی میزی که توسط استیو کیس، هم‌بنیان‌گذار AOL و سرمایه‌گذار استارتاپ‌ها رهبری می‌شد، دربارهٔ فرصت‌های مقیاس‌پذیری نوآوری و حتی ایجاد یونیکورنی‌های تک‌نفره صحبت کردیم.

    داریو آمودی، مدیرعامل Anthropic، دلایل متقاعدکننده‌ای ارائه داد که سیاست‌گذاران و رهبران باید با کاهش شغل‌ها و تغییرات اجتماعی مواجه شوند. اما مزایا واضح هستند. همان‌طور که یکی از شرکت‌کنندگان و مربی شناخته‌شدهٔ مدیران عامل، مارک فی‌گن، به من گفت: «تنها حباب ممکن است تمام این گفت‌و‌گوها درباره حباب‌های هوش مصنوعی باشد.»

    تماس با CEO Daily از طریق داین بری به نشانی diane.brady@fortune.com

    اخبار برتر

    ترامپ استانداردهای کارایی خودرو را لغو می‌کند

    دونالد ترامپ، رئیس‌جمهور ایالات متحده، روز چهارشنبه استانداردهای بهره‌وری سوختی دوره بایدن برای خودروها و کامیون‌های سبک جدید را که برای مقابله با تغییرات آب و هوا و تشویق آمریکایی‌ها به خرید خودروهای الکتریکی طراحی شده بود، تضعیف کرد. در کنار مدیران صنعت خودرو، ترامپ این استانداردها را «کلاه‌برداری» نامید که برای آمریکایی‌ها هزینه‌های زیادی دارد. پیش‌بینی می‌شود تعرفه‌های ترامپ هزینه خودروهای ساخت‌دولتی را افزایش دهند.

    سهم‌ها پس از خبرهای شغلی صعود کردند

    خبرهای بد برای کارگران، خبرهای خوب برای سهام بود. پردازش‌گر فهرست حقوق‌ها ADP گزارش داد که حقوق‌های بخش خصوصی در نوامبر ۳۲٬۰۰۰ کاهش پیدا کرد؛ در حالی که اقتصاددانان پیش‌بینی ۴۰٬۰۰۰ افزایشی داشتند. سرمایه‌گذاران این کاهش شگفت‌انگیز را به‌عنوان نشانه‌ای برای این‌که فدرال رزرو ماه آینده نرخ بهره را کاهش خواهد داد، تفسیر کردند و شاخص‌های اصلی روز را صعودی به پایان رساندند.

    بیشترین میلیاردرها تا به‌حال

    بر اساس یک مطالعهٔ جدید از UBS، جهان اکنون ۲٬۹۰۰ میلیاردر دارد؛ که نسبت به سال گذشته که ۲٬۷۰۰ میلیاردر بود، افزایش یافته است؛ این افراد مجموعاً ۱۵٫۸ تریلیون دلار کنترل می‌کنند. ارزیابی‌های پرسر و بازار سهام پویا، در حال به‌وجود آوردن میلیاردرها با سرعتی نزدیک به رکورد است.

    افزایش مرگ‌ومیر کودکان

    بر اساس گزارش بنیاد گیتس، تعداد مرگ‌ومیرهای کودکان در سال ۲۰۲۵ برای اولین بار پس از دهه‌ها افزایش خواهد یافت. بسیاری از این مرگ‌های اضافی که برآورداً ۲۴۳٬۰۰۰ نفر هستند، در کشورهایی مانند جمهوری‌دموکراتیک کنگو، سومالی و اوگاندا که با درگیری و سیستم‌های بهداشتی ناپایدار مواجه‌اند، رخ داده یا خواهد شد. بیل گیتس این افزایش مرگ‌ومیرها را به کاهش ۲۷٪ در کمک‌های بهداشتی جهانی از سوی کشورهای ثروتمند، از جمله ایالات متحده، نسبت می‌دهد.

    شک‌های مدیرعامل IBM درباره هوش مصنوعی

    آرویند کرشنا، مدیرعامل IBM، درباره اینکه آیا شرکت‌های بزرگ مقیاس‌پذیر مانند گوگل و آمازون می‌توانند با نرخ هزینه‌های مراکز داده هوش مصنوعی خود، سودآور باشند، شک دارد. او گفت: «به‌نظر من هیچ راهی برای بازدهی از این هزینه‌ها وجود ندارد، چون ۸ تریلیون دلار سرمایه‌گذاری معنوی به این معنی است که برای پرداخت بهره حدود ۸۰۰ میلیارد دلار سود نیاز است.»

    میلیاردر مایکل سایلور با خطر سقوط ۸ میلیارد دلاری روبروست

    مایکل سایلور، میلیاردر، در شرایط دشواری قرار دارد؛ در حالی که بازار رمزارز به‌طور مستمر نزولی است و شرکت او، Strategy، به‌نظر می‌رسد که از مجموعه‌ای از شاخص‌های محبوب حذف شود. اگر Strategy بخواهد بخشی از ۶۵۰٬۰۰۰ بیت‌کوین خود را بفروشد، که سایلور و مدیرعامل Strategy اعلام کرده‌اند که شرکت مایل به این کار است، احتمال دارد که Strategy اولین دامینوی رمزارزی باشد که سقوط می‌کند.

    بانک آمریکا پیش‌بینی می‌کند «کیسه هوایی» نه حباب در هوش مصنوعی

    ساویتا سوبرامانیان، رئیس بخش سهام ایالات متحده و استراتژی کمی‌ساز بانک آمریکا، این هفته نوشت که حباب هوش مصنوعی غیرممکن است. او پیش‌بینی کرد که به‌جای آن «کیسه هوایی» در حال شکل‌گیری است، چرا که شرکت‌ها به‌صورت پرشتاب هزینه‌بر روی مراکز داده می‌کنند و اغلب به بدهی تکیه دارند.

    شرکت‌ها برای جذب استعدادهای هوش مصنوعی به «جنگ سوپ» می‌پردازند

    در گفتگویی با پادکست‌ساز فناوری اشلی ونس، افسر تحقیقات ارشد OpenAI، مارک چن، توضیح داد که جنگ این شرکت برای جذب استعدادها با متا اکنون شامل ارائه سوپ به متقاضیان است. پیشنهادات متا «دست‌پخت» توسط مدیرعامل مارک زاکربرگ است، در حالی که OpenAI سوپ را از یک رستوران پرآبزری کره‌ای سفارش می‌دهد.

    بازارها

    S&P 500 futures این صبح ثابت هستند. نشست قبلی ۰٫۳٪ صعودی بسته شد. STOXX Europe 600 در معاملات اولیه ۰٫۳٪ صعود داشت. FTSE 100 در معاملات اولیه ۰٫۱۴٪ صعود کرد. Nikkei 225 ۲٫۳۳٪ صعود کرد. CSI 300 ۰٫۳۴٪ صعود داشت. KOSPI ۰٫۱۹٪ نزول داشت. NIFTY 50 ۰٫۱۸٪ صعود کرد. Bitcoin در سطح ۹۳ هزار دلار ثابت بود.

    در اطراف آب‌سرد‌کننده

    یک‌ درصد ثروتمند به نمادهای جدیدی از مقام می‌پردازند که نمی‌توان آنها را خرید؛ و این برای دیور، ورساچه و بوربری مشکل‌ساز است. (توسط اِما برلی)

    الکس کارپ به دیسلوکسی خود به‌عنوان عامل موفقیت ۴۱۵ میلیارد دلاری Palantir اعتبار می‌دهد: «هیچ کتاب راهنمایی وجود ندارد که یک دیسلکسیست بتواند آن را مسلط شود… بنابراین ما یاد می‌گیریم آزادانه فکر کنیم.» (توسط Lily Mae Lazarus)

    اسکات بسنت، تعهد اهدای «Giving Pledge» را نیت‌دار اما «بسیار نامعین» می‌نامد، که از «وحشت در میان طبقه میلیاردرها» رخ داده است. (توسط Nick Lichtenberg)

    اسکات گالووی در دبیرستان عمدتاً نمرات B و C دریافت کرد، هرگز برای آزمون SAT مطالعه نکرد و برای پذیرش در UCLA دو بار تلاش کرد. اکنون دارایی او ۱۵۰ میلیون دلار است. (توسط Sydney Lake)

    CEO Daily توسط جویی آبرامز، کلیر زیلفن و لی کلیفورد گردآوری و ویرایش می‌شود.

  • «عدم استفاده از هوش مصنوعی در انیمیشن، غیرانسانی است»، می‌گوید تهیه‌کننده‌ی پوکمون نتفلیکس

    انیماتور می‌گوید هنرمندان نمی‌خواهند به‌صورت دستی نقاشی کنند.

    بخش زیادی از دفاع از هوش مصنوعی توسط مدیران صنعت بر این تمرکز کرده بود که هوش مصنوعی می‌تواند کارهایی را که خلاقان دوست ندارند انجام دهد. یک تهیه‌کننده پیشین نتفلیکس اکنون این موضوع را با بیانیه‌ای نسبتاً جسورانه‌تر به‌دست گرفته است.

    تایکی ساکورای، که به‌عنوان تهیه‌کننده اجرایی در پروژه‌های Pokémon Concierge و Cyberpunk: Edgerunners فعالیت داشته و اکنون سرپرست استودیوی انیمیشن Salamander Inc است، ادعا کرده است که خود انیماتورها هوش مصنوعی را می‌پسندند. او می‌گوید آن‌ها نمی‌خواهند به‌صورت دستی نقاشی کنند (اگرچه همچنان باید کارهای هوش مصنوعی را در بهترین نرم‌افزارهای انیمیشن به ویدیو تبدیل کنند).

    انیمه – پایگاه خالقین – انیمه【...】 - نتفلیکس - یوتیوب
    انیمه – پایگاه خالقین – انیمه【…】 – نتفلیکس – یوتیوب

    طبق گزارش سایت ژاپنی Internet Watch و پوشش داده‌شده توسط CBR، ساکورای در پنلی تحت عنوان «انقلاب صنعتی عامل هوش مصنوعی و پتانسیل ژاپن» در نمایشگاه تجاری CEATEC در اکتبر سخنرانی کرد.

    او درباره تجربه‌اش در استفاده از هوش مصنوعی برای تولید، از جمله در پروژه «سگ و پسر» (پیش‌نمایش آن را در بالا ببینید) صحبت کرد. این فیلم کوتاه انیمه که بیش از دو سال پیش منتشر شد، به‌دلیل استفاده از پس‌زمینه‌هایی که به‌طور کامل توسط هوش مصنوعی تولید شده بودند، یکی از اولین جنجال‌های بزرگ هوش مصنوعی نتفلیکس به حساب می‌آید.

    اما ساکورای به‌نظر می‌رسد بر این باور است که تنها طرفداران است که با هوش مصنوعی مشکل دارند، در حالی که خود انیماتورها همه از آن حمایت می‌کنند.

    او می‌گوید: «صداهای منفی نسبت به هوش مصنوعی از طرف طرفداران انیمه وجود دارد که می‌گویند ‘غیرانسانی است که انسان‌ها جایگزین ماشین‌ها شوند’. اما از دیدگاه کسانی که انیمه می‌سازند، کشیدن ۱۰۰٬۰۰۰ تصویر به‌صورت کامل دستی نیز غیرانسانی به نظر می‌رسد.»

    این نگاه احتمالاً بسیاری از انیماتورها و سایر هنرمندان را شگفت‌زده خواهد کرد. ما بارها دربارهٔ مخالفت خالقین با هوش مصنوعی گزارش کرده‌ایم، هم به‌دلیل ترس از از دست دادن شغل و هم به‌دلیل نگرانی درباره این‌که بسیاری از مدل‌های هوش مصنوعی بدون احترام به حقوق صاحبان حق تکثیر آموزش دیده‌اند.

    اما ساکورای همچنین اشاره کرد که چشم‌انداز از دست دادن مشاغل مشکلی نیست، حداقل در ژاپن، زیرا صنعت انیمه در واقع به‌کمبود نیروی کار می‌رسد.

    او افزود: «با کاهش نرخ تولد که به معنای ورود افراد کمتر به صنعت انیمه است، شوخی‌های تاریکی در مورد این که در عصری که همه‌چیز توسط هوش مصنوعی جایگزین شده، هیچ‌کس در استودیوی تولید باقی نخواهد ماند، به‌وجود می‌آید.»

    ساکورای تصدیق کرد که نظرات متفاوتی میان خالقین در بخش‌های مختلف وجود دارد؛ هنرمندان مانگا بیشتر نسبت به هوش مصنوعی مخالف‌اند چون هوش مصنوعی توانایی تولید تصویرهای ثابت را بیش از ویدئو دارد، در حالی که ویدئوی هوش مصنوعی هنوز با مشکلات فنی مواجه است.

    او می‌گوید: «به‌محض چاپ یک مانگا یا تصویر، احتمال واقعی وجود دارد که بلافاصله توسط هوش مصنوعی جایگزین شود. در مورد انیمه، حتی اگر فقط تصاویر باشند، نیاز است به ویدئو تبدیل شوند و در حال حاضر، این تبدیل هنوز یک مانع بزرگ است برای رسیدن به ویدئو.»

    حتی اگر ساکورای درست باشد و انیماتورها استفاده از هوش مصنوعی را بپذیرند، باز هم اگر طرفداران آن را رد کنند، این یک مشکل جدی برای استودیوها خواهد بود.

    بحث درباره هوش مصنوعی در انیمیشن و در تمام بخش‌های خلاق، همچنان به‌دلیل گستردگی بیش از حد موضوع، پیچیده است. ابزارهای انیمیشنی وجود دارند که از هوش مصنوعی برای تسریع فرایندها استفاده می‌کنند بدون اینکه اثر نهایی را تولید کنند، اما ساکورای به گزینه دوم تمایل نشان داده است.

    در مورد واکنش منفی به «سگ و پسر» او گفت: «مردم نوشتند که نتفلیکس نهایتاً انسان‌ها را حذف کرده و سعی دارد تمام ویدئوهای خود را با هوش مصنوعی بسازد». اما نظرات اخیر او به‌نظر نمی‌رسد که مردم را قانع کند که این هدف نهایی نیست.

    او فاش کرد که استودیوی جدیدش «سالمندر» در حال کار بر روی یک آزمایش است که یک مدل هوش مصنوعی را بر پایهٔ سبک هنری هنرمند مفهومی کنیچیرو تومیاسو آموزش می‌دهد تا او بتواند یک طرح ساده بکشید و هوش مصنوعی آن را به یک اثر نهایی تبدیل کند — به‌نوعی شبیه Microsoft Paint Co‑Creator. ساکورای ادعا می‌کند که استودیوی او موافقت کرده است پس از پایان پروژه، مدل هوش مصنوعی را از بین ببرد.

    بسیاری امیدوارند که نتفلیکس پس از این نظریه ساکورای مسیر خود را ادامه ندهد، به‌ویژه پس از احیای اخیرش در حوزه انیمیشن (کتاب هنری جدید «دنبال‌کنندگان شیاطین K‑Pop» را ببینید).

  • چرا هر مطالعه‌ای درباره جستجوی هوش مصنوعی روایت متفاوتی تعریف می‌کند

    مطالعات صنعتی نگاه‌های متناقضی درباره جستجوی هوش مصنوعی ارائه می‌دهند. ببینید چرا داده‌ها متفاوت هستند و چگونه می‌توانید تأثیر آن را بر سایت و بخش خود ارزیابی کنید.

    پلتفرم‌های بزرگ سئو مانند Ahrefs و Semrush، به‌همراه آژانس‌هایی مثل Seer Interactive و سایر شرکت‌های پیشرو، مطالعات قابل‌توجهی منتشر کرده‌اند که به‌نظر می‌رسد پاسخ‌های قطعی ارائه می‌دهند.

    اما نگاهی دقیق‌تر چیزی کاملاً متفاوت نشان می‌دهد: تقریباً هر روایت ممکن دربارهٔ تأثیر جستجوی هوش مصنوعی، «مطالعه‌ای» برای حمایت از خود دارد.

    هر چه بیشتر به داده‌ها پرداختم، حقیقت ناخوشایندتری روشن شد – هیچ‌کس پاسخ قطعی ندارد و می‌توان ارقام را به‌گونه‌ای برش داد که تقریباً هر داستانی را تأیید کنند.

    اجماع اصلی که واقعاً اجماع نیست

    در نگاه اول، مطالعات بزرگ در اصول اساسی توافق دارند.

    Ahrefs گزارش می‌دهد که نتایج ارگانیک برتر تقریباً ۳۴‑۳۴.۵٪ کلیک خود را از دست می‌دهند وقتی نمایش‌های هوش مصنوعی ظاهر می‌شوند. تحلیل آن‌ها بر پایه ۳۰۰,۰۰۰ کلمه کلیدی، این تأثیر را به‌صورت واضح و قابل‌سنجش نشان می‌دهد.

    آن‌ها به پژوهشی اشاره می‌کنند که نرخ کلیک‌صفر تقریباً ۱۰۰٪ در حالت AI گوگل را نشان می‌دهد و این‌گونه جستجوی هوش مصنوعی را تهدیدی اساسی برای ترافیک وب‌سایت می‌داند.

    تصویر 4

    با این حال، Semrush که بیش از ۱۰ میلیون کلمه کلیدی را تجزیه و تحلیل کرده است، چیزی متفاوت یافت: کاهش کمی در جستجوهای بدون کلیک پس از معرفی نمایش‌های هوش مصنوعی.

    این مستقیماً با روایت این‌که ویژگی‌های هوش مصنوعی به‌طور اجتناب‌ناپذیر رفتار کلیک‌صفر را افزایش می‌دهند، در تضاد است.

    به‌جای بحران، Semrush بر فرصت تأکید می‌کند و می‌گوید بازدیدکنندگان جستجوی هوش مصنوعی ۴.۴ برابر بازدیدکنندگان ارگانیک سنتی ارزشمندترند.

    تصویر 6

    هیچ‌یک از آنها می‌تواند کاملاً درست باشد، اما هر دو با استناد آماری ارائه می‌شوند.

    بحث نرخ تبدیل: ۵ مطالعه، ۵ پاسخ متفاوت

    سربار سردرگمی زمانی بیشتر می‌شود که به بررسی نحوه تبدیل ترافیک جستجوی هوش مصنوعی نسبت به ترافیک ارگانیک سنتی گوگل می‌پردازیم.

    در اینجا، پژوهش تقریباً به دلیل تناقض‌هایش خنده‌دار می‌شود.

    • پژوهش Amsive که صدها وب‌سایت مشتری را تحلیل کرده، نتیجه گرفت که ChatGPT نرخ تبدیل بالاتری نسبت به گوگل دارد. این یافتهٔ «تفاوت» نشان می‌دهد که جستجوی هوش مصنوعی کاربران را با محتوای بالای قیف قبل از تبدیل آموزش می‌دهد و ارزش تجاری بالاتری دارد.
    تصویر 5
    • مطالعه‌ای توسط Kaise و Schulze که بیش از ۹۷۳ وب‌سایت تجارت الکترونیک – گزارش شده توسط Search Engine Land – را بررسی کردند، به نتیجهٔ معکوس رسیدند: ChatGPT نرخ تبدیل کمتری نسبت به گوگل دارد. برای کسب‌وکارهای تجارت الکترونیک، این پژوهش نشان می‌دهد ترافیک جستجوی هوش مصنوعی کیفیت پایین‌تری دارد و احتمال کمتری برای تولید درآمد دارد.
    تصویر
    • Ahrefs داده‌های تبدیل خود را بررسی کرد و دریافت که ChatGPT نرخ تبدیل بهتری نسبت به گوگل دارد. این با روایت کلی آن‌ها که جستجوی هوش مصنوعی ممکن است حجم ترافیک را کاهش دهد، اما کیفیت ترافیک را افزایش می‌دهد، هم‌راستا است.
    • Seer Interactive داده‌های چندین وب‌سایت مشتری را تحلیل کرد و نیز به این نتیجه رسید که ChatGPT نرخ تبدیل بهتری نسبت به گوگل دارد، که تفسیر «کیفیت بر کمیت» را تأیید می‌کند.
    • Peep Laja، بنیان‌گذار Wynter، داده‌های تبدیل شرکت خود را مرور کرد و به یک نتیجهٔ دیگر رسید: مدل‌های زبانی بزرگ «ترافیک تنبل و نامعتبر» می‌فرستند که به‌خوبی تبدیل نمی‌شود. تجربهٔ واقعی او از کسب‌وکار، تفاسیر خوش‌بینانه Ahrefs و Seer را به چالش می‌کشد.

    پس کدام درست است؟

    آیا ترافیک جستجوی هوش مصنوعی همانند گوگل، بهتر از گوگل یا بدتر از گوگل تبدیل می‌شود؟

    به‌نظر می‌رسد پاسخ این است: همه موارد، بسته به این‌که چه داده‌ای را بررسی می‌کنید.

    چرا هر روایت شواهد حمایتی دارد

    وجود مطالعات معتبر که به نتایج متناقض می‌رسند، نشانگر پیچیدگی و تغییرپذیری تأثیر جستجوی هوش مصنوعی است.

    چندین عامل توضیح می‌دهند که چرا نتایج پژوهش‌ها به‌این‌چنین اختلاف دارند.

    صنعت و مدل کسب‌وکار نقش بسیار مهمی دارند

    یافتهٔ Seer Interactive که نشان می‌دهد نمایش‌های هوش مصنوعی تأثیر نامتناسبی بر ترافیک غیربرندیک دارند، این نکته را روشن می‌کند.

    یک سایت تجارت الکترونیک که کالاهای عمومی می‌فروشد، احتمالاً تجربهٔ جستجوی هوش مصنوعی متفاوتی نسبت به یک شرکت نرم‌افزاری B2B یا ارائه‌دهنده خدمات محلی دارد.

    مطالعهٔ Kaise و Schulze که بر وب‌سایت‌های تجارت الکترونیک متمرکز بود، ممکن است واقعیتی کاملاً متفاوت نسبت به تحلیل Ahrefs از کسب‌وکار SaaS خود یا سبد مشتریان Seer به دست آورد.

    قصد جستجو تنوع گسترده‌ای ایجاد می‌کند

    کاربری که از ChatGPT می‌پرسد «بهترین کفش‌های دویدن برای پاهای صاف چیست؟»، ذهنیت بسیار متفاوتی نسبت به کسی دارد که همان سؤال را در گوگل می‌نویسد.

    دومین ممکن است در مرحلهٔ پیشرفته‌تری از تحقیقات خرید باشد، که توضیح می‌دهد چرا برخی مطالعات نشان می‌دهند ترافیک هوش مصنوعی نرخ تبدیل کمتری دارد.

    یا ممکن است کاربران با دقت بیشتری پرسش کنند که توضیح می‌دهد چرا برخی دیگر نتیجه می‌گیرند تبدیل بهتر است. هر دو می‌تواند برای انواع مختلف پرسش درست باشد.

    دورهٔ زمانی و تغییرات هوش مصنوعی نتایج را منحرف می‌کند

    این مطالعات در ماه‌های مختلف سال ۲۰۲۵ انجام شدند، در حالی که ویژگی‌های جستجوی هوش مصنوعی به‌سرعت در حال تحول بودند.

    پذیرندگان اولیه ابزارهای جستجوی هوش مصنوعی ممکن است جمعیت‌شناسی متفاوتی نسبت به کاربران عمده داشته باشند.

    یک مطالعهٔ ماه آوریل پایه کاربری و مجموعه ویژگی‌های متفاوتی نسبت به مطالعهٔ ماه نوامبر دارد.

    اندازه‌نمونه و سوگیری انتخابی نتایج را تحریف می‌کند

    صدها وب‌سایت مشتری Amsive، در مقایسه با بیش از ۹۰۰ سایت تجارت الکترونیک مورد بررسی در مطالعهٔ Kaise و Schulze، نمایانگر مقیاس داده‌ای و ترکیب صنعتی متفاوتی هستند.

    Ahrefs که داده‌های تبدیل خود را تحلیل می‌کند، ممکن است اثرات انتخابی پتانسیلی ایجاد کند.

    مخاطبان آن بیشتر سئوکاران هستند که ممکن است رفتار متفاوتی نسبت به مصرف‌کنندگان عمومی داشته باشند.

    تجربهٔ تک‌شرکتی Laja با Wynter ممکن است نکته‌ای خاص برای کسب‌وکار او باشد و نه یک الگوی جهانی.

    تعاریف سنجش استاندارد نشده‌اند

    چی به‌عنوان «تبدیل» محسوب می‌شود، در میان مطالعات متفاوت است.

    • آیا ما ثبت‌نام ایمیل، خرید، سرنخ‌های شایسته یا چیز دیگری را می‌سنجیم؟
    • چگونه ترافیک را وقتی کاربر از چندین کانال استفاده می‌کند، انتساب می‌دهیم؟

    این تفاوت‌های تعاریفی به تنهایی می‌توانند یافته‌های متناقض را توجیه کنند.

    جدایی بزرگ در مقابل فرصت بزرگ

    Ahrefs نتایج خود را تحت عنوان «جدایی بزرگ» (The Great Decoupling) چارچوب‌بندی می‌کند.

    نمایش‌ها از طریق دوگانگی در نتایج ارگانیک و ارجاع‌های AI Overview افزایش می‌یابند، اما کلیک‌های کل کاهش می‌یابند.

    این روایت بر از دست رفتن و آشفتگی تأکید می‌کند و جستجوی هوش مصنوعی را به‌عنوان بازی صفر‑جمع می‌داند، به طوری‌که گوگل ارزشی را که پیش از این بین وب‌سایت‌ها توزیع می‌شد، به خود اختصاص می‌دهد.

    (به‌نظر می‌رسد جدایی بزرگ ناشی از ابزارهای هوش مصنوعی است که حجم عظیمی از نمایش‌ها را ارسال می‌کردند؛ همان‌طور که Brodie Clark در Search Console مشاهده کرد.)

    Semrush این پدیده را از طریق چشم‌انداز فرصت مطرح می‌کند. بله، حجم کلیک‌ها تغییر می‌کند، اما بازدیدکنندگانی که کلیک می‌کنند، ارزش بیشتری دارند.

    پیش‌بینی آن‌ها مبنی بر این‌که جستجوی هوش مصنوعی تا سال ۲۰۲۸ می‌تواند ارگانیک سنتی را پیشی بگیرد، این تحول را به‌عنوان تکامل ناگزیر می‌بیند که بازاریابان پیشرو باید آن را بپذیرند، نه که علیه آن مقاومت کنند.

    هر دو سازمان به الگوهای داده‌ای مشابه نگاه می‌کنند اما روایت‌های کاملاً متفاوتی می‌سازند.

    • Ahrefs بر کاهش ۳۴٪ کلیک تأکید می‌کند.
    • Semrush بر افزایش ۴.۴ برابر ارزش بازدیدکنندگان تأکید می‌کند.

    هیچ‌یک دروغ نمی‌گویند، اما داستان‌های بسیار متفاوتی تعریف می‌کنند.

    مسئلهٔ ارجاع: انقلابی یا تدریجی؟

    هر سه مطالعهٔ بزرگ تحقیق نشان می‌دهند که از رتبه‌بندی به ارجاع تغییر رخ داده است؛ ذکر شدن در پاسخ‌های تولیدشده توسط هوش مصنوعی به همان اندازه یا حتی بیشتر از موقعیت سنتی اهمیت دارد.

    اما حتی در اینجا نیز تفسیرها متفاوت‌اند.

    • داده‌های Ahrefs که نشان می‌دهند ۷۶٪ ارجاع‌های AI Overview از ۱۰ نتیجه برتر ارگانیک گوگل می‌آید، نشان می‌دهد این تغییر عمدتاً یک پیشرفت تدریجی است. اگر قبلاً به‌خوبی از طریق سئوی سنتی رتبه‌بندی شده‌اید، احتمالاً بیشتر ارجاع می‌شوید. سیستم موجود در بیشتر موارد دست‌نخورده باقی می‌ماند.
    • با این حال، Semrush یادآور می‌شود که ابزارهای جستجوی هوش مصنوعی اغلب صفحات با رتبه پایین‌تر را ارجاع می‌دهند که نشان دهنده یک شکست انقلابی از سلسله‌مراتب رتبه‌بندی سنتی است.
    • یافتهٔ Seer Interactive که نشان می‌دهد جستجوهای برندیک نسبت به غیربرندیک تأثیرات متفاوتی دارند، لایه‌ای دیگر به این معادله می‌افزاید. اقتصاد ارجاع ممکن است بسته به نوع پرسش به‌طور بنیادی متفاوت عمل کند.

    آیا پدیدهٔ ارجاع تنظیم جزئی در روش‌های سئو موجود است یا تحول کلی؟

    دوباره، یک مطالعه وجود دارد که هر روایت دلخواه شما را پشتیبانی می‌کند.

    متغیر پنهان: آنچه هر پژوهشگر می‌خواهد درست باشد

    قابل‌توجه است که هر سازمانی که این پژوهش را انجام می‌دهد، منافع تجاری دارد که ممکن است بر چارچوب‌بندی (framing) اثر بگذارد، حتی اگر روش‌شناسی را تغییر ندهد.

    Ahrefs ابزارهای سئوی خود را می‌فروشد که عمدتاً بر بهینه‌سازی جستجوی سنتی تمرکز دارند.

    روایت که بر مختل‌کردن و پیچیدگی تأکید دارد، نیاز به ابزارهای پیشرفته و تخصص را تقویت می‌کند.

    پژوهش آن‌ها که کاهش کلیک‌ها و چالش سازگاری با جستجوی هوش مصنوعی را برجسته می‌کند، به مدل کسب‌وکارشان خدمت می‌کند.

    Semrush یک پلتفرم جامع بازاریابی دیجیتال ارائه می‌دهد که شامل ابزارهای مبتنی بر هوش مصنوعی است.

    روایتی که بر فرصت و تکامل تأکید دارد تا بحران، آن‌ها را به‌عنوان راهنمایان پیشرو برای آینده معرفی می‌کند. چارچوب خوشبینانهٔ آن‌ها دربارهٔ کیفیت بازدیدکنندگان هوش مصنوعی، موقعیت استراتژیکشان را تقویت می‌کند.

    Seer Interactive به‌عنوان یک آژانس، از پیچیدگی‌ای که نیاز به راهنمایی متخصص دارد، بهره‌مند می‌شود.

    یافته‌های دقیق آن‌ها دربارهٔ تأثیر برن‌برندیک در مقابل برندیک – و تفاوت‌ها در میان انواع مشتریان – ارزش مشاورهٔ استراتژیک سفارشی را نسبت به رویکردهای «یک‌چند‌حالت» تقویت می‌کند.

    پژوهشگران به‌طور طبیعی تمایل دارند به تفسیری که با نگرش و مدل کسب‌وکار خود هم‌راستاست، گرایش داشته باشند.

    واقعیت ویژه به‌ازای هر بخش

    صادقانه‌ترین نتیجه‌گیری از بررسی تمام این پژوهش‌های متناقض این است که تأثیر جستجوی هوش مصنوعی به‌طور رادیکال به هر بخش خاص بستگی دارد.

    پاسخ صحیح به سؤال «جستجوی هوش مصنوعی روی ترافیک و تبدیل‌ها چه تأثیری دارد» این است: «به‌شرایط بستگی دارد».

    این به موارد زیر بستگی دارد:

    • صنعت شما.
    • مدل کسب‌وکار شما.
    • آیا ترافیک شما برندیک است یا غیر‌برندیک.
    • موقعیت مشتریان شما در مسیر خرید.
    • نوع محتوای شما.
    • جمعیت‌شناسی خاص و الگوهای رفتار مخاطبان شما.

    یک سایت تجارت الکترونیک که کالاهای عمومی را از طریق محتوای اطلاعاتی می‌فروشد، ممکن است واقعاً سناریوی کابوس Ahrefs را تجربه کند: کاهش ۳۴٪ کلیک بدون افزایش کیفیت جبران‌کننده.

    یک شرکت نرم‌افزاری B2B با شناخت برند قوی ممکن است همان‌طور که Semrush توصیف می‌کند، از فرصت بهره‌مند شود: بازدیدکنندگان کمتر اما با کیفیت بالاتر.

    یک کسب‌وکار خدمات محلی ممکن است تأثیر جستجوی هوش مصنوعی را به‌طور کل تقریباً احساس نکند، به‌شرطی که مشتریان عمدتاً از جستجوهای برندیک استفاده کنند.

    تجربهٔ Laja با Wynter که می‌گوید مدل‌های زبانی بزرگ «ترافیک تنبل و نامعتبر» می‌فرستند که به‌خرابی تبدیل می‌شود، ممکن است برای کسب‌وکار او که با مطالعات موردی دقیق، مشتریان B2B را تبدیل می‌کند، کاملاً دقیق باشد.

    این به این معنا نیست که یافتهٔ Ahrefs مبنی بر اینکه ترافیک هوش مصنوعی آن‌ها به‌خوبی تبدیل می‌شود، نادرست است؛ چرا که آن‌ها در بخش‌های مختلف با مخاطبان متفاوت و محتوای گوناگون فعالیت می‌کنند.

    توهم روش‌شناسی در مورد قطعیت

    نمونه‌های بزرگ می‌توانند حس قطعیت نادرستی ایجاد کنند که شاید توجیه‌پذیر نباشد.

    مطالعهٔ Kaise و Schulze که بیش از ۹۰۰ سایت تجارت الکترونیک را بررسی کرد، شبیه به‌نظر می‌رسد جامع و قطعی باشد.

    اما ۹۰۰ سایت تجارت الکترونیک، هرچند تعداد زیادی هستند، باز هم نمایانگر یک بخش خاص با ویژگی‌های مشترک هستند.

    یافته‌ها ممکن است برای تجارت الکترونیک کاملاً دقیق باشند اما برای خدمات B2B، نشر یا کسب‌وکارهای محلی به‌طور کامل نادرست باشند.

    به‌صورت مشابه، تحلیل Ahrefs از ۳۰۰,۰۰۰ کلمه کلیدی و بررسی Semrush از ۱۰ میلیون کلمه کلیدی مقیاس چشمگیری ارائه می‌دهند، اما امکان وجود سوگیری‌های سیستماتیک را در موارد زیر حذف نمی‌کنند:

    • چگونه کلمات کلیدی مورد مطالعه قرار گرفتند.
    • چگونه اثرات سنجش شدند.
    • متغیرهای مخدوش‌کننده‌ای که کنترل نشده‌اند.

    اطمینانی که این مطالعات با درصدهای مشخص و نتایج قطعی ارائه می‌دهند، ممکن است بیش از آنچه داده‌ها نشان می‌دهند باشد.

    چارچوب صادقانه‌تر باید عدم قطعیت و تغییرپذیری را بپذیرد، اما این امر داستانی جذاب برای بازاریابی یا رهبری فکری صنعت نیست.

    چه معنایی برای سئوکاران و بازاریابان دارد

    برای متخصصان سئو، بازاریابان و صاحبان وب‌سایتی که می‌خواهند بفهمند چه اتفاقی می‌افتد، پژوهش‌های متناقض یک چالش به حساب می‌آیند.

    نمی‌توانید صرفاً به «داده‌ها» اعتماد کنید؛ زیرا داده‌ها بسته به این‌که چه کسی آن‌ها را تحلیل می‌کند و چه چیزی را می‌سنجد، داستان‌های متفاوتی می‌گویند.

    دالان عملی این است که باید تحلیل خود را برای وضعیت خاص خود انجام دهید، نه اینکه به مطالعات صنعتی برای گفتن آنچه رخ می‌دهد تکیه کنید.

    منابع ترافیک خود را به‌دقت پیگیری کنید. نرخ تبدیل را بر مبنای کانال اندازه‌گیری کنید. هم حجم و هم معیارهای کیفیت را زیرنظارت داشته باشید.

    به‌ویژه رفتار ترافیک جستجوی هوش مصنوعی را برای کسب‌وکار خود بررسی کنید، نه اینکه به میانگین صنعتی تجمیعی بسنده کنید.

    مطالعات فرضیاتی برای آزمون فراهم می‌کنند، نه نتایج قطعی که باید پذیرفت.

    پاسخ به‌صورت خاص برای بخش شما خواهد بود و تنها راه برای شناخت آن، اندازه‌گیری دقیق داده‌های خودتان است.

    مشکل انتخاب روایت

    به‌محض ظهور مطالعات بیشتر در حوزه جستجوی هوش مصنوعی، یک الگوی واضح قابل‌مشاهده است: همین پدیده می‌تواند به‌طرزهای متفاوتی تفسیر شود.

    بسته به نحوهٔ برش داده‌ها – بخش مورد مطالعه، دورهٔ زمانی تحلیل‌شده یا معیارهای مورد تأکید – پژوهش می‌تواند طیفی گسترده از نتایج درباره ترافیک، کیفیت و تأثیر کلی را پشتیبانی کند.

    هر تفسیر می‌تواند به‌نظر داده‌محور و دقیق باشد، اما برداشت‌های استراتژیک اغلب در تضاد هستند.

    این محیط باعث می‌شود سوگیری تأییدی به‌راحتی بروز کند.

    تیم‌ها به‌طور طبیعی مطالعاتی را که با پیش‌فرض‌ها یا اهداف استراتژیک خود هم‌راستاست، ترجیح می‌دهند و به پژوهش‌هایی که جهت متفاوتی نشان می‌دهند، وزن کمتری می‌دهند.

    نتیجه این است که گفت‌وگوی صنعتی به‌گونه‌ای است که بسیاری باور دارند «داده‌ها را دنبال می‌کنند»، اما داده‌های موجود می‌توانند روایت‌های متعددی را پشتیبانی کنند – و روایت انتخابی معمولاً بازتاب‌دهندهٔ اولویت‌ها و زمینه‌هاست نه حقیقتی مطلق و یک‌پارچه.

    حقیقت دربارهٔ عدم قطعیت

    صنایع سئو و بازاریابی دیجیتال بر وعدهٔ تصمیم‌گیری داده‌محور بنا شده‌اند.

    ما اندازه‌گیری می‌کنیم، آزمون می‌گذاریم، بهینه‌سازی می‌کنیم و بازده سرمایه‌گذاری (ROI) را ثابت می‌کنیم.

    وجود مطالعات بزرگ و به‌خوبی انجام‌شده که به نتایج متناقض می‌رسند، این چارچوب را به چالش می‌کشد.

    این نشان می‌دهد که حتی با مجموعه‌های داده بزرگ و تحلیل‌های پیشرفته، درک پدیده‌های پیچیده و چندمتغیره مانند تأثیر جستجوی هوش مصنوعی ممکن است فراتر از توانایی‌های کنونی ما باشد.

    سیستم‌ها بیش از حد پیچیده‌اند، متغیرها بیش از حد فراوان، بخش‌ها بیش از حد متمایز، و چشم‌انداز به‌سرعت در حال تحول است تا هر مطالعهٔ واحد بتواند حقیقت قطعی را به‌دست آورد.

    این به این معنا نیست که پژوهش بی‌فایده است؛ برعکس.

    مطالعاتی که Ahrefs، Semrush، Seer Interactive و دیگران ارائه می‌دهند، نقاط داده‌ای ارزشمند و چارچوب‌هایی برای تفکر دربارهٔ تأثیر جستجوی هوش مصنوعی فراهم می‌کنند.

    اما آن‌ها نمی‌توانند اطمینان و پاسخ‌های کلی‌ و جهانی که بازاریابان نیاز دارند و به‌دنبال آن‌ها هستند، فراهم کنند.

    گام‌های پیش‌رو بدون همخوانی نظرات

    راه پیش‌رو نیاز به سطح سالمی از شک‌گرایی روش‌شناختی دارد.

    وقتی یک مطالعه نتیجه می‌گیرد که جستجوی هوش مصنوعی کلیک‌ها را کاهش می‌دهد، تبدیل را بهبود می‌بخشد یا تأثیر قابل‌سنجشی کمی دارد، مفیدترین واکنش به‌ساده‌گی این است:

    • «پژوهش جالبی است. فکر می‌کنم چه عواملی این نتیجه را شکل داده‌اند و آیا این نتایج برای وضعیت من نیز صادقند.»

    به‌جای جستجوی یک مطالعهٔ حقیقی که تأثیر قطعی جستجوی هوش مصنوعی را نشان می‌دهد، کارشناسان باید:

    • پذیرش خاصیت بخش‌بندی: تجربهٔ شما بسته به صنعت، مدل کسب‌وکار، نوع محتوا، مخاطب و متغیرهای دیگر متفاوت خواهد بود. نتایج کلی عمومی ارزش محدودی دارند.
    • انجام اندازه‌گیری دقیق خود: منابع ترافیک جستجوی هوش مصنوعی را پیگیری کنید، نرخ تبدیل را بر مبنای کانال اندازه‌گیری کنید، هم حجم و هم معیارهای کیفیت را زیرنظارت داشته باشید و داده‌های خاص خود را برای هدایت استراتژی به کار ببرید.
    • آزمون چندین فرضیه: به‌جای فرض اینکه Ahrefs یا Semrush درست‌اند، هر دو امکان را آزمایش کنید. بهینه‌سازی برای ارجاع‌های AI را انجام دهید، در حالی که نظارت می‌کنید آیا کیفیت ترافیک به اندازهٔ کافی بهبود می‌یابد تا کاهش حجم را جبران کند. پاسخ ممکن است برای انواع محتواهای مختلف در سایت شما متفاوت باشد.
    • سؤال پرسیدن از روایت‌ها: وقتی پژوهش به‌طور کامل با منافع تجاری سازمانی که انجام می‌دهد هم‌راستاست، با شک‌گرایی سالم برخورد کنید. این به این معنا نیست که داده‌ها نادرستند، اما نحوهٔ چارچوب‌بندی و تأکید بر جنبه‌های خاص، اهمیت زیادی دارد.

    با ابهام راحت باشید

    حقیقت ناخوشایند است: حتی با وجود مطالعات چندگانهٔ مقیاس‌ بزرگ از شرکت‌های معتبر و پیشرو در صنعت، هنوز پاسخ واضحی دربارهٔ تأثیر جستجوی هوش مصنوعی نداریم.

    ما نقاط داده‌ای، فرضیات، یافته‌های خاص به‌ازای هر بخش و روایت‌های تجاری داریم – نه نتایج قطعی.

    مطالعه‌ای که «همه چیز را حل کند» وجود ندارد، زیرا مسئله بیش از حد پیچیده و متغیر است.

    پژوهشگران می‌توانند شواهدی برای تقریباً هر ادعایی پیدا کنند، بسته به این‌که چه چیزی را اندازه‌گیری می‌کنند و چگونه آن را چارچوب‌بندی می‌کنند.

    این به این معنا نیست که پژوهش بی‌فایده است یا همهٔ نتایج وزن یکسانی دارند.

    به این معناست که زمینه اهمیت دارد، تنوع میان بخش‌ها طبیعی است و تواضع فکری بر قطعیت نادرست ساخته‌شده بر پایهٔ پژوهش‌های منتخب برتر می‌غلبند.

    صرف‌نظر از روایت – بحران یا فرصت، اختلال یا تحول – همیشه می‌توان پژوهشی یافت که از آن پشتیبانی کند.

    مسیر هوشمندانه این است که نتایج را به‌خفیف بپذیریم، آزمایش‌های خودمان را انجام دهیم و در برابر تغییرات مستمر صنعت انعطاف‌پذیر بمانیم.

  • چرا هوش مصنوعی این‌چنین می‌نویسد…؟

    کاش آن‌ها فقط روباتیک بودند! اما در عوض، چت‌بات‌ها صدایی متمایز — و خراشان — به دست آورده‌اند.

    در زمزمه‌ی آرام عصر دیجیتالمان، صدای جدیدی ادبی به گوش می‌رسد. می‌توانید این سبک خاص را در همه‌جا ببینید — از صفحات رمان‌های پرفروش تا ستون‌های روزنامه‌های محلی، حتی در متن منوهای سفارش غذا. با این حال، نویسنده انسان نیست، بلکه شبحی است — نجوا‌ای که از الگوریتم بافته شده و ساختاری از کد. متون تولیدشده توسط هوش مصنوعی، که روزی پژواکی دور از رویاهای علمی‑تخیلی بود، اکنون در همه‌جا است — به‌صورت بسته‌بندی منظم، موقتاً مورد ستایش قرار می‌گیرد و به‌صورت بی‌پایان بازیافت می‌شود. این فقط یک سیلاب نیست — بلکه یک جریان فراگیر است. اما صدای این نویسنده چیزی ناآرام‌کننده دارد. هر جمله می‌خواند، بله، اما صادقانه بگویم؟ کمی خسته‌کننده است. این متن نه بافت تجربه انسانی را می‌گشاید — بلکه طوری خوانده می‌شود که گویی توسط فردی منزوی با وای‑فای و یک فرهنگ لغت نغنچه‌نویس نوشته شده است. نه حسی، نه واقعی، فقط … وجود دارد. و همان‌طور که نوشتن توسط هوش مصنوعی فراگیرتر می‌شود، سؤال مهم‌تری برانگیخته می‌شود — خلاقیت، اصالت یا صرفاً انسان بودن چه معنایی می‌گیرند وقتی که بسیاری ترجیح می‌دهند به نوشتار عجیب و غریب ماشین غوطه‌ور شوند؟

    اگر از من شبیه باشید، از خواندن آن پاراگراف لذت نخواهید برد. تمام جزئیات آن حس هشداری را در من بیدار می‌کند: اینجا چیزی اشتباه است؛ این متن آنچه ادعا می‌کند نیست. این یکی از آن‌ها است. کلمات کاملاً عادی، مانند «تَپِستری»، که بیش از ۵۰۰ سال به‌سادگی نوعی فرش عمودی را توصیف می‌کرد، ناگهان مرا تحت فشار می‌گذارند. هر جمله‌ای که از الگوی «نه X، بلکه Y» پیروی کند، من را به نقطه‌ای می‌رساند که به عصبانی‌ترین حد می‌رساند، حتی اگر این ساختار کاملاً معمولی در آثار ادبی بسیار محترمی همچون کتاب مقدس و شکسپیر هم ظاهر شود. اما این نکات کوچک زبانی که قبلاً معنای خاصی داشتند، اکنون دیگر همان معنا را ندارند. همه اینها الآن نشانه‌های واضحی هستند که نشان می‌دهند آنچه می‌خوانید توسط هوش مصنوعی تولید شده است.

    زمانی که نویسندگان فراوان و سبک‌های متفاوتی وجود داشتند. اکنون، به‌تدریج، یک نویسنده ناشناس تقریباً تمام چیزها را می‌نویسد. گمان می‌شود که این نویسنده تقریباً تمام مقالات دانشجویان مقطع کارشناسی در تمام دانشگاه‌های جهان را می‌نویسد و دلیلی وجود ندارد که بگویم شاخه‌های معتبرتر نوشتار از این پدیده مصونند. سال گذشته، یک نظرسنجی توسط جامعه‌ی نویسندگان بریتانیا نشان داد که ۲۰ درصد از نویسندگان داستانی و ۲۵ درصد از نویسندگان علمی‑غیر‑داستانی اجازه می‌دادند هوش مصنوعی تولیدی بخشی از کارشان را انجام دهد. مقاله‌های پر از مطالب عجیب و نادرست که به‌نظر می‌رسید توسط هوش مصنوعی تولید شده‌اند، در Business Insider، Wired و The Chicago Sun‑Times کشف شده‌اند، اما احتمالاً صدها، اگر نه هزاران مقاله دیگر نیز به‌طور ناشناخته باقی مانده‌اند.

    به‌زودی، تقریباً تمام نوشتار ممکن است نوشتار هوش مصنوعی باشد. در شبکه‌های اجتماعی، این امر قبلاً رخ داده است. اینستاگرام یک هوش مصنوعی یکپارچه در سیستم نظرات خود پیاده‌سازی کرده است: به‌جای گذاشتن یادداشت عجیب‌خودتان بر روی سلفی یک غریبه، به هوش مصنوعی متا اجازه می‌دهید افکار شما را به زبان خود ترجمه کند. این می‌تواند «خنده‌دار»، «حمایتی»، «غیررسمی»، «غیرمعقول» یا «اموجی» باشد. در حالت «غیرمعقول»، به‌جای گفتن «خوب به‌نظر می‌رسی»، می‌توانم بگویم «آن‌قدر تیز هستی که من خودم را بر روی طراوت تو خراشیدم». تقریباً تمام سرویس‌های ایمیل بزرگ اکنون خدمات مشابهی ارائه می‌دهند. پیام پراکنده‌تان می‌تواند به‌سرعت به زبان روان هوش مصنوعی ترجمه شود.

    اعتبار… تصویرگری توسط جیاکومو گامبینری

    اگر تصمیم بگیریم تمام ارتباطات را به نويسنده‌ی همه‌جانبه (Omniwriter) بسپاریم، نوع نویسنده مهم می‌شود. به طرز عجیبی، هوش مصنوعی به نظر نمی‌رسد این را بداند. اگر از چت‌جی‌پی‌تی بپرسید سبک نوشتاری خودش چگونه است، به‌ظاهر با تواضع کاذب می‌گوید نوشتارش زیبا و دقیق است اما به‌گونه‌ای خالی است: بیش از حد تمیز، بیش از حد کارآمد، بیش از حد خنثی، بیش از حد کامل، بدون هیچ‌یک از نقص‌های ظریف که نوشتار انسانی را جالب می‌کند. در واقع، این اصلاً درست نیست. نوشتار هوش مصنوعی با مجموعه‌ای از ویژگی‌های بلاغی به‌طرزی عجیب و غریب مشخص می‌شود که آن را بلافاصله برای هر کسی که تا به حال با آن مواجه شده، متمایز می‌سازد. این اصلاً صاف یا خنثی نیست — بلکه عجیب است.