بلاگ

  • چگونه هوش مصنوعی کار را در Anthropic متحول می‌کند

    هوش مصنوعی چگونه روش کاری ما را تغییر می‌دهد؟ پژوهش قبلی ما درباره‌ٔ تأثیرات اقتصادی هوش مصنوعی به‌صورت کلی به‌‌سر بازار کار پرداخت و طیف وسیعی از مشاغل را در بر می‌گرفت. اما اگر برخی از اولین پذیرندگان فناوری هوش مصنوعی را به‌جزییات بیشتری بررسی کنیم — یعنی خودمان — چه می‌شود؟

    با نگاه به درون، در آگوست ۲۰۲۵ ما از ۱۳۲ مهندس و پژوهشگر Anthropic نظرسنجی کردیم، ۵۳ مصاحبهٔ کیفی عمیق انجام دادیم و داده‌های استفادهٔ داخلی Claude Code را بررسی کردیم تا بفهمیم استفادهٔ هوش مصنوعی چگونه در Anthropic تغییر می‌آورد. دریافت کردیم که استفاده از هوش مصنوعی به‌طور اساسی ماهیت کار برنامه‌نویسان نرم‌افزار را تغییر می‌دهد و هم امید و هم نگرانی ایجاد می‌کند.

    تحقیق ما محیط کاری را که تحت تحول‌های چشم‌گیر قرار دارد، نشان می‌دهد: مهندسان کارهای بسیار بیشتری انجام می‌دهند، به‌صورت «فول‑استاک» (قادر به موفقیت در وظایفی فراتر از تخصص معمول خود) می‌شوند، سرعت یادگیری و تکرار خود را سرعت می‌بخشند و به وظایفی که پیش‌تر نادیده گرفته می‌شدند می‌پردازند. این گسترش دامنه باعث می‌شود افراد دربارهٔ تعادلات فکر کنند — برخی نگران این هستند که ممکن است به‌دلیل این پیشرفت، توانایی فنی عمیق‌تری را از دست بدهند، یا توانایی نظارت مؤثر بر خروجی‌های Claude را کم کنند، در حالی که دیگران این فرصت را برای تفکر گسترده‌تر و در سطوح بالاتر می‌پذیرند. برخی دریافتند که همکاری بیشتر با هوش مصنوعی به‌معنی همکاری کمتر با همکاران است؛ برخی دیگر تعجب می‌کنند که آیا ممکن است در نهایت خودشان را از شغل حذف کنند.

    ما می‌پذیریم که مطالعهٔ تأثیر هوش مصنوعی در شرکتی که خود هوش مصنوعی می‌سازد، نشانگر موقعیتی متمایز است — مهندسان ما دسترسی زودهنگام به ابزارهای پیشرفته دارند، در حوزه‌ای نسبتاً پایدار کار می‌کنند، و خودشان در تحول هوش مصنوعی ای که سایر صنایع را تحت تأثیر قرار می‌دهد، مشارکت می‌کنند. با وجود این، احساس کردیم که به‌طور کلی مفید است این نتایج را پژوهش و منتشر کنیم، زیرا آنچه داخل Anthropic برای مهندسان رخ می‌دهد ممکن است پیش‌نماینده‌ای آموزنده برای تحول گسترده‌تری در جامعه باشد. نتایج ما چالش‌ها و ملاحظاتی را نشان می‌دهد که ممکن است نیاز به توجه زودهنگام در بخش‌های مختلف داشته باشد (اگرچه برای نکات محدودیت‌ها بخش «محدودیت‌ها» در پیوست را ببینید). در زمان جمع‌آوری این داده‌ها، Claude Sonnet 4 و Claude Opus 4 قدرتمندترین مدل‌های موجود بودند و توانایی‌ها همچنان پیشرفت می‌کنند.

    هوش مصنوعی پیشرفته‌تر مزایای بهره‌وری را به همراه دارد، اما در عین حال سؤالاتی دربارهٔ حفظ تخصص فنی، حفظ همکاری معنادار و آمادگی برای آینده‌ای نامطمئن که شاید به‌رویکردهای جدیدی برای یادگیری، راهنمایی و توسعهٔ شغلی در محیط کاری تقویت‌شده با هوش مصنوعی نیاز داشته باشد، برمی‌انگیزد. ما برخی گام‌های اولیه‌ای را که برای بررسی این سؤالات به‌صورت داخلی اتخاذ می‌کنیم در بخش «نگاهی به آینده» زیر بحث می‌کنیم. همچنین در پست اخیر وبلاگمان به ایده‌های سیاست‌گذاری اقتصادی مرتبط با هوش مصنوعی، به‌بررسی واکنش‌های سیاسی ممکن پرداخته‌ایم.

    نتایج کلیدی

    در این بخش، به‌طور خلاصه نتایج نظرسنجی، مصاحبه‌ها و داده‌های Claude Code را مرور می‌کنیم. جزئیات، روش‌ها و نکات محدودیت‌ها در بخش‌های بعدی ارائه می‌شود.

    داده‌های نظرسنجی

    1. مهندسان و پژوهشگران Anthropic بیشترین استفاده را از Claude برای رفع خطاهای کد و یادگیری دربارهٔ پایگاه کد دارند. اشکال‌زدایی و درک کد، رایج‌ترین کاربردها هستند (شکل ۱).
    2. افراد گزارش می‌دهند که استفاده از Claude و بهره‌وری خود را افزایش داده‌اند. کارکنان خود گزارش می‌کنند که در ۶۰٪ کارهای خود از Claude استفاده می‌کنند و بهره‌وری را به‌مقدار ۵۰٪ ارتقا می‌دهند؛ یعنی نسبت به سال گذشته ۲‑۳ برابر افزایش دارد. این بهره‌وری نشان می‌دهد زمان صرف‌شده در هر دستهٔ کار کمی کمتر است، اما حجم خروجی به‌مراتب بیشتر می‌شود (شکل ۲).
    3. ۲۷٪ از کارهای همراه با Claude شامل وظایفی هستند که در غیر این صورت انجام نمی‌شدند، مانند گسترش پروژه‌ها، ساخت ابزارهای «nice‑to‑have» (مثلاً داشبوردهای دادهٔ تعاملی) و کارهای اکتشافی که اگر به‌صورت دستی انجام شوند، هزینه‌کارآمدی ندارند.
    4. بیشتر کارکنان به‌طور مکرر از Claude استفاده می‌کنند و گزارش می‌دهند که می‌توانند «به‌طور کامل» تنها ۰‑۲۰٪ کار خود را به آن واگذار کنند. Claude یک همکار ثابت است، اما استفاده از آن معمولاً شامل نظارت فعال و اعتبارسنجی است، به‌ویژه در کارهای حساس — در مقابل واگذاری وظایفی که نیازی به تأیید ندارند.

    مصاحبه‌های کیفی

    1. کارمندان در حال توسعهٔ حس درک برای واگذاری هوش مصنوعی هستند. مهندسان تمایل دارند وظایفی را واگذار کنند که به‌راحتی قابل تأیید هستند، جایی که می‌توانند «به‌طور نسبتاً آسان صحت آن را سنجش کنند»، با ریسک کم (مثلاً «کدهای آزمایشی یا پژوهشی فوری») یا خسته‌کننده («هر‌چه بیشتر مشتاق انجام وظیفه باشد، کمتر احتمال دارد از Claude استفاده کند»). بسیاری توالی اعتمادی را توصیف می‌کنند؛ ابتدا با وظایف ساده شروع می‌کنند و به‌تدریج کارهای پیچیده‌تر را واگذار می‌نمایند — در حالی که هنوز بیشتر وظایف طراحی یا «سلیقه» را خودشان حفظ می‌کنند، این مرز در حال بازنگری است با بهبود مدل‌ها.
    2. مجموعه مهارت‌ها به حوزه‌های بیشتری گسترش می‌یابد، اما برخی کمتر تمرین می‌کنند. Claude به افراد اجازه می‌دهد مهارت‌های خود را به حوزه‌های بیشتری در مهندسی نرم‌افزار گسترش دهند (مثلاً «من می‌توانم به‌خوبی در فرانت‌اند یا پایگاه‌ داده‌های تراکنشی کار کنم… در حالی که پیش از این از دست زدن به این موارد می‌ترسیدم»)، اما برخی کارمندان به‌طور متناقض نگران انقباض مهارت‌های عمیق‌‌تری هستند که برای نوشتن و نقد کد لازم است — «وقتی تولید خروجی این‌چند آسان و سریع است، سخت‌تر می‌شود که واقعاً زمان بگذاریم تا چیزی یاد بگیریم.»
    3. تغییر رابطه با هنر کدنویسی. برخی مهندسان کمک هوش مصنوعی را می‌پذیرند و بر نتایج تمرکز می‌کنند («فکر می‌کردم واقعاً از نوشتن کد لذت می‌برم، اما به‌جای آن فقط از خروجی‌های تولیدی نوشتن کد لذت می‌برم»)؛ دیگران می‌گویند «قطعاً برخی بخش‌های نوشتن کد را از دست می‌دهم.»
    4. دینامیک‌های اجتماعی در محل کار ممکن است در حال تغییر باشند. Claude اکنون اولین نقطهٔ مراجعه برای پرسش‌هایی است که پیش‌تر به همکاران می‌رفت — برخی گزارش می‌دهند فرصت‌های راهنمایی و همکاری کمتر شده است؛ («من دوست دارم با افراد کار کنم و غم‌انگیز است که الآن کمتر به آن‌ها نیاز دارم… افراد جوان‌تر کمتر برای من سؤال می‌آورند.»)
    5. تحول شغلی و عدم قطعیت. مهندسان گزارش می‌دهند که به سمت کارهای سطح بالاتر مدیریت سیستم‌های هوش مصنوعی حرکت می‌کنند و بهره‌وری قابل‌توجهی را تجربه می‌کنند. اما این تغییرات سؤالاتی دربارهٔ مسیر طولانی‌مدت مهندسی نرم‌افزار به‌عنوان یک حرفه ایجاد می‌کند. برخی احساسات متضادی دربارهٔ آینده بیان می‌کنند: «در کوتاه‌مدت خوش‌بین هستم، اما در بلندمدت فکر می‌کنم هوش مصنوعی همه‌چیز را انجام خواهد داد و من و بسیاری دیگر را بی‌ارزش می‌کند.» دیگران بر عدم قطعیت واقعی تأکید می‌کنند و می‌گویند فقط «سخت است بگویم» نقش‌هایشان در آینده چگونه خواهد بود.

    روندهای استفاده از Claude Code

    1. Claude به‌صورت خودکار به‌تدریج وظایف پیچیده‌تری را بر عهده می‌گیرد. شش ماه پیش، Claude Code حدود ۱۰ عمل را به‌تنهایی انجام می‌داد پیش از آن که به ورودی انسانی نیاز داشته باشد. اکنون عموماً حدود ۲۰ عمل را به‌صورت خودکار انجام می‌دهد و برای تکمیل جریان‌های کاری پیچیده‌تر نیاز به هدایت انسانی کمتر دارد (شکل ۳). مهندسان به‌طور فزاینده‌ای از Claude برای وظایف پیچیده‌ای مثل طراحی/برنامه‌ریزی کد (از ۱٪ به ۱۰٪ استفاده) و پیاده‌سازی ویژگی‌های جدید (از ۱۴٪ به ۳۷٪) (شکل ۴) استفاده می‌کنند.
    2. Claude بسیاری از «نقاط دردسود» را برطرف می‌کند. ۸.۶٪ از وظایف Claude Code شامل اصلاح مشکلات جزئی است که کیفیت زندگی کاری را بهبود می‌بخشد، مانند بازنگری کد برای قابلیت نگهداری (یعنی «برطرف کردن نقاط دردسود») که معمولاً به‌طور پیش‌فرض عقب‌نشینی می‌شود. این اصلاحات کوچک می‌توانند به‌صورت تجمیعی منجر به مزایای بزرگ‌تری در بهره‌وری و کارایی شوند.
    3. همه در حال تبدیل به «فول‑استاک» بیشتر هستند. تیم‌های مختلف از Claude به‌روش‌های متفاوتی استفاده می‌کنند، معمولاً برای تقویت تخصص اصلی خود — تیم امنیت از آن برای تجزیه و تحلیل کدهای ناآشنا استفاده می‌کند، تیم هم‌سویی و ایمنی از آن برای ساخت تجسم‌های فرانت‑اند داده‌های خود بهره می‌برد، و غیره (شکل ۵).

    داده‌های نظرسنجی

    ما ۱۳۲ مهندس و پژوهشگر Anthropic را از سراسر سازمان دربارهٔ استفادهٔ آن‌ها از Claude نظرسنجی کردیم تا بهتر بفهمیم دقیقاً چگونه روزانه از آن استفاده می‌کنند. نظرسنجی را از طریق کانال‌های ارتباط داخلی و تماس مستقیم با کارمندان در تیم‌های متنوع که نمایندهٔ عملکردهای پژوهش و محصول بودند، توزیع کردیم. بخشی از محدودیت‌ها را در پیوست با جزئیات روش‌شناسی بیشتر گنجانده‌ایم و سؤالات نظرسنجی را به اشتراک می‌گذاریم تا دیگران بتوانند رویکرد ما را ارزیابی کرده و برای پژوهش خود سفارشی سازند.

    کدام وظایف کدنویسی افراد از Claude استفاده می‌کنند؟

    از مهندسان و پژوهشگرانی که نظرسنجی کردیم خواستیم تا میزان استفادهٔ خود از Claude برای انواع مختلف وظایف کدنویسی را ارزیابی کنند، مانند «اشکال‌زدایی» (استفاده از Claude برای کمک به رفع خطاهای کد)، «درک کد» (درخواست از Claude برای توضیح کد موجود به‌منظور کمک به کاربر انسانی در درک پایگاه کد)، «بازنگری» (استفاده از Claude برای کمک به بازآرایی کد موجود) و «داده‌کاوی» (مثلاً درخواست از Claude برای تجزیه و تحلیل مجموعه داده‌ها و رسم نمودارهای میله‌ای).

    در ادامه رایج‌ترین وظایف روزانه آورده شده است. بیشترین کارمندان (۵۵٪) Claude را روزانه برای اشکال‌زدایی استفاده می‌کردند. ۴۲٪ Claude را هر روز برای درک کد به‌کار می‌بردند و ۳۷٪ Claude را هر روز برای پیاده‌سازی ویژگی‌های جدید به‌کار می‌بستند. وظایف کمتر مکرر شامل طراحی/برنامه‌ریزی سطح بالا (احتمالاً چون این‌ها وظایفی هستند که مردم تمایل دارند در دست انسان بمانند) و همچنین داده‌کاوی و توسعه فرانت‑اند (احتمالاً چون این‌ها به‌طور کلی وظایف کمتر رایجی هستند). این تقریباً با توزیع داده‌های استفاده از Claude Code که در بخش «روندهای استفاده از Claude Code» گزارش شده هم‌راستا است.

    شکل ۱: نسبت کاربران روزانه (محور افقی) برای انواع مختلف وظایف کدنویسی (محور عمودی).
    شکل ۱: نسبت کاربران روزانه (محور افقی) برای انواع مختلف وظایف کدنویسی (محور عمودی).

    استفاده و بهره‌وری

    کارمندان خود گزارش می‌دهند که ۱۲ ماه پیش در ۲۸٪ کارهای روزانه خود از Claude استفاده می‌کردند و بهره‌وری خود را به‌مقدار +۲۰٪ ارتقا می‌دادند، در حالی که اکنون در ۵۹٪ کارهای خود از Claude بهره می‌برند و به‌طور متوسط +۵۰٪ افزایش بهره‌وری کسب می‌کنند. (این تقریباً با افزایش ۶۷٪ در درخواست‌های ادغام شده (pull‑request) که نشان‌دهنده‌ی تغییرات موفقیت‌آمیز به کد است — به‌ازای هر مهندس در روز — وقتی Claude Code را در کل سازمان مهندسی خود اجرا کردیم، مطابقت دارد.) مقایسهٔ سال‑به‑سال بسیار چشم‌گیر است — این نشان می‌دهد که هر دو شاخص بیش از ۲ برابر در یک سال افزایش یافته‌اند. استفاده و بهره‌وری نیز به‌شدت همبستگی دارند و در انتهای توزیع، ۱۴٪ از پاسخ‌دهندگان گزارش می‌کنند که با استفاده از Claude بهره‌وری خود را بیش از ۱۰۰٪ افزایش داده‌اند — این‌ها «کاربران پیشرفته» داخلی ما هستند.

    برای هشدار به این یافته (و سایر یافته‌های خودگزارش بهره‌وری در ادامه)، دقیقاً اندازه‌گیری بهره‌وری دشوار است (برای جزئیات بیشتر به پیوست مراجعه کنید). پژوهش اخیر METR، یک مؤسسه تحقیقاتی غیرانتفاعی در حوزهٔ هوش مصنوعی، نشان داد که توسعه‌دهندگان باتجربه که با هوش مصنوعی بر روی کدهای آشنای زیاد کار می‌کنند، بهره‌وری خود را بیش از حد برآورد می‌کنند. با این حال، عواملی که METR به‌عنوان عوامل منجر به بهره‌وری کمتر از انتظار شناسایی کرده است (مانند عملکرد ضعیف هوش مصنوعی در محیط‌های بزرگ و پیچیده، یا جایی که دانش ضمنی/زمینهٔ زیادی لازم است) دقیقاً با وظایفی که کارمندان ما گزارش می‌دهند «به Claude واگذار نمی‌کنند» (نگاه به رویکردهای واگذاری هوش مصنوعی، زیر) هم‌راستا است. بهره‌وری ما، که به‌صورت خودگزارش‌شده در کل کارها است، ممکن است نشان‌دهندهٔ توسعهٔ مهارت‌های استراتژیک واگذاری هوش مصنوعی باشد — چیزی که در مطالعهٔ METR در نظر گرفته نشده است.

    الگوی جالب بهره‌وری زمانی ظاهر می‌شود که از کارمندان پرسیده می‌شود، برای دسته‌های کاری که در حال حاضر از Claude استفاده می‌کنند، این ابزار چه تأثیری بر زمان کلی صرف‌شده و حجم خروجی کار در آن دسته دارد. در تقریباً تمام دسته‌های کاری، ما کاهش خالص زمان صرف‌شده را می‌بینیم و افزایش خالص بزرگ‌تری در حجم خروجی مشاهده می‌شود:

    شکل ۲: تأثیر بر زمان صرف‌شده (پنل چپ) و حجم خروجی (پنل راست) برحسب دسته (محور y). محور افقی در هر نمودار نشان‌دهندهٔ کاهش گزارش‌شده (مقادیر منفی)، افزایش (مقادیر مثبت) یا عدم تغییر (خط نقطه‌چین عمودی) در زمان صرف‌شده یا حجم خروجی برای دسته‌های کاری مبتنی بر Claude نسبت به عدم استفاده از Claude است. نوارهای خطا ۹۵٪ بازه اطمینان را نشان می‌دهند. مساحت دایره متناسب با تعداد پاسخ‌ها در هر نقطهٔ ارزیابی است. فقط پاسخ‌دهندگانی که برای هر دسته‌ کاری از Claude استفاده می‌کردند در نظر گرفته شده‌اند.
    شکل ۲: تأثیر بر زمان صرف‌شده (پنل چپ) و حجم خروجی (پنل راست) برحسب دسته (محور y). محور افقی در هر نمودار نشان‌دهندهٔ کاهش گزارش‌شده (مقادیر منفی)، افزایش (مقادیر مثبت) یا عدم تغییر (خط نقطه‌چین عمودی) در زمان صرف‌شده یا حجم خروجی برای دسته‌های کاری مبتنی بر Claude نسبت به عدم استفاده از Claude است. نوارهای خطا ۹۵٪ بازه اطمینان را نشان می‌دهند. مساحت دایره متناسب با تعداد پاسخ‌ها در هر نقطهٔ ارزیابی است. فقط پاسخ‌دهندگانی که برای هر دسته‌ کاری از Claude استفاده می‌کردند در نظر گرفته شده‌اند.

    اما وقتی داده‌های خام را عمیق‌تر بررسی می‌کنیم، می‌بینیم که پاسخ‌های صرف‌وقت در دو سر مخالف متمرکز می‌شوند — برخی افراد زمان بیشتری را برای وظایفی که با Claude همراه‌اند صرف می‌کنند.

    چرا این‌گونه است؟ افراد عموماً توضیح می‌دهند که برای اشکال‌زدایی و پاک‌سازی کدهای Claude (مثلاً «وقتی خودم کد را به‌یک گوشه می‌برم») زمان بیشتری نیاز دارند و بار شناختی بیشتری برای درک کد Claude می‌پذیرند چون خودشان آن را ننوشته‌اند. برخی گفتند زمان بیشتری را برای وظایفی صرف می‌کنند که به‌نوعی توانمندساز هستند — یکی گفت استفاده از Claude به او کمک می‌کند «بر روی وظایفی که قبلاً فوراً رها می‌کردم، پافشاری کنم»؛ دیگری گفت این ابزار به او کمک می‌کند تست‌های دقیق‌تری انجام دهد و همچنین در پایگاه‌های کد جدید بیشتر یاد بگیرد و کاوش کند. به‌نظر می‌رسد مهندسانی که صرف‌وقت را تجربه می‌کنند، وظایفی را انتخاب می‌کنند که به‌سرعت قابل‌تایید برای Claude باشند، در حالی که کسانی که زمان بیشتری صرف می‌کنند، ممکن است در حال اشکال‌زدایی کدهای تولیدشده توسط هوش مصنوعی یا کار در حوزه‌هایی باشند که Claude به راهنمایی بیشتری نیاز دارد.

    همچنین واضح نیست که صرف‌وقت گزارش‌شده به کجا سرمایه‌گذاری می‌شود — آیا به وظایف مهندسی اضافه، وظایف غیرمهندسی، تعامل با Claude یا بازبینی خروجی‌های آن، یا فعالیت‌های خارج از کار اختصاص می‌یابد. چارچوب طبقه‌بندی کار ما تمام راه‌های تخصیص زمان مهندسان را در بر نمی‌گیرد. علاوه بر این، صرف‌وقت ممکن است از تعصبات ادراکی در خودگزارش‌ها ناشی شود. پژوهش بیشتر برای تفکیک این اثرها لازم است.

    افزایش حجم خروجی واضح‌تر و چشمگیرتر است؛ افزایش خالص بزرگ‌تری در تمام دسته‌های کاری مشاهده می‌شود. این الگو منطقی است وقتی در نظر می‌گیریم افراد دربارهٔ دسته‌های کاری (مانند «اشکال‌زدایی» به‌صورت کلی) گزارش می‌دهند، نه دربارهٔ وظایف منفرد — یعنی افراد می‌توانند زمان کمی کمتر را در دستهٔ اشکال‌زدایی صرف کنند در حالی که خروجی کلی اشکال‌زدایی را به‌مراتب بیشتر تولید می‌کنند. اندازه‌گیری مستقیم بهره‌وری بسیار دشوار است، اما این داده‌های خودگزارش نشان می‌دهد که هوش مصنوعی در Anthropic عمدتاً از طریق افزایش حجم خروجی بهره‌وری را ارتقا می‌دهد.

    Claude، کارهای جدید را امکان‌پذیر می‌کند

    یکی از سؤال‌هایی که کنجکاو شدیم: آیا Claude کارهای جدیدی را به‌صورت کیفی امکان‌پذیر می‌کند، یا کارهای مبتنی بر Claude در نهایت توسط کارمندان انجام می‌شد (اگرچه شاید با سرعت کمتری)؟

    مردم تمایل دارند مدل‌های فوق‌قابلیت‌دار را شبیه یک نمونهٔ واحد ببینند، همانند دریافت یک ماشین سریع‌تر. اما داشتن یک میلیون اسب … به شما امکان می‌دهد ایده‌های متعددی را آزمایش کنید … این هیجان‌انگیز و خلاق‌تر است که دامنهٔ بیشتری برای کشف داشته باشید.

    همان‌طور که در بخش‌های بعدی خواهیم دید، این کار جدید اغلب شامل مهندسانی است که به‌سراغ وظایفی خارج از تخصص اصلی خود می‌روند.

    چقدر کار می‌تواند به‌طور کامل به Claude واگذار شود؟

    اگرچه مهندسان به‌طور مکرر از Claude استفاده می‌کنند، بیش از نیمی گفتند که می‌توانند «به‌طور کامل» تنها ۰‑۲۰٪ از کارهای خود را به Claude واگذار کنند. (شایان ذکر است که تفسیر «به‌طور کامل واگذار» می‌تواند از وظایفی که بدون هیچ‌گونه تأیید هستند تا وظایفی که فقط به نظارت سبک نیاز دارند، متفاوت باشد.) در توضیح دلایل، مهندسان کار فعال و تکراری با Claude را توصیف کردند و خروجی‌های آن را تأیید می‌کردند — به‌ویژه برای وظایف پیچیده یا حوزه‌های حساس که استانداردهای کیفیت کد مهم هستند — در مقابل واگذاری وظایفی که نیازی به تأیید ندارند.

    مصاحبه‌های کیفی

    در حالی که این نتایج نظرسنجی نشان‌دهندهٔ بهره‌وری قابل‌توجه و تغییر الگوهای کاری است، سؤالاتی دربارهٔ تجربهٔ مهندسان از این تغییرات روزانه به‌وجود می‌آید. برای درک بعد انسانی این معیارها، ما مصاحبه‌های عمیق را با ۵۳ مهندس و پژوهشگر Anthropic که به نظرسنجی پاسخ دادند، انجام دادیم تا بینش بیشتری دربارهٔ نحوهٔ تفکر و احساس آن‌ها نسبت به این تغییرات در محل کار به‌دست آوریم.

    رویکردهای واگذاری هوش مصنوعی

    مهندسان و پژوهشگران در حال توسعهٔ استراتژی‌های مختلفی برای بهره‌برداری مؤثر از Claude در جریان کاری خود هستند. افراد عموماً وظایفی را واگذار می‌کنند که:

    خارج از زمینهٔ کاربر و پیچیدگی کم: «من Claude را برای چیزهایی استفاده می‌کنم که زمینهٔ کم دارم، اما فکر می‌کنم پیچیدگی کلی هم کم است.»

    «اکثریت مشکلات زیرساختی که دارم، دشوار نیستند و می‌توانند توسط Claude حل شوند… من در Git یا Linux مهارت کافی ندارم… Claude کاری عالی برای جبران کمبود تجربهٔ من در این حوزه‌ها انجام می‌دهد.»

    قابل تأیید آسان: «این به‌طور مطلق شگفت‌انگیز است برای همه چیزهایی که تلاش اعتبارسنجی نسبت به ایجاد کمتر است.»
    به‌وضوح تعریف‌شده یا خودمحدود: «اگر یک زیرمجموعه از پروژه به‌طور کافی از بقیه جدا باشد، من Claude را برای امتحان کردن می‌سپارم.»
    کیفیت کد اهمیت چندانی ندارد: «اگر کد آزمایشی یا پژوهشی باشد، مستقیم به Claude می‌سپارم. اگر…
  • حالت هوش مصنوعی گوگل در ۶۹٪ از جست‌وجوهای تراکنشی ترافیک می‌فرستد: داده‌های جدید

    آزمون‌های جدید تجربه کاربری نشان می‌دهند که حالت هوش مصنوعی کلیک‌های با ارزش را حذف نمی‌کند. کاربران همچنان هنگام انتخاب پزشک، دندانپزشک و سایر خدمات، به وب‌سایت‌ها سر می‌زنند.

    داستان سئو در حال حاضر ساده است: حالت هوش مصنوعی گوگل ترافیکی ارسال نمی‌کند. اگر این حالت به تجربه پیش‌فرض جست‌وجوی گوگل تبدیل شود، وب‌سایت شما از کلیک‌ها گرسنه می‌شود.

    با این حال یک مشکل وجود دارد: مطالعاتی که ادعا می‌کنند «هوش مصنوعی ترافیک نمی‌فرستد» تقریباً تماماً بر پرس‌وجوهای اطلاعاتی تمرکز دارند.

    بله، اگر کسی بخواهد بداند کارسین‌وم سلول بازال به چه شکلی است، هوش مصنوعی آن کلیک را از بین می‌برد.

    اما وقتی کسی بخواهد یک متخصص پوست پیدا کند تا آن خال را بررسی کند، چه می‌شود؟

    تا کنون هیچ‌کس مطالعه‌ای از این دست به اشتراک نگذاشته است. بنابراین ما تصمیم گرفتیم این مشکل را برطرف کنیم.

    ما اولین مطالعه UX را که به‌طور خاص بر قصد تراکنشی در حالت هوش مصنوعی متمرکز بود، انجام دادیم. ۵۲ شرکت‌کننده از ایالات‌متحده و کانادا را مشاهده کردیم که نزدیک به ۲۲ ساعت به‌دنبال خدمات با مشارکت بالا جست‌وجو کردند.

    این مواردی است که ما آموختیم.

    1. ۶۹٪ از کاربران حالت هوش مصنوعی به یک وب‌سایت مراجعه کردند

    هنگامی که کاربران مأمور به انجام جست‌وجوهای تراکنشی (یافتن دندانپزشک، ارائه‌کننده بوتاکس یا متخصص پوست) بودند، ۶۹٪ از جلسات حالت هوش مصنوعی منجر به کلیک به یک وب‌سایت شد.

    بازدیدهای وب‌سایت در مقابل ماندن در حالت هوش مصنوعی

    در مطالعهٔ ما، تنها ۲۷٪ از کاربران احساس «آماده برای تصمیم‌گیری» را صرفاً بر پایهٔ خلاصهٔ هوش مصنوعی داشتند (۴٪ باقی‌مانده به‌جای آن به جست‌وجوی سنتی گوگل و پروفایل‌های شبکه‌های اجتماعی مراجعه کردند تا تصمیم بگیرند).

    کاربران از حالت هوش مصنوعی برای ایجاد یک مجموعه ملاحظاتی استفاده می‌کنند، نه برای اینکه به آن‌ها گفته شود چه کاری باید انجام دهند.

    2. رتبه‌بندی #۱ دیگر «برنده‑ همه‌چیز» نیست

    به مدت ۳۰ سال، سئو یک بازی بوده است که در آن جایگاه شماره ۱ بیشترین پاداش‌ها را به خود اختصاص می‌داد.

    حالت هوش مصنوعی قواعد تعامل را تغییر می‌دهد؛ در مطالعهٔ ما، ۸۹٪ از شرکت‌کنندگان بیش از یک کسب‌وکار را کلیک کردند.

    تعداد کسب‌وکارهای بررسی‌شده در حالت هوش مصنوعی

    کاربران به‌دنبال یک توصیهٔ تک نیستند؛ آنها از هوش مصنوعی برای ایجاد یک مجموعه ملاحظاتی استفاده می‌کنند. به‌طور متوسط، شرکت‌کنندگان ما در هر جلسه ۳٫۷ نتیجه را بررسی کردند، به‌طوری‌که از هر ۱۰ کاربر، یک نفر فقط یک کسب‌وکار را چک کرد.

    این یک تغییر پارادایمی عظیم است. 

    دیگر نیازی نیست منابع خود را برای تعقیب یک رتبهٔ برتر هدر دهید. باید برای حضور در «مجموعه ملاحظاتی» – یعنی ۳ تا ۵ نتیجهٔ برتر – مبارزه کنید. اگر در آن مجموعه باشید، شانس موفقیت دارید.

    کاربران همچنان روی شما کلیک می‌کنند، اما احتمالاً همچنین روی رقبای شما نیز کلیک می‌نمایند.

    3. ۱۶٪ از کاربران برای تصمیم‌گیری به محتوای بالای صفحه تکیه کردند

    ما عادت کرده‌ایم فرض کنیم که کاربران اسکرول نمی‌کنند.

    این مورد در کاربران حالت هوش مصنوعی صادق نیست. ۸۴٪ از شرکت‌کنندگان ما اسکرول کردند تا مجموعه ملاحظاتی را ببینند.

    چون کاربران نتایج هوش مصنوعی را به‌عنوان یک فهرست منتخب می‌بینند نه یک پاسخ تک، تمایل به کاوش دارند. آنها در فهرست به جست‌وجوی بهترین گزینه می‌پردازند، نه فقط اولین گزینه.

    4. عکس‌ها چندان مهم نیستند (اما نظرات همه‌چیز هستند)

    فقط ۲۱٪ از کاربران عکس‌های پیوست‌شده به پروفایل تجاری گوگل را مشاهده کردند. حتی برای کار بوتاکس، این عدد فقط به ۲۴٪ افزایش یافت.

    پس، چه چیزی واقعاً کلیک را ایجاد می‌کند؟ شواهد اجتماعی.

    ۷۴٪ از کاربران قبل از تصمیم‌گیری، نظرات را در پروفایل تجاری گوگل می‌خوانند.

    در رابط هوش مصنوعی، متن وزن بیشتری نسبت به تصاویر دارد. گالری پرزرق‌وبرق شما زیباست، اما اعتبار شماست که کلیک را به دست می‌آورد.

    حكم: حالت هوش مصنوعی تمام ترافیک شما را نخواهد گرفت

    از همه مهم‌تر، حالت هوش مصنوعی ترافیک باارزش‌ترین شما را که شامل افرادی است که می‌خواهند به شما پرداخت کنند، نخواهد گرفت: ترافیکی که از افرادی که می‌خواهند به شما پول بدهند، تشکیل شده است.

    حالت هوش مصنوعی نیازمند بازنگری در اهداف سئو است:

    • هدف قدیم: رتبه #۱ یا نابود شدن.
    • هدف جدید: در پنج رتبه برتر (مجموعه ملاحظاتی) ظاهر شوید و با شواهد اجتماعی برتر (نظرات) کلیک را به دست آورید.

    اگر کسب‌وکار شما به ترافیک «چگونه…» متکی است، بله، باید نگران باشید.

    اما اگر شما یک کسب‌وکار محلی یا ارائه‌دهنده خدمات هستید که از سئوی محلی بهره می‌برد، نگران نباشید.

    مطالعه: ۶۹٪ از جست‌وجوهای تراکنشی در حالت هوش مصنوعی ترافیک ایجاد می‌کنند

  • گوگل سرفصل‌های خبری Google Discover را با عناوینی که به‌ طرز خنده‌داری بد ساخته شده‌اند، جایگزین می‌کند

    این سرفصل‌های تولیدشده توسط هوش مصنوعی یا اشتباه هستند، یا کلیک‌باره‌اند، یا کاملاً فاقد زمینه‌اند.

    Vivo X90 Pro در Google Discover

    خلاصه

    • گوگل طبق گزارش‌ها سرفصل‌های خبری را در Google Discover با عناوین تولیدشده توسط هوش مصنوعی جایگزین می‌کند.
    • این عناوین هوش مصنوعی اغلب نادرست هستند، بیش از حد به کلیک‌باره تکیه می‌کنند یا فاقد زمینه‌اند.
    • گوگل به‌نظر می‌رسد توضیح داد که این در حال حاضر فقط یک «آزمایش کوچک رابط کاربری» است.

    صفحه Discover گوگل یک مرکز اختصاصی برای مقالات خبری و سایر اطلاعات است که به شما امکان می‌دهد به راحتی دربارهٔ موضوعات مورد علاقه‌تان به‌روز شوید. شرکت تا به‌حال خلاصه‌های تولیدشده توسط هوش مصنوعی را که می‌توانند نظرها را تقسیم کنند، به Discover افزوده بود، اما حالا با سرفصل‌های تولیدشده توسط هوش مصنوعی که به‌ طور واقعی بد هستند، یک قدم فراتر رفته است.

    The Verge متوجه شد که گوگل سرفصل‌های خبری در Discover را با عناوین تولیدشده توسط هوش مصنوعی جایگزین می‌کند. متأسفانه، این نسخه‌های هوش مصنوعی به‌ طرز مسخره‌ای بد و اغلب نادرست هستند. این سرفصل‌ها اغلب کسل‌کننده‌اند یا به‌ شدت به سمت کلیک‌باره رفتن متمایل هستند.

    به عنوان مثال، مقاله‌ای در PC Gamer عنوان اصلی زیر را داشت: «کار کودک شکست‌ناپذیر: بازیکنان Baldur’s Gate 3 کشف می‌کنند چگونه می‌توانند با بهره‌گیری از توانایی تغییر شکل و قوانین رسانه‌ای آلمان، ارتشی از کودکانی که نمی‌توانند کشته شوند، بسازند». اما گوگل این سرفصل را با عنوان تولیدشده توسط هوش مصنوعی «بازیکنان BG3 از کودکان سوءاستفاده می‌کنند» جایگزین کرد.

    در همین حین، مقاله‌ای در 9to5Google با عنوان «از خرید شارژر بی‌سیم Qi2 ۲۵ وات به امید سرعت بالاتر خودداری کنید – به‌جای آن، نسخهٔ «کندتر» را انتخاب کنید» بود. گوگل این عنوان را با سرفصل تولیدشده توسط هوش مصنوعی «Qi2 سرعت پیکسل‌های قدیمی‌تر را کاهش می‌دهد» جایگزین کرد.

    سرخط‌های هوش مصنوعی در Google Discover توسط The Verge

    هوش مصنوعی گوگل همچنین عنوان «قیمت Steam Machine فاش شد» را برای یک مقالهٔ Ars Technica تولید کرد که اصلاً قیمتی را بیان نکرده بود. به هر حال، غول جستجو به‌نظر می‌رسد سرفصل‌های چهارکلمه‌ای با کیفیت عمدتاً ضعیف تولید می‌کند.

    یک نمایندهٔ گوگل به The Verge گفت که این فقط یک آزمایش برای حال حاضر است و نه یک ویژگی کامل:

    این اسکرین‌شات‌ها یک آزمایش کوچک رابط کاربری را برای بخش کوچکی از کاربران Discover نشان می‌دهد. ما در حال آزمایش یک طراحی جدید هستیم که مکان سرفصل‌های موجود را تغییر می‌دهد تا جزئیات موضوع قبل از اینکه کاربران به لینک‌های وب گشت بزنند، راحت‌تر قابل هضم باشد.

    این بیان نشان می‌دهد که این عناوین تولیدشده توسط هوش مصنوعی احتمالاً به‌طور گسترده منتشر نخواهند شد، حداقل نه در وضعیت فعلی‌شان. با این حال، نگران‌کننده است که گوگل این آزمایش را حتی برای برخی کاربران راه‌اندازی کرده است در حالی که نتایج به‌ وضوح بد هستند. همچنین هیچ برچسب یا اعلام واضحی وجود ندارد که این یک عنوان تولیدشده توسط هوش مصنوعی است و اینکه گوگل پشت این سرفصل‌هاست نه ناشر. بنابراین می‌توان انتظار داشت که تعداد زیادی از خوانندگان پس از فریب خوردن توسط یک عنوان کلیک‌بارهٔ کم‌تلاشی، نسبت به انتشارات خشمگین شوند.

    ما با این حال از گوگل درخواست جزئیات بیشتری دربارهٔ این آزمایش کرده‌ایم، این که آیا برنامه‌ای برای انتشار گسترده وجود دارد یا خیر، و آیا رسانه‌ها می‌توانند از این ویژگی انصراف دهند. در صورت دریافت پاسخ از طرف گوگل، مقاله خود را به‌روزرسانی خواهیم کرد.

  • دره سیلیکون سایت‌های شبیه به آمازون و جیمیل می‌سازد تا عوامل هوش مصنوعی را آموزش دهد

    چند استارتاپ جدید در حال ساخت نسخه‌های شبیه‌سازی‌شده از وب‌سایت‌ها هستند تا هوش مصنوعی بتواند از اینترنت استفاده کند و شاید جایگزین نیروی کار اداری شود.

    نوشته: کِید متز

    در این تابستان، وکلای یونایتد ایرلاینز دریافتند که فردی نسخه‌ای تقریباً کامل از وب‌سایت این شرکت ساخته است.

    این نسخهٔ دیجیتال تمام دکمه‌ها و منوهای مشابه برای رزرو پروازها، هتل‌ها و خودروهای کرایه‌ای را ارائه می‌داد. همچنین شامل لینک‌های آبی یکسان برای پیگیری امتیازهای پروازهای مکرر و مرور تخفیف‌ها بود. حتی از نام تجاری و لوگوی یونایتد استفاده می‌کرد.

    به‌همین‌منظور، وکلای یونایتد یک اعلان رسمی حذف ارسال کردند و سایت را به نقض حق‌ تکثیر متهم کردند.

    Div Garg، که شرکت کوچکی این سایت شبیه‌سازی‌شده را ساخته بود، بلافاصله نام سایت را به «Fly Unified» تغییر داد و لوگوی یونایتد را حذف کرد. او قصد نقض حقوق تکثیر یونایتد را نداشت. او و شرکتش نسخهٔ United.com را به‌عنوان بستر آموزشی برای هوش مصنوعی ساختند.

    شرکت AGI آقای Garg جزو تعداد زیادی از استارتاپ‌های دره سیلیکون است که در ماه‌های اخیر وب‌سایت‌های محبوب را بازآفرینی کرده‌اند تا سیستم‌های هوش مصنوعی بتوانند به‌صورت مستقل اینترنت را مرور کرده و کارهای خاصی مانند رزرو پروازها را انجام دهند. اگر سامانهٔ هوش مصنوعی نحوهٔ استفاده از نسخهٔ شبیه‌سازی‌شدهٔ United.com را یاد بگیرد، می‌تواند از سایت واقعی نیز بهره‌مند شود.

    تصویری از وب‌سایتی شبیه به صفحهٔ رزرو یک شرکت هواپیمایی.
    شرکت AGI سایت شبیه‌سازی‌شده یونایتد ایرلاینز با نام «Fly Unified» را به‌عنوان بستر آموزشی برای هوش مصنوعی ساخته است.

    این سایت‌های سایه‌ای جدید بخش مهمی از تلاش‌های صنعت فناوری برای تبدیل چت‌بات‌های امروز به عوامل هوش مصنوعی هستند؛ سیستمی که برای رزرو سفرها، زمان‌بندی جلسات، ساخت نمودارهای میله‌ای و انجام وظایف محاسباتی دیگر طراحی شده‌اند. در سال‌های پیش‌رو، بسیاری از شرکت‌ها بر این باورند که عوامل هوش مصنوعی پیشرفت بیشتری خواهند کرد و ممکن است جایگزین برخی کارگران سفیدپوش شوند.

  • پس از اینکه کیت‌کت عزیز توسط Waymo کشته شد، فروشگاه مشروبات الکلی گربه‌ای جدید به‌دست آورد

    میراث کیت‌کت ادامه دارد: با ککو، جدیدترین گربهٔ فروشگاه محلی خیابان ششم‌دهم آشنا شوید

    یک گربهٔ سیا‎می روی پیشخوان یک فروشگاه مشروبات الکلی نشسته و توسط بطری‌ها و انبارهای کوچک غذای خشک گربه احاطه شده است.
    ککو، گربهٔ جدید مارکت رندا، دوشنبه ۲ دسامبر ۲۰۲۵. عکس: اسکار پالما.

    حدود یک ماه پس از آن‌که یک خودروی خودران Waymo به کیت‌کت برخورد کرد و او را به مرگ کشاند، گربهٔ محبوب محله میشن، مارکت رندا، در اواخر هفتهٔ گذشته یک گربهٔ جدید را به فروشگاه‌اش خوش‌آمد گفت: ککو، بچه گربهٔ سفید شش‌ماهه‌ای با چشم‌های آبی که از همان ابتدا روزانه دل ده‌ها مشتری را به‌دست می‌آورد.

    «کیت‌کت دیگر نخواهد بود، اما او جرقه‌ای دوباره به محله برمی‌گرداند»، مردی به نام AJ گفت که پس از نوازش ککو، از فروشگاه خیابان ششم‌دهم و والنسیا خارج شد. «مردم از همین حالا دیوانه‌اش شده‌اند.»

    مردی که پشت یک نمایشگر شیشه‌ای پر از تصاویر گربه‌ها ایستاده است.
    ککو گربهٔ جدید مارکت رندا است، اما یاد کیت‌کت هنوز پابرجاست. عکس: اسکار پالما.

    یک همسایه هفته گذشته ککو را به مایک زیدان، صاحب مارکت رندا، هدیه داد. پس از چندین پیشنهاد، نام ککو از طریق یک نظرسنجی در اینستاگرام انتخاب شد. این نام به کلئوپاترا، ملکهٔ مصر بین سال‌های ۵۱ تا ۳۱ پیش از میلاد ارجاع دارد، گفت یکی از کارمندان مارکت رندا، آبراهام ت.

    مشتریان نه تنها گربه را آوردند، بلکه دو تابلو بزرگ دست‌ساز با نوشتهٔ «KitKat Market» که اکنون بر روی درب ورودی و کنار صندوق قرار دارند، نیز تحویل دادند. وقتی از مارکت رندا دربارهٔ تغییر نام پرسیده شد، دو کارمند گفتند نه، اما تصمیم گرفته‌اند این تابلوها را برای گرامیداشت دوست فوت‌مانده‌شان نگه دارند.

    آمبر بی‌شاپ، یک همسایه، گفت که خوشحال است که ککو را در مسیر رفت و آمدش به محل کار می‌بیند. صبح سه‌شنبه، او چند نوازش صبح بخیر به گربهٔ سفید داد وقتی از کنار او می‌گذشت.

    ککو برای جایگزینی کیت‌کت نیست؛ او برای خودِ ککو اینجا است، گفت کارمند فروشگاه، آبراهام. او هنوز در حال کاوش فضای فروشگاه است و به آن عادت می‌کند. «می‌بینم او در اطراف فروشگاه می‌دود و به تلویزیون‌ها پا می‌زند»، AJ گفت. تا کنون، به‌نظر می‌رسد مقصد دلخواه او بالای یخچال‌ها باشد.

    او توصیف شد به عنوان پرشور، دوستانه، بامزه و کمی ترسیده از دنیای بیرون؛ دو روز پیش، برای تعقیب کبوترها به بیرون رفت و وقتی کامیونی عبور کرد، از ترس به داخل فروشگاه دوید.

    دیوید ویدال، یکی دیگر از کارمندان مارکت رندا، گفت که تحت نظارت او، ککو تا حد امکان در داخل فروشگاه می‌ماند. به‌هرحال، کیت‌کت پس از آن‌که یک خودروی Waymo به او در خیابان اصابت کرد، درگذشت.

    شرکت Waymo در اکتبر اعلام کرد که قصد دارد به‌منظور گرامیداشت کیت‌کت، به یک سازمان محلی حمایت از حیوانات کمک مالی کند، اگرچه دوشنبه این شرکت تأیید نکرد که این کمک انجام شده است، نام سازمان یا مبلغ دقیق آن را فاش نکرد. همچنین دوشنبه، Waymo تأیید کرد که یکی دیگر از خودروهایش در تاریخ ۳۰ نوامبر در محله Western Addition به سگی برخورد کرده است. هنوز مشخص نیست که آیا سگ از این حادثه زنده مانده است یا نه.

    اما در خیابان ششم‌دهم، پس از تمام اتفاقاتی که در ماه گذشته رخ داد، حضور ککو روح جامعه را تقویت کرده است، گفت آبراهام ت.

    «ککو به ما امید می‌دهد»، او گفت. «مشتریان هم‌اکنون او را دوست دارند.»

  • مدیرعامل IBM می‌گوید که «هیچ راهی» وجود ندارد که صرف تریلیون‌ها دلار برای دیتاسنترهای هوش مصنوعی در هزینه‌های زیرساختی امروز، سودآور باشد

    آروند کریشنا، مدیرعامل IBM، در تصویر.
    آروند کریشنا، مدیرعامل IBM، نسبت به «باوری» که هزینه‌های دیتاسنتر می‌تواند سودآور باشد، شکاک بود.ریکاردو ساوی/گیتی ایمیجز برای همایش سالانه کونکوردیا

    شرکت‌های هوش مصنوعی برای رقابت در مسیر هوش عمومی (AGI) میلیاردها دلار بر روی دیتاسنترها هزینه می‌کنند. آروند کریشنا، مدیرعامل IBM، نظراتی درباره محاسبات پشت این شرط‌بندی‌ها دارد.

    هزینه‌های دیتاسنتر در حال افزایش است. در تماس گزارش سوددهی اخیر متا، واژه‌هایی مانند «ظرفیت» و «زیرساخت هوش مصنوعی» بارها به کار رفت. گوگل تازه اعلام کرد که قصد دارد در نهایت این دیتاسنترها را در فضا بسازد. سؤال این است که آیا درآمد حاصل از دیتاسنترها هرگز می‌تواند تمام هزینه‌های سرمایه‌ای را توجیه کند؟

    در پادکست «Decoder»، کریشنا به این نتیجه رسید که به‌نظر می‌رسد «هیچ راهی» وجود ندارد که این شرکت‌ها بتوانند بازدهی هزینه‌های سرمایه‌ای (CapEx) خود بر دیتاسنترها به‌دست آورند.

    او افزود که محاسبات ساده‌اش بر پایه هزینه‌های امروز است؛ «زیرا هر چیز در آینده فرضی است»، و کریشنا گفت که برای تامین یک دیتاسنتر یک گیگاواتی تقریباً ۸۰ میلیارد دلار هزینه می‌برد.

    او گفت: «خب، این عدد امروز است. پس اگر بخواهید ۲۰ تا ۳۰ گیگاوات متعهد شوید، این یک شرکت است؛ یعنی حدود ۱٫۵ تریلیون دلار هزینه سرمایه‌ای (CapEx).»

    کریشنا همچنین به استهلاک چیپ‌های هوش مصنوعی داخل دیتاسنترها به‌عنوان عامل دیگری اشاره کرد: «باید تمام آن را در پنج سال استفاده کنید، زیرا در آن زمان باید آن را دور بیندازید و جایگزین کنید.»

    سرمایه‌گذار مایکل بوری اخیراً به‌دلیل نگرانی‌های استهلاکی، هدف خود را به سمت نودیا قرار داد و این منجر به کاهش قیمت‌های سهام هوش مصنوعی شد.

    کریشنا گفت: «اگر به کل تعهدات جهان در این حوزه نگاه کنم، در تعقیب AGI، به‌نظر می‌رسد حدود ۱۰۰ گیگاوات با این اعلام‌ها وجود دارد.»

    با هزینه ۸۰ میلیارد دلار برای هر یک از ۱۰۰ گیگاوات، برآورد کریشنا برای تعهدات محاسباتی حدود ۸ تریلیون دلار می‌شود.

    او اظهار داشت: «نظر من این است که هیچ راهی برای بازدهی بر این هزینه نیست؛ چرا که ۸ تریلیون دلار سرمایه‌گذاری یعنی تقریباً ۸۰۰ میلیارد دلار سود برای پوشش بهره صرفاً لازم است.»

    دست‌یابی به این مقدار گیگاوات، نیازمند هزینه‌های عظیم از سوی شرکت‌های هوش مصنوعی بوده و فشار برای دریافت کمک خارجی را به‌وجود آورده است. در نامه‌ای در اکتبر به دفتر سیاست‌های علمی و فناوری کاخ سفید، سام آلتمن، مدیرعامل OpenAI، پیشنهاد داد که ایالات متحده هر سال ۱۰۰ گیگاوات ظرفیت انرژی اضافه کند.

    مجری پادکست «Decoder»، نیلای پتِل، اشاره کرد که آلتمن معتقد بود OpenAI می‌تواند بازدهی بر هزینه‌های سرمایه‌ای خود ایجاد کند. OpenAI متعهد به صرف حدود ۱٫۴ ترایلین دلار در معاملات مختلف شده است. در اینجا، کریشنا گفت که با آلتمن اختلاف نظر دارد.

    کریشنا گفت: «این یک باور است. این همان چیزی است که برخی مردم دنبال می‌کنند. من این را از دیدگاه آن‌ها می‌فهمم، اما متفاوت از موافقت با آن است.»

    کریشنا روشن کرد که نسبت به این باور نیست که مجموعه فناوری‌های فعلی ما را به AGI — پیشرفت فناوری‌ای که هنوز دست نیافته و به‌طور عمومی این‌گونه تعریف می‌شود که هوش مصنوعی بتواند وظایف پیچیده را بهتر از انسان انجام دهد — برساند. او احتمال دستیابی به آن بدون یک پیشرفت فناوری بیشتر را بین ۰ تا ۱ درصد برآورد کرد.

    چندین رهبر برجسته دیگر نیز نسبت به سرعت‌گیری به سمت AGI تردید داشته‌اند. مارک بنیوف گفت که نسبت به فشار برای AGI «به‌طرز فراوان مشکوک» است و این را به هیپنوتیزم تشبیه کرد. اندرو نگ، بنیان‌گذار Google Brain، اظهار کرد که AGI «بیش از حد تبلیغی» است، و آرتور منچ، مدیرعامل Mistral، گفت که AGI یک «حرکت بازاریابی» است.

    حتی اگر AGI هدف باشد، مقیاس‌پذیری محاسبه شاید کافی نباشد. ایلیا سوتسکِور، هم‌بنیان‌گذار OpenAI، در نوامبر گفت که دوران مقیاس‌پذیری به پایان رسیده و حتی مقیاس‌پذیری صد برابر مدل‌های زبانی بزرگ (LLM) نیز تحول کامل نخواهد داشت. او افزود: «دوباره به دوران تحقیق بازمی‌گردیم، اما این‌بار با رایانه‌های بزرگ.»

    کریشنا که کار خود را در IBM در سال ۱۹۹۰ آغاز کرد و سپس در سال ۲۰۲۰ به عنوان مدیرعامل و در سال ۲۰۲۱ به عنوان رئیس هیئت مدیره منصوب شد، از مجموعه ابزارهای هوش مصنوعی فعلی تمجین کرد.

    او گفت: «فکر می‌کنم این می‌تواند تریلیون‌ها دلار بهره‌وری در بخش‌های تجاری ایجاد کند؛ برای وضوح کامل بگویم.»

    اما کریشنا گفت که AGI به «فناوری‌های بیشتری» نسبت به مسیر فعلی مدل‌های زبانی بزرگ (LLM) نیاز دارد. او ترکیب دانش صریح (hard knowledge) با LLMها را به‌عنوان یک مسیر احتمالی آینده پیشنهاد کرد.

    احتمال رسیدن به AGI با این رویکرد چقدر است؟ او گفت: «حتی در آن صورت، من همچنان «شاید» می‌گویم.»

  • چرا تکنیک‌های پیشرفتهٔ معنایی هنوز در PPC و SEO مهم هستند

    هوش مصنوعی می‌تواند کلیدواژه‌ها را به‌صورت گسترده تولید کند، اما تکنیک‌های معنایی ساختار و کیفیت سیگنال مورد نیاز را فراهم می‌کنند تا PPC و SEO در مسیر درست باقی بمانند.

    اکنون که هر کسی می‌تواند با هوش مصنوعی کلیدواژه‌ها را تولید کرده و در عرض چند دقیقه یک کمپین جستجوی پولی راه‌اندازی کند، تصور می‌شود که کار سخت تمام شده است.

    اما ساخت عملکرد ساختاریافته و قابل گسترش همچنان نیازمند درک واقعی از نحوهٔ کار جستجو است.

    تکنیک‌هایی مانند n‑gramها، فاصله لِونشتین و تشابه جاکارد به بازاریابان جستجو این امکان را می‌دهند که داده‌های نامنظم عبارات جستجو را تفسیر کنند، زمینهٔ مشتری را اعمال کنند و چارچوب‌های قابل اعتمادی بسازند که تنها هوش مصنوعی قادر به تولیدشان نیست. در ادامه نحوهٔ کار این تکنیک‌ها بیان می‌شود.

    نقش n‑gram‌ها در تحلیل PPC و SEO

    به n‑gramها به‌عنوان «n» کلمه‌ای که یک کلیدواژه را تشکیل می‌دهند، فکر کنید. به‌عنوان مثال، در عبارت «مراقب خصوصی نزدیک» ما داریم:

    • ۳ یوگرام (یک کلمه): «خصوصی»، «مراقب»، و «نزدیک»
    • ۲ بیگرام (دو کلمهٔ پی‌در‑پی): «خصوصی مراقب» و «مراقب نزدیک»
    • ۱ تیگرام (سه کلمهٔ پی‌در‑پی): «خصوصی مراقب نزدیک»

    n‑gramها برای ساده‌سازی فهرست کلیدواژه‌ها مفید هستند.

    این هفته، چندین کمپین را که بیش از ۱۰۰٬۰۰۰ عبارت جستجو داشتند، بازسازی کردم. با استفاده از n‑gramها، توانستم این فهرست‌ها را به موارد زیر کاهش دهم:

    • حدود ۶٬۰۰۰ یوگرام.
    • حدود ۲۳٬۰۰۰ بیگرام.
    • حدود ۲۷٬۰۰۰ تیگرام.

    با این مجموعه‌های کوچکتر، ممکن است متوجه شوید که تمام کلیدواژه‌های حاوی یوگرام «رایگان» عملکرد ضعیفی دارند، بنابراین می‌توانید «رایگان» را به‌عنوان منفی‌سازی گسترده (Broad Match Negative) حذف کنید.

    از سوی دیگر، ممکن است ببینید که «نزدیک» عملکرد بسیار خوبی دارد، که شما را ترغیب می‌کند تا با تغییرات محلی و صفحات فرودی متفاوت آزمایش کنید.

    با این حال، محدودیت‌های واضحی وجود دارد:

    • برای این روش به حجم بزرگی از عبارات جستجو نیاز دارید؛ بنابراین این روش بیشتر برای بودجه‌های بزرگ مناسب است.
    • هر چه مقدار «n» بزرگتر شود، این روش کم‌کارآمدتر می‌شود، زیرا خروجی‌های بزرگ‌تری تولید می‌کند که هدف را از بین می‌برد. در این مرحله، به روش‌های پیشرفته‌تری مانند فاصله لِونشتین یا تشابه جاکارد نیاز خواهید داشت.

    دسته‌بندی کلیدواژه‌ها با استفاده از n‑gramها

    تحلیل داده‌های SEO و PPC اغلب نیازمند مرور حجم عظیمی از عبارات جستجوی بلند‑دم (Long‑tail) است که بسیاری از آنها تنها یک بار ظاهر می‌شوند و داده‌های بسیار کمی دارند.

    n‑gramها به تبدیل این داده‌های بی‌نظم بلند‑دم به اطلاعات واضح و قابل مدیریت کمک می‌کنند.

    این امکان را می‌دهد که هزینه‌های هدر رفته را کاهش دهید، فرصت‌های جدید را شناسایی کنید و ساختار قابل گسترشی بسازید.

    • ابتدا داده‌های عبارات جستجو را خروجی بگیرید. در PPC، این داده‌ها شامل هزینه، نمایش، کلیک، تبدیل‌ها و ارزش تبدیل به‌تفکیک عبارت جستجو می‌شود.
    • برای هر n‑gram، هزینه، نمایش، کلیک، تبدیل‌ها و ارزش تبدیل را جمع کنید.
    • سپس CPA، ROAS، CTR، CVR و سایر معیارهای مرتبط را محاسبه کنید.

    با این مجموعه‌دادهٔ کوتاه‌تر و قابل‌هضم، می‌توانید n‑gramهای با هزینهٔ بالا که تبدیل نمی‌شوند (منفی‌ها) و آنهایی که تبدیل می‌شوند (مثبت‌ها) را رتبه‌بندی کنید.

    از اینجا، گروه‌های تبلیغاتی را بر پایه n‑gramهای تکراری که عملکرد را بهبود می‌بخشند، بسازید.

    به‌عنوان مثال، ممکن است متوجه شوید که n‑gramهای مرتبط با اضطراری (مانند «۲۴/۷»، «همین روز»، «فوری» و غیره) اغلب نرخ تبدیل بالاتری ارائه می‌دهند. شما می‌توانید این موارد را برای کنترل مؤثرتر تقسیم‌بندی کنید.

    خلاصهٔ مطلب: n‑gramها به شما کمک می‌کنند تا موضوعاتی را که شایستهٔ توجه ویژه هستند، شناسایی کنید.

    به‌عمق‌تر نگاه کنید: چگونه جواهرات پنهان در حساب‌های جستجوی پولی خود را کشف کنید

    چگونه از فاصله لِونشتین برای بهبود کیفیت کلیدواژه‌ها استفاده کنیم

    فاصله لِونشتین تعداد حداقل ویرایش‌های تک‌نمزی – افزودن، حذف یا جایگزینی – مورد نیاز برای تبدیل یک رشته به رشتهٔ دیگر را اندازه‌گیری می‌کند.

    اگرچه ممکن است پیچیده به نظر برسد، ولی مفهوم آن در واقع ساده است.

    فاصله لِونشتین بین «cat» و «cats» برابر ۱ است، زیرا تنها کافی است حرف «s» را اضافه کنید. بین «cat» و «dog»، فاصله ۳ است. و به همین ترتیب.

    یک کاربرد رایج، شناسایی اشتباهات املایی برندها و رقبا است که در عبارات جستجوی شما ظاهر می‌شوند.

    به‌عنوان مثال، «uber» و «uver» فاصله لِونشتین ۱ دارند، بنابراین می‌توانید نسخهٔ اشتباه‌نویسی شده را با اطمینان از کمپین‌های غیر برند حذف کنید.

    می‌توانید همین منطق را برای ارزیابی ارتباط کلیدواژه‌ها به‌کار ببرید.

    اگر فاصلهٔ بین یک کلیدواژه و عبارات جستجویی که با آن مطابقت دارد، زیاد باشد – مثلا ۱۰ یا بیشتر – احتمالاً این عبارات ارتباط کمی با کلیدواژه دارند و نیاز به بررسی دارند.

    از سوی دیگر، فاصلهٔ کم معمولاً به این معنی است که این عبارات ایمن هستند و نیازی به بررسی دستی ندارند.

    یکپارچه‌سازی کلیدواژه‌های PPC با استفاده از فاصله لِونشتین

    پس از استفاده از n‑gramها برای ساختن خوشه‌های اولیهٔ کلیدواژه‌ها، ممکن است همچنان با هزاران عبارت جستجو برای سازماندهی در یک ساختار کمپین قابل‌کار مواجه شوید.

    مرتب‌سازی دستی ۶٬۰۰۰ یوگرام گزینه‌ای نیست. در اینجا فاصله لِونشتین به‌عنوان یک ابزار اساسی ظاهر می‌شود.

    هدف این است که گروه‌های تبلیغاتی را که هدفشان کلیدواژه‌های تقریباً یکسان هستند، ادغام کنید تا از ساختار بیش از حد جزئی و شبیه به SKAG جلوگیری شود.

    جزئی‌کاری بیش از حد، گزارش‌گیری و مدیریت حساب را پیچیده می‌کند و منجر به پیشنهادهای ناکارآمد و هزینه‌های هدر رفته می‌شود.

    با استفاده از همان مجموعه‌داده، فاصله لِونشتین بین عبارات جستجو در گروه‌های مختلف تبلیغاتی را محاسبه کنید.

    سپس کلیدواژه و گروه تبلیغاتی نزدیک‌ترین را با استفاده از آستانهٔ از پیش تعیین‌شده شناسایی کنید – به‌عنوان مثال، ۳ برای دقت بالا.

    این به‌صورت ایمن امکان یکپارچه‌سازی کلیدواژه‌ها و گروه‌های تبلیغاتی را می‌دهد. با آستانهٔ سست‌تر، مثلاً ۶، می‌توانید گروه‌ها را بر اساس شباهت یا نیت نیز تجمیع یا نام‌گذاری کنید.

    در ادامه یک مثال ساده نشان می‌دهد که چرا سه کلیدواژهٔ زیر می‌توانند در یک گروه قرار گیرند:

    فاصله لِونشتین 24/7 plumber 24 7 plumber 247 plumber
    24/7 plumber 0 1 1
    24 7 plumber 1 0 1
    247 plumber 1 1 0

    به‌عمق‌تر نگاه کنید: چگونه از کلیدواژه‌های منفی در PPC برای حداکثر هدف‌گیری و بهینه‌سازی هزینه‌های تبلیغاتی استفاده کنید

    پیشرفت بیشتر با تشابه جاکارد

    در PPC، می‌توانید تشابه جاکارد را به‌عنوان شاخصی برای درک همپوشانی بین دو مجموعهٔ n‑gram ساده‌سازی کنید.

    محاسبهٔ این مقدار ساده است: تعداد انیگرام‌های مشترک بین دو مجموعه تقسیم بر مجموع تعداد انیگرام‌های منحصر به‌فرد در هر دو مجموعه.

    اگرچه ممکن است فنی به نظر برسد، اما تصور آن ساده است. می‌توانید به این شکل تصور کنید:

    • تشابه جاکارد = قرمز / سبز
    A به‌علاوه B - A و B

    در ادامه مثال‌های عینی آورده شده است:

    • «new york plumber» و «plumber new york» = 1 (همهٔ سه انیگرام در هر دو مجموعه وجود دارند، فقط ترتیب متفاوت است)
    • «new york plumber» و «NYC plumber» = 0.25 (تنها «plumber» مشترک است و مجموع چهار انیگرام وجود دارد)

    تشابه جاکارد گام اولیهٔ مفیدی برای حذف تکرار کلیدواژه‌های مشابه است. این معیار به‌طور اساسی فاصلهٔ بین منطق مطابقت عبارات قدیمی و مطابقت گستردهٔ اصلاح‌شده را پر می‌کند.

    ولی این روش محدودیت‌هایی دارد؛ زیرا به معنی واژگان توجه نمی‌کند.

    در مثال بالا، «new york» و «NYC» باید معادل شناخته شوند، اما محاسبهٔ جاکارد آن‌ها را متفاوت در نظر می‌گیرد.

    برای مدیریت این سطح از دقت، به تکنیک‌های پیشرفته‌تری نیاز است (که در مقالهٔ بعدی به آن می‌پردازم).

    ترکیب تشابه جاکارد و فاصله لِونشتین

    به یک کمپین دورهٔ امنیت سایبری که شامل ۱۰ کلیدواژهٔ برتر زیر است، نگاه کنید:

    کلیدواژه جستجوهای متوسط ماهانه در Semrush (ایالات‑متحده)
    دوره‌های امنیت سایبری 5,400
    دوره آنلاین امنیت سایبری 1,900
    دوره‌های امنیت سایبری رایگان 1,300
    دوره‌های امنیت سایبری آنلاین 1,300
    دوره امنیت سایبری 1,000
    دوره‌های امنیت سایبری آنلاین 880
    دوره امنیت سایبری گوگل 880
    دوره‌های امنیت سایبری رایگان 720
    دوره‌های رایگان امنیت سایبری 590
    دوره‌های امنیت سایبری آنلاین 480

    با ترکیب نسخه‌های جمع و مفرد و نسخه‌های با ترتیب متفاوت این کلیدواژه‌ها، می‌توانید ۱۰ کلیدواژه برتر را به چهار کلیدواژهٔ کاربردی‌تر فشرده کنید:

    • «دوره‌های امنیت سایبری».
    • «دوره‌های امنیت سایبری آنلاین».
    • «دوره‌های رایگان امنیت سایبری».
    • «دوره امنیت سایبری گوگل».

    می‌توانید از n‑gramها برای این کار استفاده کنید، اما مقیاس‌پذیری تحلیل n‑gramها در میان هزاران کلیدواژه می‌تواند طاقت‌فرسا باشد.

    رویکرد مؤثرتری این است که هر دو معیار شباهت را به‌صورت توالی به‌کار ببرید.

    • ابتدا فاصله لِونشتین را برای ترکیب پرس‌و‌جوهای بسیار مشابه اعمال کنید.
    • سپس از تشابه جاکارد برای حذف تکرارهای با ترتیب متفاوت استفاده کنید.
    • در هر مرحله، معیارهای کلیدی (KPIs) معمولی نظیر هزینه، تبدیل‌ها و سایر معیارها را جمع می‌کنید تا تحلیل n‑gram همچنان عملی بماند.

    نتیجه، ساختاری واضح و فشرده است که حتی با افزایش حجم عبارات جستجو نیز پایدار می‌ماند.

    بازسازی کمپین‌های جستجوی پولی با تکنیک‌های معنایی پیشرفته

    با به‌کارگیری تکنیک‌های معنایی مناسب، می‌توانید مجموعه‌های عظیم کلیدواژه‌ها را به‌سرعت و با نتایج باکیفیت و ثابت بازسازی کنید.

    هوش مصنوعی می‌تواند با ارائهٔ خلاصهٔ اولیه کمک کند، اما نباید به‌صورت کامل به آن وابسته باشید.

    در غیر این صورت، این یک مثال کلاسیک از “ورودی زباله، خروجی زباله” خواهد بود.

    مطابقت گسترده می‌تواند قدرتمند باشد، اما باعث ایجاد سر و صدای بیشتری می‌شود. این تکنیک‌ها به شما کمک می‌کنند تا از درست‌ماندن عبارات خود اطمینان حاصل کنید.

    از n‑gramها، فاصله لِونشتین و تشابه جاکارد برای اعمال زمینهٔ مشتری به داده‌های خام جستجو استفاده کنید و ساختاری ثابت ایجاد کنید که با اهداف کمپین شما هماهنگ باشد.

    در ابتدا ممکن است این کار غرق‌کننده به نظر برسد؛ بنابراین جدول خلاصه‌ای در پایان مقاله آورده شده است:

    سناریو بهترین تکنیک دلیل
    شناسایی الگوهای با قصد بالا در صادرات عظیم عبارات جستجو n-grams به‌سرعت تم‌ها را آشکار می‌کند؛ ابعاد را کاهش می‌دهد
    حذف کلیدواژه‌های تکراری / نزدیک به تکراری در مقیاس بزرگ فاصله لِونشتین تشخیص شباهت‌های املایی و ساختاری
    حذف تکرار کلیدواژه‌های بازآرایی‌شده یا کمی متفاوت تشابه جاکارد مقایسه توکنی که به ترتیب حساس نیست
    ایجاد خوشه‌های قابل گسترش برای بازسازی کمپین ترکیب: فاصله لِونشتین → تشابه جاکارد → n-gram دنباله، دقت و فشرده‌سازی را فراهم می‌کند

    نویسندگان مشارکت‌کننده دعوت می‌شوند تا برای Search Engine Land محتوا تولید کنند و بر پایه تخصص و مشارکتشان در جامعهٔ جستجو انتخاب می‌شوند. مشارکت‌کنندگان ما تحت نظارت تیم تحریریه کار می‌کنند و محتواهایشان برای کیفیت و مرتبط بودن با خوانندگان بررسی می‌شود. Search Engine Land متعلق به Semrush است. از نویسنده درخواست نشده است تا به‌صورت مستقیم یا غیرمستقیم به Semrush اشاره کند. نظراتی که بیان می‌شود، نظرات شخصی آن‌هاست.

  • «بزرگ‌ترین تصمیم تا کنون»: جارد کاپلان درباره اجازه دادن به هوش مصنوعی برای خودآموزی

    دانشمند ارشد Anthropic می‌گوید خودمختاری هوش مصنوعی می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها کنترل را از دست می‌دهند.

    رابرت بوث، سردبیر فناوری در بریتانیا

    جارد کاپلان
    جارد کاپلان. تصویر: کیسی کلیفورد/گاردین
    کاپلان پشت یک میزی که نزدیک به پنجره‌های بزرگ با نمایی از آسمان‌خراش است
    تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

    انسانیت تا سال ۲۰۳۰ باید تصمیم بگیرد که آیا می‌خواهد «ریسک نهایی» را بپذیرد و به سامانه‌های هوش مصنوعی اجازه دهد خود را آموزش دهند و قدرتمندتر شوند، به گفته یکی از برجسته‌ترین دانشمندان هوش مصنوعی جهان.

    جارد کاپلان، دانشمند ارشد و یکی از مالکین استارتاپ آمریکایی Anthropic با سرمایه‌گذاری ۱۸۰ میلیارد دلار (۱۳۵ میلیارد پوند)، گفت تصمیمی در پیش است درباره این‌که به سامانه‌ها تا چه حد خودمختاری برای توسعه‌پذیری اعطا شود.

    این اقدام می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها از کنترل خارج می‌شوند.

    در مصاحبه‌ای درباره مسابقهٔ به شدت رقابتی برای دستیابی به هوش عمومی مصنوعی (AGI) – که گاهی اوقات «فوق‌هوش» نامیده می‌شود – کاپلان از دولت‌های بین‌المللی و جامعه می‌خواهد تا در آنچه او «بزرگ‌ترین تصمیم» می‌نامد، مشارکت کنند.

    Anthropic بخشی از گروهی از شرکت‌های پیشرو در حوزه هوش مصنوعی شامل OpenAI، Google DeepMind، xAI، Meta و رقبای چینی به‌سرکردگی DeepSeek است که برای تسلط بر هوش مصنوعی به‌سرعت به رقابت می‌پردازند. دستیار هوش مصنوعی گسترده‌استفاده‌اش، Claude، به‌ویژه در میان مشتریان تجاری محبوبیت یافته است.

    صفحه تبلتی که می‌گوید: «تحقیقات و محصولات هوش مصنوعی که ایمنی را در لبه پیشرفت می‌گذارند»
    تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

    کاپلان گفت که اگرچه تلاش‌ها برای همسویی فناوری به سرعت پیشرو با منافع انسانی تا کنون موفق بوده‌اند، رها کردن آن برای بهبود خود به‌صورت بازگشتی «به‌نوعی ریسک نهایی است، چون شبیه این است که اجازه می‌دهیم هوش مصنوعی آزادانه پیش برود». او افزود که این تصمیم ممکن است بین سال‌های ۲۰۲۷ تا ۲۰۳۰ اتخاذ شود.

    «اگر تصور کنید این فرآیند را ایجاد می‌کنید که در آن هوش مصنوعی‌ای دارید که هوشمندتر از شما است، یا تقریباً به‌ اندازهٔ شما، در نتیجه هوش مصنوعی‌ای بسیار هوشمندتر می‌سازید».

    کاپلان پشت یک صندلی پر‌کوسک، کنار یک گیاه خانگی بزرگ
    تصویر: کیسی کلیفورد/گاردین

    «به‌نظر می‌رسد فرآیندی ترسناک است. نمی‌دانید به کجا خواهید رسید».

    کاپلان پس از گذشت هفت سال فعالیت در این حوزه، از یک فیزیک‌دان نظری به میلیاردر هوش مصنوعی تبدیل شده است. در مصاحبه‌ای جامع، او همچنین گفت:

    • سیستم‌های هوش مصنوعی قادر خواهند بود «اکثریت مشاغل سفیدپوش» را در دو تا سه سال آینده انجام دهند.
    • فرزند شش‌ساله‌اش هرگز در کارهای علمی مثل نوشتن مقاله یا انجام آزمون ریاضی بهتر از هوش مصنوعی نخواهد بود.
    • نگرانی دربارهٔ از دست دادن کنترل انسان‌ها بر فناوری، اگر هوش‌های مصنوعی خود را بهبود دهند، صحیح است.
    • شرط‌ها در مسابقه به سوی AGI «دلهره‌آور» به‌نظر می‌رسند.
    • در بهترین سناریو، هوش مصنوعی می‌تواند پژوهش‌های زیست‌پزشکی را شتاب دهد، بهبود سلامت و امنیت سایبری، افزایش بهره‌وری، فراهم کردن زمان آزاد بیشتر برای مردم و کمک به رشد و شکوفایی انسان‌ها را ممکن سازد.

    کاپلان در دفتر مرکزی Anthropic در سانفرانسیسکو، زمانی که با گاردین ملاقات کرد، توجه داشت که دکور با فرش‌های بافتنی و موسیقی جاز پرانرژی، نگرانی‌های بنیادین درباره فناوری در حال توسعه را در پس‌زمینه پنهان می‌کند.

    آسمان‌خراش‌ها بازتاب‌دار بر نمای شیشه‌ای یک ساختمان
    سانفرانسیسکو به مرکز استارتاپ‌ها و سرمایه‌گذاری‌های هوش مصنوعی تبدیل شده است. تصویر: واشنگتن پست/گتی ایمجز

    کاپلان استاد فیزیک تحصیل‌کرده در استنفورد و هاروارد است که پیش از پیوستن به OpenAI در سال ۲۰۱۹ و هم‌بنیان‌گذاری Anthropic در سال ۲۰۲۱، تحقیقات خود را در دانشگاه جانز هاپکینز و در سرن سوئیس انجام داده است.

    او تنها کسی که در Anthropic نگرانی‌های خود را بیان می‌کند نیست. یکی از هم‌بنیان‌گذارانش، جک کلارک، در ماه اکتبر گفت هم خوش‌بین است و هم «به‌طور عمیق ترسیده» از مسیر پیشرفت هوش مصنوعی، که او «موجودی واقعی و رازآلود، نه یک ماشین ساده و پیش‌بینی‌پذیر» می‌نامید.

    کاپلان گفت نسبت به تطبیق سامانه‌های هوش مصنوعی با منافع بشریت تا سطح هوش انسانی، بسیار خوش‌بین است، اما دربارهٔ پیامدهایی که در صورت عبور از این آستانه ممکن است پیش آید، نگران است.

    من فکر می‌کنم پیشگیری از تصاحب قدرت و سوء استفاده از فناوری نیز بسیار مهم است.

    کاپلان با دستان جمع‌ شده به سمت پایین نگاه می‌کند
    تصویر: کیسی کلیفورد/گاردین

    دومین ریسک به امنیت مربوط می‌شود؛ زیرا هوش‌های مصنوعی خودآموخته می‌توانند توانایی‌های انسانی در پژوهش‌های علمی و توسعهٔ فناوری را فراتر ببرند.

    به‌نظر می‌رسد بسیار خطرناک باشد که در دست‌های نادرست قرار گیرد.

    پژوهش‌های مستقل دربارهٔ مدل‌های پیشرفتهٔ هوش مصنوعی، از جمله ChatGPT، نشان می‌دهد که دامنهٔ وظایفی که هوش‌های مصنوعی می‌توانند انجام دهند، هر هفت ماه دو برابر می‌شود.

    آیندهٔ هوش مصنوعی

    رقبا در رقابت برای ایجاد فوق‌هوش. این مقاله با همکاری تیم طراحی تحریریه تهیه شده است. برای اطلاعات بیشتر از این سری مقاله‌ها بخوانید.

    نویسندگان

    Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo

    طراحی و توسعه

    Rich Cousins, Harry Fischer, Pip Lev, Alessia Amitrano

    ویراستاران تصویر

    Fiona Shields, Jim Hedge, Gail Fletcher

    کاپلان نگران این است که سرعت پیشرفت به‌گونه‌ای است که کل بشریت نتوانسته است قبل از پرش دوبارهٔ فناوری، به آن عادت کند.

    «من دربارهٔ این موضوع نگرانم … شاید افرادی مثل من همه دیوانه شوند و همه‌چیز به یک حد ثابت برسد»، او گفت. «شاید بهترین هوش مصنوعی تا الآن همان هوش مصنوعی باشد که در حال حاضر داریم. اما ما واقعاً به این فکر نداریم. ما معتقدیم که هوش مصنوعی همچنان بهبود خواهد یافت.»

    او افزود: «این مساله‌ای است که به‌سرعت پیش می‌رود و مردم لزوماً زمان کافی برای هضم آن یا فهمیدن اینکه چه کاری باید انجام دهند ندارند.»

    Anthropic در رقابت با OpenAI، Google DeepMind و xAI برای توسعه سامانه‌های هوش مصنوعی پیشرفته‌تر در مسیر AGI است. کاپلان توصیف کرد که فضای منطقه خلیج سانفرانسیسکو «قطعا بسیار شدید است، هم از نظر اهمیت هوش مصنوعی و هم از منظر رقابت‌پذیری».

    «راهی که ما به آن نگاه می‌کنیم این است که همه چیز در یک روند نمایی از نظر سرمایه‌گذاری، درآمد، توانمندی‌های هوش مصنوعی، و چگونگی پیچیدگی وظایفی که هوش مصنوعی می‌تواند انجام دهد، پیش می‌رود»، او گفت.

    سرعت پیشرفت به این معناست که ریسک افت یکی از رقباء و عقب‌ماندگی آن‌ها زیاد است. «اهمیت‌ها برای ماندن در لبهٔ پیشرفت بالا است؛ به‌طوری که اگر از منحنی نمایی خارج شوید، به‌سرعت می‌توانید حداقل از نظر منابع خیلی عقب بمانید.»

    تا سال ۲۰۳۰، مراکز داده‌های جهانی برای همگامی با تقاضای توان محاسباتی، به‌طبق برآورد مک‌کنزی، به ۶٫۷ میلیون میلیارد دلار نیاز خواهند داشت. سرمایه‌گذاران می‌خواهند شرکت‌هایی را که نزدیک به پیش‌درآمدهای این حوزه هستند، حمایت کنند.

    نام و لوگوی Claude بر روی صفحهٔ بزرگ پشت یک گوشی هوشمند که لوگوی مشابهی دارد
    بعضی از بزرگ‌ترین دستاوردها در استفاده از هوش‌های مصنوعی برای نوشتن کدهای کامپیوتری به‌دست آمده است. تصویر: Cheng Xin/Getty Images

    در عین حال، Anthropic به‌خاطر تشویق به تنظیم مقررات هوش مصنوعی شناخته شده است. بیانیهٔ ماموریت آن شامل بخشی با عنوان «ما سیستم‌های ایمن‌تری می‌سازیم» می‌باشد.

    «ما واقعاً نمی‌خواهیم وضعیت به‌مانند سفینهٔ اسپوتنیک باشد که دولت ناگهان بیدار می‌شود و می‌گوید: «اوه، هوش مصنوعی مسئلهٔ بزرگی است» … ما می‌خواهیم قانون‌گذاران تا حد امکان در طول مسیر آگاه باشند تا بتوانند این موضوع را در نظر بگیرند.»

    در ماه اکتبر، موضع Anthropic باعث انتقاد از سوی سفیدخانه دونالد ترامپ شد. دیوید ساکس، مشاور هوش مصنوعی رئیس‌جمهور آمریکا، Anthropic را به‌عنوان «افرینندهٔ ترس» متهم کرد تا با تشویق به تنظیم قوانین ایالتی که به موضع آن‌ها کمک می‌کند و استارتاپ‌ها را آسیب می‌زند.

    پس از اینکه ساکس ادعا کرد که Anthropic خود را «دشمنی» نسبت به دولت ترامپ معرفی کرده است، داریو آمودی، هم‌بنیان‌گذار کاپلان و مدیرعامل Anthropic، در برابر این ادعا واکنش نشان داد و گفت که این شرکت به‌صورت عمومی برنامهٔ عملیاتی هوش مصنوعی ترامپ را تحسین کرده، با جمهوری‌خواهان همکاری داشته و همانند سفیدخانه می‌خواهد پیشرو بودن ایالات متحده در حوزه هوش مصنوعی را حفظ کند.

  • استارتاپ هوش مصنوعی پشتیبانی‌شده توسط Nvidia با ارزش‌گذاری ۴ میلیارد دلاری، گسترش عمده در لندن را اعلام کرد

    نکات کلیدی

    • استارتاپ تولید ویدیو با پشتیبانی Nvidia، Luma AI، در حال آغاز یک موج جذب نیرو در لندن است.
    • این شرکت آمریکایی دوره سرمایه‌گذاری ۹۰۰ میلیونی دلاری را که توسط Humain رهبری شد، اعلام کرد؛ که باعث رسیدن به ارزش‌گذاری ۴ میلیارد دلاری شد.
    • Luma قصد دارد تا اوایل ۲۰۲۷ حدود ۲۰۰ نفر را در لندن استخدام کند.

    استارتاپ تولید ویدیو پشتیبانی‌شده توسط Nvidia، Luma AI، به موج رو به رشدی از شرکت‌های فناوری آمریکایی که عملیات خود را در انگلستان راه‌اندازی می‌کنند، پیوسته است؛ و برنامه‌های عمده‌ای برای گسترش در لندن که روز سه‌شنبه فاش شد، دارد.

    این استارتاپ مستقر در پاولو آلتو، در نظر دارد تا اوایل سال ۲۰۲۷ حدود ۲۰۰ نفر—معادل تقریباً ۴۰٪ از نیروی کار خود—در مرکز جدید خود در لندن جذب کند؛ که در حوزه‌های تحقیق، مهندسی، مشارکت‌ها و توسعه استراتژیک فعالیت می‌کند.

    این گسترش دو هفته پس از اعلام دوره سرمایه‌گذاری ۹۰۰ میلیونی دلاری توسط شرکت هوش مصنوعی Humain، متعلق به صندوق سرمایه‌گذاری عمومی عربستان، انجام می‌شود که باعث رسیدن به ارزش‌گذاری بیش از ۴ میلیارد دلار شد. این استارتاپ پیش از این از حمایت Nvidia نیز بهره‌مند شده بود.

    Luma در حال ساخت «مدل‌های جهانی» است؛ دسته‌ای از مدل‌های هوش مصنوعی که می‌توانند از ویدیو، صدا و تصویر همراه با متن یاد بگیرند، همان‌طور که مدل‌های زبانی بزرگ (LLMs) به‌کار رفته در ChatGPT توسط OpenAI و Gemini توسط گوگل استفاده می‌کنند.

    استارتاپ در حال حاضر بازارهای بازاریابی، تبلیغات، رسانه و سرگرمی را هدف خود قرار داده است؛ با مدل‌های ویدیویی خود که از طریق رابط برنامه‌نویسی کاربردی (API) و به‌عنوان بخشی از بسته ابزارهای خلق محتوا به فروش می‌رسد.

    «با این جمع‌آوری سرمایه از دوره Series C و ساخت زیرساخت‌های محاسباتی جهانی پیش رو، ما سرمایه و ظرفیت لازم برای ارائه هوش مصنوعی در مقیاس جهان به همه خالقان محتوا را داریم»، امیت جین، مدیرعامل و هم‌بنیان‌گذار Luma AI گفت. «راه‌اندازی در سراسر اروپا و خاورمیانه گام منطقی بعدی برای قرار دادن این توانایی مستقیماً در دست قصه‌گویان، آژانس‌ها و برندهای جهانی است.»

    ژان به CNBC گفت که انگلستان نقطه شروع این گسترش به‌دلیل دسترسی به استعدادها است.

    ژان گفت: «لندن از بهترین افراد برای تحقیق برخوردار است، به‌دلیل دانشگاه‌های اینجا و مؤسساتی همچون DeepMind». «ما همچنین لندن را به‌عنوان نقطه ورود به بازار اروپا می‌دانیم».

    Luma به‌عنوان جدیدترین نمونه از موجی از آزمایشگاه‌های هوش مصنوعی آمریکای شمالی است که برای بهره‌مندی از استخرهای استعداد و فرصت‌های درآمدی، بر روی انگلستان و اروپا متمرکز می‌شوند.

    در نوامبر، شرکت Anthropic مستقر در سانفرانسیسکو برنامه‌های خود را برای افتتاح دفاتر در پاریس و مونیخ اعلام کرد؛ چند ماه پس از آغاز موج جذب نیرو در لندن و دوبلین. استارتاپ هوش مصنوعی کانادایی Cohere نیز اعلام کرد که دفتر پاریس را باز می‌کند تا به‌عنوان مرکز منطقه‌ای EMEA خود در سپتامبر فعالیت کند و OpenAI در فوریه دفتر جدیدی در مونیخ معرفی کرد.

    اگرچه مدل‌های جهانی هنوز به‌ اندازه مدل‌های زبانی بزرگ (LLMs) پیشرفت نکرده‌اند، برخی پژوهشگران می‌گویند که آن‌ها به همان اندازه، اگر نه بیشتر، برای دستیابی به هوش عمومی مصنوعی (AGI) حیاتی هستند.

    ژان گفت: «این نوع مدل‌های بصری حدود یک تا یک و نیم سال از مدل‌های زبانی عقب هستند».

    اما ژان پیش‌بینی کرد که مدل‌های جهانی به‌زودی «رابط طبیعی» هوش مصنوعی برای اکثر استفاده‌های روزمره تبدیل می‌شوند؛ و به مقدار زمانی که مردم روزانه برای مشاهده محتوای ویدیویی صرف می‌کنند اشاره کرد.

    غول‌های فناوری از جمله گوگل، متا و Nvidia همگی در حال توسعه مدل‌های جهانی برای طیف گسترده‌ای از موارد استفاده هستند.

    Luma در ماه سپتامبر مدل جدید خود، Ray3، را منتشر کرد؛ که ژان به CNBC گفت این مدل معیارهای بالاتری نسبت به Sora شرکت OpenAI دارد و در سطح مشابهی با Veo 3 شرکت Google قرار دارد.

  • معرفی آمار سوبرامانیا، متخصص ۴۶ ساله گوگل و مایکروسافت که اکنون رهبری استراتژی حیاتی هوش مصنوعی اپل را بر عهده دارد

    آمار سوبرامانیا

    آمار سوبرامانیا تجربه قابل‌توجهی در یادگیری ماشین و هوش مصنوعی به اپل می‌آورد.
    آمار سوبرامانیا—لینکدین

    اپل کلیدهای استراتژی حیاتی هوش مصنوعی خود را به آمار سوبرامانیا، کارشناس باتجربه‌ای که در هر دو شرکت گوگل و مایکروسافت کار کرده است، می‌سپارد؛ این تغییر مدیریتی یکی از مهم‌ترین تحولات رهبری در شرکت است که از زمان رونمایی از Apple Intelligence در سال گذشته به وقوع پیوسته است. این پژوهشگر با تجربه‌ای طولانی به عنوان معاون رئیس هوش مصنوعی منصوب شد و جان جیان‌اندریا را که پس از خدمت به‌عنوان رئیس هوش مصنوعی اپل از سال ۲۰۱۸ تا بهار ۲۰۲۶ از سمت خود کناره‌گیری و بازنشسته خواهد شد، جایگزین می‌کند.

    در بیانیه‌ای شرکت، اپل اعلام کرد که سوبرامانیا به رئیس نرم‌افزار، کریگ فدریگی، گزارش خواهد داد و مسئولیت «مدل‌های بنیادین اپل، پژوهش‌های یادگیری ماشین و ایمنی و ارزیابی هوش مصنوعی» را بر عهده می‌گیرد؛ این کار او را در مرکز فناوری قرار می‌دهد که ویژگی‌های هوش مصنوعی آینده را در آیفون، مک، آی‌پد و سرویس‌های متنوع اپل پایه‌ریزی می‌کند. مسئولیت‌هایی که پیش‌تر توسط جیان‌اندریا نظارت می‌شد، تحت نظارت مدیر عملیاتی، سابیح خان، و ادی کیو که رهبری بخش سرویس‌های اپل را بر عهده دارد، بازتوزیع خواهد شد.

    سوبرامانیا با یک رزومه که بیش از دو دهه را پوشش می‌دهد به اپل می‌آید؛ او تحصیل و حرفه خود را به یادگیری ماشین و سیستم‌های هوش مصنوعی در مقیاس بزرگ اختصاص داده و این دانش را در برخی از بزرگ‌ترین شرکت‌های سیلیکون‌ولی به‌کار گرفته است. تنها چند ماه پیش از پیوستن به اپل، سوبرامانیا در ماه جولای به مایکروسافت پیوست و به عنوان معاون رئیس هوش مصنوعی شرکت منصوب شد؛ در این نقش بر روی مدل‌های بنیادین کار کرد که محصولاتی چون مایکروسافت کوپیلوت، لایه دستیار هوش مصنوعی شرکت برای ابزارهای بهره‌وری و سرویس‌های سازمانی را تقویت می‌کنند. او این سمت را پس از گذراندن ۱۶ سال در گوگل، که در نهایت به عنوان سرپرست مهندسی Gemini، دستیار هوش مصنوعی گوگل و محصول پیشرو در حوزه هوش مصنوعی مولد، که اکنون به توجه ویژه‌ای دست یافته است، به‌دست آورد.

    در گوگل، مسیر سوبرامانیا از پژوهشگر علمی به مهندس ارشد، سپس به معاون مهندسی ارتقا یافت و تیم‌هایی را رهبری کرد که پژوهش‌های یادگیری ماشین را به محصولات مصرفی در مقیاس بزرگ پیوند می‌دادند. او همچنین با DeepMind، واحد تحقیقاتی هوش مصنوعی گوگل، همکاری کرده و روابط خود را با کارهای پیشرو در زمینه آموزش و استقرار مدل‌ها عمیق‌تر کرده است، بنابر گزارش‌های متعدد.

    مانند بسیاری از افراد در سیلیکون‌ولی، سوبرامانیا ریشه‌های خود را در هند و ایالات متحده دارد. او در سال ۲۰۰۱ مدرک کارشناسی مهندسی الکترونیک و ارتباطات را از دانشگاه بنگلور دریافت کرد و سپس در سال ۲۰۰۹ دکترای علوم کامپیوتر را از دانشگاه واشنگتن با تخصص در یادگیری نیمه‌نظارتی و مدل‌های گرافیکی – روش‌هایی برای آموزش کارآمد سیستم‌های هوش مصنوعی در شرایط کمبود داده‌های برچسب‌دار – به پایان رساند. او در سال ۲۰۰۷ جایزه بورس پژوهشی مایکروسافت را دریافت کرد و بعدها به‌هم‌نویس کتاب Graph‑Based Semi‑Supervised Learning با پژوهشگر پارثا پراتیم تالوکدار پرداخت؛ این کتاب به فهرست مقالات وی در زمینه‌های پردازش زبان طبیعی، تشخیص موجودیت و فناوری‌های گفتار افزوده شد.

    گام اپل در این زمان، زمانی است که این شرکت تحت نظارت مستمر قرار دارد زیرا در ارائه ویژگی‌های هوش مصنوعی مولد، نسبت به رقبایی چون گوگل و مایکروسافت — و همچنین شرکت‌های نوپا در زمینه هوش مصنوعی مانند OpenAI و Anthropic — عقب مانده است و با انتقادات شدیدی در خصوص دستیارهای صوتی و ابزارهای هوش مصنوعی سراسری مواجه شده است. به‌طور طبیعی، اپل یکی از اولین شرکت‌ها بود که دستیار صوتی عمومی به نام سیری را ایجاد کرد، اما از آن پس این پیشی اولیه را از دست داد. رقبا سریع‌تر مدل‌های خود را برای کارایی بهبود داده و دستیاران و هم‌پیلوت‌های هوش مصنوعی خود را در جریان‌های کاری ادغام کرده‌اند، در حالی که اپل با احتیاط بیشتری قدم برداشته و پردازش روی دستگاه و حفظ حریم خصوصی را در کنار عرضه Apple Intelligence تأکید می‌کند.

    جیان‌اندریا، که پیش از این رئیس هوش مصنوعی و جستجوی گوگل بود و در سال ۲۰۱۸ به اپل پیوست، تیمی را شکل داد که زیرساخت هوش مصنوعی کنونی اپل، شامل مدل‌های بنیادین و سامانه‌های جستجو و دانش، را توسعه داد. او تا زمان بازنشستگی خود در بهار ۲۰۲۶ به‌عنوان مشاور باقی خواهد ماند و برای اپل دورهٔ انتقالی را فراهم می‌کند تا سوبرامانیا جایگزین او شود.

    مدیرعامل تیم کوک این انتقال را هم به‌عنوان تشکر و هم به‌عنوان بازتنظیم اهداف هوش مصنوعی اپل توصیف کرد.

    «ما از نقش جان در ساخت و پیشبرد کارهای هوش مصنوعی‌مان سپاسگزاریم؛ او به اپل کمک کرد تا به نوآوری ادامه دهد و زندگی کاربرانمان را غنی‌تر کند»، او در بیانیه شرکت گفت. «هوش مصنوعی مدت‌هاست که در مرکز استراتژی اپل قرار دارد و خوشحالیم که آمار را به تیم رهبری کریگ می‌پذیریم و تخصص فوق‌العاده او در هوش مصنوعی را به اپل می‌آوریم.»