دسته: هوش مصنوعی

  • چگونه هوش مصنوعی کار را در Anthropic متحول می‌کند

    هوش مصنوعی چگونه روش کاری ما را تغییر می‌دهد؟ پژوهش قبلی ما درباره‌ٔ تأثیرات اقتصادی هوش مصنوعی به‌صورت کلی به‌‌سر بازار کار پرداخت و طیف وسیعی از مشاغل را در بر می‌گرفت. اما اگر برخی از اولین پذیرندگان فناوری هوش مصنوعی را به‌جزییات بیشتری بررسی کنیم — یعنی خودمان — چه می‌شود؟

    با نگاه به درون، در آگوست ۲۰۲۵ ما از ۱۳۲ مهندس و پژوهشگر Anthropic نظرسنجی کردیم، ۵۳ مصاحبهٔ کیفی عمیق انجام دادیم و داده‌های استفادهٔ داخلی Claude Code را بررسی کردیم تا بفهمیم استفادهٔ هوش مصنوعی چگونه در Anthropic تغییر می‌آورد. دریافت کردیم که استفاده از هوش مصنوعی به‌طور اساسی ماهیت کار برنامه‌نویسان نرم‌افزار را تغییر می‌دهد و هم امید و هم نگرانی ایجاد می‌کند.

    تحقیق ما محیط کاری را که تحت تحول‌های چشم‌گیر قرار دارد، نشان می‌دهد: مهندسان کارهای بسیار بیشتری انجام می‌دهند، به‌صورت «فول‑استاک» (قادر به موفقیت در وظایفی فراتر از تخصص معمول خود) می‌شوند، سرعت یادگیری و تکرار خود را سرعت می‌بخشند و به وظایفی که پیش‌تر نادیده گرفته می‌شدند می‌پردازند. این گسترش دامنه باعث می‌شود افراد دربارهٔ تعادلات فکر کنند — برخی نگران این هستند که ممکن است به‌دلیل این پیشرفت، توانایی فنی عمیق‌تری را از دست بدهند، یا توانایی نظارت مؤثر بر خروجی‌های Claude را کم کنند، در حالی که دیگران این فرصت را برای تفکر گسترده‌تر و در سطوح بالاتر می‌پذیرند. برخی دریافتند که همکاری بیشتر با هوش مصنوعی به‌معنی همکاری کمتر با همکاران است؛ برخی دیگر تعجب می‌کنند که آیا ممکن است در نهایت خودشان را از شغل حذف کنند.

    ما می‌پذیریم که مطالعهٔ تأثیر هوش مصنوعی در شرکتی که خود هوش مصنوعی می‌سازد، نشانگر موقعیتی متمایز است — مهندسان ما دسترسی زودهنگام به ابزارهای پیشرفته دارند، در حوزه‌ای نسبتاً پایدار کار می‌کنند، و خودشان در تحول هوش مصنوعی ای که سایر صنایع را تحت تأثیر قرار می‌دهد، مشارکت می‌کنند. با وجود این، احساس کردیم که به‌طور کلی مفید است این نتایج را پژوهش و منتشر کنیم، زیرا آنچه داخل Anthropic برای مهندسان رخ می‌دهد ممکن است پیش‌نماینده‌ای آموزنده برای تحول گسترده‌تری در جامعه باشد. نتایج ما چالش‌ها و ملاحظاتی را نشان می‌دهد که ممکن است نیاز به توجه زودهنگام در بخش‌های مختلف داشته باشد (اگرچه برای نکات محدودیت‌ها بخش «محدودیت‌ها» در پیوست را ببینید). در زمان جمع‌آوری این داده‌ها، Claude Sonnet 4 و Claude Opus 4 قدرتمندترین مدل‌های موجود بودند و توانایی‌ها همچنان پیشرفت می‌کنند.

    هوش مصنوعی پیشرفته‌تر مزایای بهره‌وری را به همراه دارد، اما در عین حال سؤالاتی دربارهٔ حفظ تخصص فنی، حفظ همکاری معنادار و آمادگی برای آینده‌ای نامطمئن که شاید به‌رویکردهای جدیدی برای یادگیری، راهنمایی و توسعهٔ شغلی در محیط کاری تقویت‌شده با هوش مصنوعی نیاز داشته باشد، برمی‌انگیزد. ما برخی گام‌های اولیه‌ای را که برای بررسی این سؤالات به‌صورت داخلی اتخاذ می‌کنیم در بخش «نگاهی به آینده» زیر بحث می‌کنیم. همچنین در پست اخیر وبلاگمان به ایده‌های سیاست‌گذاری اقتصادی مرتبط با هوش مصنوعی، به‌بررسی واکنش‌های سیاسی ممکن پرداخته‌ایم.

    نتایج کلیدی

    در این بخش، به‌طور خلاصه نتایج نظرسنجی، مصاحبه‌ها و داده‌های Claude Code را مرور می‌کنیم. جزئیات، روش‌ها و نکات محدودیت‌ها در بخش‌های بعدی ارائه می‌شود.

    داده‌های نظرسنجی

    1. مهندسان و پژوهشگران Anthropic بیشترین استفاده را از Claude برای رفع خطاهای کد و یادگیری دربارهٔ پایگاه کد دارند. اشکال‌زدایی و درک کد، رایج‌ترین کاربردها هستند (شکل ۱).
    2. افراد گزارش می‌دهند که استفاده از Claude و بهره‌وری خود را افزایش داده‌اند. کارکنان خود گزارش می‌کنند که در ۶۰٪ کارهای خود از Claude استفاده می‌کنند و بهره‌وری را به‌مقدار ۵۰٪ ارتقا می‌دهند؛ یعنی نسبت به سال گذشته ۲‑۳ برابر افزایش دارد. این بهره‌وری نشان می‌دهد زمان صرف‌شده در هر دستهٔ کار کمی کمتر است، اما حجم خروجی به‌مراتب بیشتر می‌شود (شکل ۲).
    3. ۲۷٪ از کارهای همراه با Claude شامل وظایفی هستند که در غیر این صورت انجام نمی‌شدند، مانند گسترش پروژه‌ها، ساخت ابزارهای «nice‑to‑have» (مثلاً داشبوردهای دادهٔ تعاملی) و کارهای اکتشافی که اگر به‌صورت دستی انجام شوند، هزینه‌کارآمدی ندارند.
    4. بیشتر کارکنان به‌طور مکرر از Claude استفاده می‌کنند و گزارش می‌دهند که می‌توانند «به‌طور کامل» تنها ۰‑۲۰٪ کار خود را به آن واگذار کنند. Claude یک همکار ثابت است، اما استفاده از آن معمولاً شامل نظارت فعال و اعتبارسنجی است، به‌ویژه در کارهای حساس — در مقابل واگذاری وظایفی که نیازی به تأیید ندارند.

    مصاحبه‌های کیفی

    1. کارمندان در حال توسعهٔ حس درک برای واگذاری هوش مصنوعی هستند. مهندسان تمایل دارند وظایفی را واگذار کنند که به‌راحتی قابل تأیید هستند، جایی که می‌توانند «به‌طور نسبتاً آسان صحت آن را سنجش کنند»، با ریسک کم (مثلاً «کدهای آزمایشی یا پژوهشی فوری») یا خسته‌کننده («هر‌چه بیشتر مشتاق انجام وظیفه باشد، کمتر احتمال دارد از Claude استفاده کند»). بسیاری توالی اعتمادی را توصیف می‌کنند؛ ابتدا با وظایف ساده شروع می‌کنند و به‌تدریج کارهای پیچیده‌تر را واگذار می‌نمایند — در حالی که هنوز بیشتر وظایف طراحی یا «سلیقه» را خودشان حفظ می‌کنند، این مرز در حال بازنگری است با بهبود مدل‌ها.
    2. مجموعه مهارت‌ها به حوزه‌های بیشتری گسترش می‌یابد، اما برخی کمتر تمرین می‌کنند. Claude به افراد اجازه می‌دهد مهارت‌های خود را به حوزه‌های بیشتری در مهندسی نرم‌افزار گسترش دهند (مثلاً «من می‌توانم به‌خوبی در فرانت‌اند یا پایگاه‌ داده‌های تراکنشی کار کنم… در حالی که پیش از این از دست زدن به این موارد می‌ترسیدم»)، اما برخی کارمندان به‌طور متناقض نگران انقباض مهارت‌های عمیق‌‌تری هستند که برای نوشتن و نقد کد لازم است — «وقتی تولید خروجی این‌چند آسان و سریع است، سخت‌تر می‌شود که واقعاً زمان بگذاریم تا چیزی یاد بگیریم.»
    3. تغییر رابطه با هنر کدنویسی. برخی مهندسان کمک هوش مصنوعی را می‌پذیرند و بر نتایج تمرکز می‌کنند («فکر می‌کردم واقعاً از نوشتن کد لذت می‌برم، اما به‌جای آن فقط از خروجی‌های تولیدی نوشتن کد لذت می‌برم»)؛ دیگران می‌گویند «قطعاً برخی بخش‌های نوشتن کد را از دست می‌دهم.»
    4. دینامیک‌های اجتماعی در محل کار ممکن است در حال تغییر باشند. Claude اکنون اولین نقطهٔ مراجعه برای پرسش‌هایی است که پیش‌تر به همکاران می‌رفت — برخی گزارش می‌دهند فرصت‌های راهنمایی و همکاری کمتر شده است؛ («من دوست دارم با افراد کار کنم و غم‌انگیز است که الآن کمتر به آن‌ها نیاز دارم… افراد جوان‌تر کمتر برای من سؤال می‌آورند.»)
    5. تحول شغلی و عدم قطعیت. مهندسان گزارش می‌دهند که به سمت کارهای سطح بالاتر مدیریت سیستم‌های هوش مصنوعی حرکت می‌کنند و بهره‌وری قابل‌توجهی را تجربه می‌کنند. اما این تغییرات سؤالاتی دربارهٔ مسیر طولانی‌مدت مهندسی نرم‌افزار به‌عنوان یک حرفه ایجاد می‌کند. برخی احساسات متضادی دربارهٔ آینده بیان می‌کنند: «در کوتاه‌مدت خوش‌بین هستم، اما در بلندمدت فکر می‌کنم هوش مصنوعی همه‌چیز را انجام خواهد داد و من و بسیاری دیگر را بی‌ارزش می‌کند.» دیگران بر عدم قطعیت واقعی تأکید می‌کنند و می‌گویند فقط «سخت است بگویم» نقش‌هایشان در آینده چگونه خواهد بود.

    روندهای استفاده از Claude Code

    1. Claude به‌صورت خودکار به‌تدریج وظایف پیچیده‌تری را بر عهده می‌گیرد. شش ماه پیش، Claude Code حدود ۱۰ عمل را به‌تنهایی انجام می‌داد پیش از آن که به ورودی انسانی نیاز داشته باشد. اکنون عموماً حدود ۲۰ عمل را به‌صورت خودکار انجام می‌دهد و برای تکمیل جریان‌های کاری پیچیده‌تر نیاز به هدایت انسانی کمتر دارد (شکل ۳). مهندسان به‌طور فزاینده‌ای از Claude برای وظایف پیچیده‌ای مثل طراحی/برنامه‌ریزی کد (از ۱٪ به ۱۰٪ استفاده) و پیاده‌سازی ویژگی‌های جدید (از ۱۴٪ به ۳۷٪) (شکل ۴) استفاده می‌کنند.
    2. Claude بسیاری از «نقاط دردسود» را برطرف می‌کند. ۸.۶٪ از وظایف Claude Code شامل اصلاح مشکلات جزئی است که کیفیت زندگی کاری را بهبود می‌بخشد، مانند بازنگری کد برای قابلیت نگهداری (یعنی «برطرف کردن نقاط دردسود») که معمولاً به‌طور پیش‌فرض عقب‌نشینی می‌شود. این اصلاحات کوچک می‌توانند به‌صورت تجمیعی منجر به مزایای بزرگ‌تری در بهره‌وری و کارایی شوند.
    3. همه در حال تبدیل به «فول‑استاک» بیشتر هستند. تیم‌های مختلف از Claude به‌روش‌های متفاوتی استفاده می‌کنند، معمولاً برای تقویت تخصص اصلی خود — تیم امنیت از آن برای تجزیه و تحلیل کدهای ناآشنا استفاده می‌کند، تیم هم‌سویی و ایمنی از آن برای ساخت تجسم‌های فرانت‑اند داده‌های خود بهره می‌برد، و غیره (شکل ۵).

    داده‌های نظرسنجی

    ما ۱۳۲ مهندس و پژوهشگر Anthropic را از سراسر سازمان دربارهٔ استفادهٔ آن‌ها از Claude نظرسنجی کردیم تا بهتر بفهمیم دقیقاً چگونه روزانه از آن استفاده می‌کنند. نظرسنجی را از طریق کانال‌های ارتباط داخلی و تماس مستقیم با کارمندان در تیم‌های متنوع که نمایندهٔ عملکردهای پژوهش و محصول بودند، توزیع کردیم. بخشی از محدودیت‌ها را در پیوست با جزئیات روش‌شناسی بیشتر گنجانده‌ایم و سؤالات نظرسنجی را به اشتراک می‌گذاریم تا دیگران بتوانند رویکرد ما را ارزیابی کرده و برای پژوهش خود سفارشی سازند.

    کدام وظایف کدنویسی افراد از Claude استفاده می‌کنند؟

    از مهندسان و پژوهشگرانی که نظرسنجی کردیم خواستیم تا میزان استفادهٔ خود از Claude برای انواع مختلف وظایف کدنویسی را ارزیابی کنند، مانند «اشکال‌زدایی» (استفاده از Claude برای کمک به رفع خطاهای کد)، «درک کد» (درخواست از Claude برای توضیح کد موجود به‌منظور کمک به کاربر انسانی در درک پایگاه کد)، «بازنگری» (استفاده از Claude برای کمک به بازآرایی کد موجود) و «داده‌کاوی» (مثلاً درخواست از Claude برای تجزیه و تحلیل مجموعه داده‌ها و رسم نمودارهای میله‌ای).

    در ادامه رایج‌ترین وظایف روزانه آورده شده است. بیشترین کارمندان (۵۵٪) Claude را روزانه برای اشکال‌زدایی استفاده می‌کردند. ۴۲٪ Claude را هر روز برای درک کد به‌کار می‌بردند و ۳۷٪ Claude را هر روز برای پیاده‌سازی ویژگی‌های جدید به‌کار می‌بستند. وظایف کمتر مکرر شامل طراحی/برنامه‌ریزی سطح بالا (احتمالاً چون این‌ها وظایفی هستند که مردم تمایل دارند در دست انسان بمانند) و همچنین داده‌کاوی و توسعه فرانت‑اند (احتمالاً چون این‌ها به‌طور کلی وظایف کمتر رایجی هستند). این تقریباً با توزیع داده‌های استفاده از Claude Code که در بخش «روندهای استفاده از Claude Code» گزارش شده هم‌راستا است.

    شکل ۱: نسبت کاربران روزانه (محور افقی) برای انواع مختلف وظایف کدنویسی (محور عمودی).
    شکل ۱: نسبت کاربران روزانه (محور افقی) برای انواع مختلف وظایف کدنویسی (محور عمودی).

    استفاده و بهره‌وری

    کارمندان خود گزارش می‌دهند که ۱۲ ماه پیش در ۲۸٪ کارهای روزانه خود از Claude استفاده می‌کردند و بهره‌وری خود را به‌مقدار +۲۰٪ ارتقا می‌دادند، در حالی که اکنون در ۵۹٪ کارهای خود از Claude بهره می‌برند و به‌طور متوسط +۵۰٪ افزایش بهره‌وری کسب می‌کنند. (این تقریباً با افزایش ۶۷٪ در درخواست‌های ادغام شده (pull‑request) که نشان‌دهنده‌ی تغییرات موفقیت‌آمیز به کد است — به‌ازای هر مهندس در روز — وقتی Claude Code را در کل سازمان مهندسی خود اجرا کردیم، مطابقت دارد.) مقایسهٔ سال‑به‑سال بسیار چشم‌گیر است — این نشان می‌دهد که هر دو شاخص بیش از ۲ برابر در یک سال افزایش یافته‌اند. استفاده و بهره‌وری نیز به‌شدت همبستگی دارند و در انتهای توزیع، ۱۴٪ از پاسخ‌دهندگان گزارش می‌کنند که با استفاده از Claude بهره‌وری خود را بیش از ۱۰۰٪ افزایش داده‌اند — این‌ها «کاربران پیشرفته» داخلی ما هستند.

    برای هشدار به این یافته (و سایر یافته‌های خودگزارش بهره‌وری در ادامه)، دقیقاً اندازه‌گیری بهره‌وری دشوار است (برای جزئیات بیشتر به پیوست مراجعه کنید). پژوهش اخیر METR، یک مؤسسه تحقیقاتی غیرانتفاعی در حوزهٔ هوش مصنوعی، نشان داد که توسعه‌دهندگان باتجربه که با هوش مصنوعی بر روی کدهای آشنای زیاد کار می‌کنند، بهره‌وری خود را بیش از حد برآورد می‌کنند. با این حال، عواملی که METR به‌عنوان عوامل منجر به بهره‌وری کمتر از انتظار شناسایی کرده است (مانند عملکرد ضعیف هوش مصنوعی در محیط‌های بزرگ و پیچیده، یا جایی که دانش ضمنی/زمینهٔ زیادی لازم است) دقیقاً با وظایفی که کارمندان ما گزارش می‌دهند «به Claude واگذار نمی‌کنند» (نگاه به رویکردهای واگذاری هوش مصنوعی، زیر) هم‌راستا است. بهره‌وری ما، که به‌صورت خودگزارش‌شده در کل کارها است، ممکن است نشان‌دهندهٔ توسعهٔ مهارت‌های استراتژیک واگذاری هوش مصنوعی باشد — چیزی که در مطالعهٔ METR در نظر گرفته نشده است.

    الگوی جالب بهره‌وری زمانی ظاهر می‌شود که از کارمندان پرسیده می‌شود، برای دسته‌های کاری که در حال حاضر از Claude استفاده می‌کنند، این ابزار چه تأثیری بر زمان کلی صرف‌شده و حجم خروجی کار در آن دسته دارد. در تقریباً تمام دسته‌های کاری، ما کاهش خالص زمان صرف‌شده را می‌بینیم و افزایش خالص بزرگ‌تری در حجم خروجی مشاهده می‌شود:

    شکل ۲: تأثیر بر زمان صرف‌شده (پنل چپ) و حجم خروجی (پنل راست) برحسب دسته (محور y). محور افقی در هر نمودار نشان‌دهندهٔ کاهش گزارش‌شده (مقادیر منفی)، افزایش (مقادیر مثبت) یا عدم تغییر (خط نقطه‌چین عمودی) در زمان صرف‌شده یا حجم خروجی برای دسته‌های کاری مبتنی بر Claude نسبت به عدم استفاده از Claude است. نوارهای خطا ۹۵٪ بازه اطمینان را نشان می‌دهند. مساحت دایره متناسب با تعداد پاسخ‌ها در هر نقطهٔ ارزیابی است. فقط پاسخ‌دهندگانی که برای هر دسته‌ کاری از Claude استفاده می‌کردند در نظر گرفته شده‌اند.
    شکل ۲: تأثیر بر زمان صرف‌شده (پنل چپ) و حجم خروجی (پنل راست) برحسب دسته (محور y). محور افقی در هر نمودار نشان‌دهندهٔ کاهش گزارش‌شده (مقادیر منفی)، افزایش (مقادیر مثبت) یا عدم تغییر (خط نقطه‌چین عمودی) در زمان صرف‌شده یا حجم خروجی برای دسته‌های کاری مبتنی بر Claude نسبت به عدم استفاده از Claude است. نوارهای خطا ۹۵٪ بازه اطمینان را نشان می‌دهند. مساحت دایره متناسب با تعداد پاسخ‌ها در هر نقطهٔ ارزیابی است. فقط پاسخ‌دهندگانی که برای هر دسته‌ کاری از Claude استفاده می‌کردند در نظر گرفته شده‌اند.

    اما وقتی داده‌های خام را عمیق‌تر بررسی می‌کنیم، می‌بینیم که پاسخ‌های صرف‌وقت در دو سر مخالف متمرکز می‌شوند — برخی افراد زمان بیشتری را برای وظایفی که با Claude همراه‌اند صرف می‌کنند.

    چرا این‌گونه است؟ افراد عموماً توضیح می‌دهند که برای اشکال‌زدایی و پاک‌سازی کدهای Claude (مثلاً «وقتی خودم کد را به‌یک گوشه می‌برم») زمان بیشتری نیاز دارند و بار شناختی بیشتری برای درک کد Claude می‌پذیرند چون خودشان آن را ننوشته‌اند. برخی گفتند زمان بیشتری را برای وظایفی صرف می‌کنند که به‌نوعی توانمندساز هستند — یکی گفت استفاده از Claude به او کمک می‌کند «بر روی وظایفی که قبلاً فوراً رها می‌کردم، پافشاری کنم»؛ دیگری گفت این ابزار به او کمک می‌کند تست‌های دقیق‌تری انجام دهد و همچنین در پایگاه‌های کد جدید بیشتر یاد بگیرد و کاوش کند. به‌نظر می‌رسد مهندسانی که صرف‌وقت را تجربه می‌کنند، وظایفی را انتخاب می‌کنند که به‌سرعت قابل‌تایید برای Claude باشند، در حالی که کسانی که زمان بیشتری صرف می‌کنند، ممکن است در حال اشکال‌زدایی کدهای تولیدشده توسط هوش مصنوعی یا کار در حوزه‌هایی باشند که Claude به راهنمایی بیشتری نیاز دارد.

    همچنین واضح نیست که صرف‌وقت گزارش‌شده به کجا سرمایه‌گذاری می‌شود — آیا به وظایف مهندسی اضافه، وظایف غیرمهندسی، تعامل با Claude یا بازبینی خروجی‌های آن، یا فعالیت‌های خارج از کار اختصاص می‌یابد. چارچوب طبقه‌بندی کار ما تمام راه‌های تخصیص زمان مهندسان را در بر نمی‌گیرد. علاوه بر این، صرف‌وقت ممکن است از تعصبات ادراکی در خودگزارش‌ها ناشی شود. پژوهش بیشتر برای تفکیک این اثرها لازم است.

    افزایش حجم خروجی واضح‌تر و چشمگیرتر است؛ افزایش خالص بزرگ‌تری در تمام دسته‌های کاری مشاهده می‌شود. این الگو منطقی است وقتی در نظر می‌گیریم افراد دربارهٔ دسته‌های کاری (مانند «اشکال‌زدایی» به‌صورت کلی) گزارش می‌دهند، نه دربارهٔ وظایف منفرد — یعنی افراد می‌توانند زمان کمی کمتر را در دستهٔ اشکال‌زدایی صرف کنند در حالی که خروجی کلی اشکال‌زدایی را به‌مراتب بیشتر تولید می‌کنند. اندازه‌گیری مستقیم بهره‌وری بسیار دشوار است، اما این داده‌های خودگزارش نشان می‌دهد که هوش مصنوعی در Anthropic عمدتاً از طریق افزایش حجم خروجی بهره‌وری را ارتقا می‌دهد.

    Claude، کارهای جدید را امکان‌پذیر می‌کند

    یکی از سؤال‌هایی که کنجکاو شدیم: آیا Claude کارهای جدیدی را به‌صورت کیفی امکان‌پذیر می‌کند، یا کارهای مبتنی بر Claude در نهایت توسط کارمندان انجام می‌شد (اگرچه شاید با سرعت کمتری)؟

    مردم تمایل دارند مدل‌های فوق‌قابلیت‌دار را شبیه یک نمونهٔ واحد ببینند، همانند دریافت یک ماشین سریع‌تر. اما داشتن یک میلیون اسب … به شما امکان می‌دهد ایده‌های متعددی را آزمایش کنید … این هیجان‌انگیز و خلاق‌تر است که دامنهٔ بیشتری برای کشف داشته باشید.

    همان‌طور که در بخش‌های بعدی خواهیم دید، این کار جدید اغلب شامل مهندسانی است که به‌سراغ وظایفی خارج از تخصص اصلی خود می‌روند.

    چقدر کار می‌تواند به‌طور کامل به Claude واگذار شود؟

    اگرچه مهندسان به‌طور مکرر از Claude استفاده می‌کنند، بیش از نیمی گفتند که می‌توانند «به‌طور کامل» تنها ۰‑۲۰٪ از کارهای خود را به Claude واگذار کنند. (شایان ذکر است که تفسیر «به‌طور کامل واگذار» می‌تواند از وظایفی که بدون هیچ‌گونه تأیید هستند تا وظایفی که فقط به نظارت سبک نیاز دارند، متفاوت باشد.) در توضیح دلایل، مهندسان کار فعال و تکراری با Claude را توصیف کردند و خروجی‌های آن را تأیید می‌کردند — به‌ویژه برای وظایف پیچیده یا حوزه‌های حساس که استانداردهای کیفیت کد مهم هستند — در مقابل واگذاری وظایفی که نیازی به تأیید ندارند.

    مصاحبه‌های کیفی

    در حالی که این نتایج نظرسنجی نشان‌دهندهٔ بهره‌وری قابل‌توجه و تغییر الگوهای کاری است، سؤالاتی دربارهٔ تجربهٔ مهندسان از این تغییرات روزانه به‌وجود می‌آید. برای درک بعد انسانی این معیارها، ما مصاحبه‌های عمیق را با ۵۳ مهندس و پژوهشگر Anthropic که به نظرسنجی پاسخ دادند، انجام دادیم تا بینش بیشتری دربارهٔ نحوهٔ تفکر و احساس آن‌ها نسبت به این تغییرات در محل کار به‌دست آوریم.

    رویکردهای واگذاری هوش مصنوعی

    مهندسان و پژوهشگران در حال توسعهٔ استراتژی‌های مختلفی برای بهره‌برداری مؤثر از Claude در جریان کاری خود هستند. افراد عموماً وظایفی را واگذار می‌کنند که:

    خارج از زمینهٔ کاربر و پیچیدگی کم: «من Claude را برای چیزهایی استفاده می‌کنم که زمینهٔ کم دارم، اما فکر می‌کنم پیچیدگی کلی هم کم است.»

    «اکثریت مشکلات زیرساختی که دارم، دشوار نیستند و می‌توانند توسط Claude حل شوند… من در Git یا Linux مهارت کافی ندارم… Claude کاری عالی برای جبران کمبود تجربهٔ من در این حوزه‌ها انجام می‌دهد.»

    قابل تأیید آسان: «این به‌طور مطلق شگفت‌انگیز است برای همه چیزهایی که تلاش اعتبارسنجی نسبت به ایجاد کمتر است.»
    به‌وضوح تعریف‌شده یا خودمحدود: «اگر یک زیرمجموعه از پروژه به‌طور کافی از بقیه جدا باشد، من Claude را برای امتحان کردن می‌سپارم.»
    کیفیت کد اهمیت چندانی ندارد: «اگر کد آزمایشی یا پژوهشی باشد، مستقیم به Claude می‌سپارم. اگر…
  • حالت هوش مصنوعی گوگل در ۶۹٪ از جست‌وجوهای تراکنشی ترافیک می‌فرستد: داده‌های جدید

    آزمون‌های جدید تجربه کاربری نشان می‌دهند که حالت هوش مصنوعی کلیک‌های با ارزش را حذف نمی‌کند. کاربران همچنان هنگام انتخاب پزشک، دندانپزشک و سایر خدمات، به وب‌سایت‌ها سر می‌زنند.

    داستان سئو در حال حاضر ساده است: حالت هوش مصنوعی گوگل ترافیکی ارسال نمی‌کند. اگر این حالت به تجربه پیش‌فرض جست‌وجوی گوگل تبدیل شود، وب‌سایت شما از کلیک‌ها گرسنه می‌شود.

    با این حال یک مشکل وجود دارد: مطالعاتی که ادعا می‌کنند «هوش مصنوعی ترافیک نمی‌فرستد» تقریباً تماماً بر پرس‌وجوهای اطلاعاتی تمرکز دارند.

    بله، اگر کسی بخواهد بداند کارسین‌وم سلول بازال به چه شکلی است، هوش مصنوعی آن کلیک را از بین می‌برد.

    اما وقتی کسی بخواهد یک متخصص پوست پیدا کند تا آن خال را بررسی کند، چه می‌شود؟

    تا کنون هیچ‌کس مطالعه‌ای از این دست به اشتراک نگذاشته است. بنابراین ما تصمیم گرفتیم این مشکل را برطرف کنیم.

    ما اولین مطالعه UX را که به‌طور خاص بر قصد تراکنشی در حالت هوش مصنوعی متمرکز بود، انجام دادیم. ۵۲ شرکت‌کننده از ایالات‌متحده و کانادا را مشاهده کردیم که نزدیک به ۲۲ ساعت به‌دنبال خدمات با مشارکت بالا جست‌وجو کردند.

    این مواردی است که ما آموختیم.

    1. ۶۹٪ از کاربران حالت هوش مصنوعی به یک وب‌سایت مراجعه کردند

    هنگامی که کاربران مأمور به انجام جست‌وجوهای تراکنشی (یافتن دندانپزشک، ارائه‌کننده بوتاکس یا متخصص پوست) بودند، ۶۹٪ از جلسات حالت هوش مصنوعی منجر به کلیک به یک وب‌سایت شد.

    بازدیدهای وب‌سایت در مقابل ماندن در حالت هوش مصنوعی

    در مطالعهٔ ما، تنها ۲۷٪ از کاربران احساس «آماده برای تصمیم‌گیری» را صرفاً بر پایهٔ خلاصهٔ هوش مصنوعی داشتند (۴٪ باقی‌مانده به‌جای آن به جست‌وجوی سنتی گوگل و پروفایل‌های شبکه‌های اجتماعی مراجعه کردند تا تصمیم بگیرند).

    کاربران از حالت هوش مصنوعی برای ایجاد یک مجموعه ملاحظاتی استفاده می‌کنند، نه برای اینکه به آن‌ها گفته شود چه کاری باید انجام دهند.

    2. رتبه‌بندی #۱ دیگر «برنده‑ همه‌چیز» نیست

    به مدت ۳۰ سال، سئو یک بازی بوده است که در آن جایگاه شماره ۱ بیشترین پاداش‌ها را به خود اختصاص می‌داد.

    حالت هوش مصنوعی قواعد تعامل را تغییر می‌دهد؛ در مطالعهٔ ما، ۸۹٪ از شرکت‌کنندگان بیش از یک کسب‌وکار را کلیک کردند.

    تعداد کسب‌وکارهای بررسی‌شده در حالت هوش مصنوعی

    کاربران به‌دنبال یک توصیهٔ تک نیستند؛ آنها از هوش مصنوعی برای ایجاد یک مجموعه ملاحظاتی استفاده می‌کنند. به‌طور متوسط، شرکت‌کنندگان ما در هر جلسه ۳٫۷ نتیجه را بررسی کردند، به‌طوری‌که از هر ۱۰ کاربر، یک نفر فقط یک کسب‌وکار را چک کرد.

    این یک تغییر پارادایمی عظیم است. 

    دیگر نیازی نیست منابع خود را برای تعقیب یک رتبهٔ برتر هدر دهید. باید برای حضور در «مجموعه ملاحظاتی» – یعنی ۳ تا ۵ نتیجهٔ برتر – مبارزه کنید. اگر در آن مجموعه باشید، شانس موفقیت دارید.

    کاربران همچنان روی شما کلیک می‌کنند، اما احتمالاً همچنین روی رقبای شما نیز کلیک می‌نمایند.

    3. ۱۶٪ از کاربران برای تصمیم‌گیری به محتوای بالای صفحه تکیه کردند

    ما عادت کرده‌ایم فرض کنیم که کاربران اسکرول نمی‌کنند.

    این مورد در کاربران حالت هوش مصنوعی صادق نیست. ۸۴٪ از شرکت‌کنندگان ما اسکرول کردند تا مجموعه ملاحظاتی را ببینند.

    چون کاربران نتایج هوش مصنوعی را به‌عنوان یک فهرست منتخب می‌بینند نه یک پاسخ تک، تمایل به کاوش دارند. آنها در فهرست به جست‌وجوی بهترین گزینه می‌پردازند، نه فقط اولین گزینه.

    4. عکس‌ها چندان مهم نیستند (اما نظرات همه‌چیز هستند)

    فقط ۲۱٪ از کاربران عکس‌های پیوست‌شده به پروفایل تجاری گوگل را مشاهده کردند. حتی برای کار بوتاکس، این عدد فقط به ۲۴٪ افزایش یافت.

    پس، چه چیزی واقعاً کلیک را ایجاد می‌کند؟ شواهد اجتماعی.

    ۷۴٪ از کاربران قبل از تصمیم‌گیری، نظرات را در پروفایل تجاری گوگل می‌خوانند.

    در رابط هوش مصنوعی، متن وزن بیشتری نسبت به تصاویر دارد. گالری پرزرق‌وبرق شما زیباست، اما اعتبار شماست که کلیک را به دست می‌آورد.

    حكم: حالت هوش مصنوعی تمام ترافیک شما را نخواهد گرفت

    از همه مهم‌تر، حالت هوش مصنوعی ترافیک باارزش‌ترین شما را که شامل افرادی است که می‌خواهند به شما پرداخت کنند، نخواهد گرفت: ترافیکی که از افرادی که می‌خواهند به شما پول بدهند، تشکیل شده است.

    حالت هوش مصنوعی نیازمند بازنگری در اهداف سئو است:

    • هدف قدیم: رتبه #۱ یا نابود شدن.
    • هدف جدید: در پنج رتبه برتر (مجموعه ملاحظاتی) ظاهر شوید و با شواهد اجتماعی برتر (نظرات) کلیک را به دست آورید.

    اگر کسب‌وکار شما به ترافیک «چگونه…» متکی است، بله، باید نگران باشید.

    اما اگر شما یک کسب‌وکار محلی یا ارائه‌دهنده خدمات هستید که از سئوی محلی بهره می‌برد، نگران نباشید.

    مطالعه: ۶۹٪ از جست‌وجوهای تراکنشی در حالت هوش مصنوعی ترافیک ایجاد می‌کنند

  • دره سیلیکون سایت‌های شبیه به آمازون و جیمیل می‌سازد تا عوامل هوش مصنوعی را آموزش دهد

    چند استارتاپ جدید در حال ساخت نسخه‌های شبیه‌سازی‌شده از وب‌سایت‌ها هستند تا هوش مصنوعی بتواند از اینترنت استفاده کند و شاید جایگزین نیروی کار اداری شود.

    نوشته: کِید متز

    در این تابستان، وکلای یونایتد ایرلاینز دریافتند که فردی نسخه‌ای تقریباً کامل از وب‌سایت این شرکت ساخته است.

    این نسخهٔ دیجیتال تمام دکمه‌ها و منوهای مشابه برای رزرو پروازها، هتل‌ها و خودروهای کرایه‌ای را ارائه می‌داد. همچنین شامل لینک‌های آبی یکسان برای پیگیری امتیازهای پروازهای مکرر و مرور تخفیف‌ها بود. حتی از نام تجاری و لوگوی یونایتد استفاده می‌کرد.

    به‌همین‌منظور، وکلای یونایتد یک اعلان رسمی حذف ارسال کردند و سایت را به نقض حق‌ تکثیر متهم کردند.

    Div Garg، که شرکت کوچکی این سایت شبیه‌سازی‌شده را ساخته بود، بلافاصله نام سایت را به «Fly Unified» تغییر داد و لوگوی یونایتد را حذف کرد. او قصد نقض حقوق تکثیر یونایتد را نداشت. او و شرکتش نسخهٔ United.com را به‌عنوان بستر آموزشی برای هوش مصنوعی ساختند.

    شرکت AGI آقای Garg جزو تعداد زیادی از استارتاپ‌های دره سیلیکون است که در ماه‌های اخیر وب‌سایت‌های محبوب را بازآفرینی کرده‌اند تا سیستم‌های هوش مصنوعی بتوانند به‌صورت مستقل اینترنت را مرور کرده و کارهای خاصی مانند رزرو پروازها را انجام دهند. اگر سامانهٔ هوش مصنوعی نحوهٔ استفاده از نسخهٔ شبیه‌سازی‌شدهٔ United.com را یاد بگیرد، می‌تواند از سایت واقعی نیز بهره‌مند شود.

    تصویری از وب‌سایتی شبیه به صفحهٔ رزرو یک شرکت هواپیمایی.
    شرکت AGI سایت شبیه‌سازی‌شده یونایتد ایرلاینز با نام «Fly Unified» را به‌عنوان بستر آموزشی برای هوش مصنوعی ساخته است.

    این سایت‌های سایه‌ای جدید بخش مهمی از تلاش‌های صنعت فناوری برای تبدیل چت‌بات‌های امروز به عوامل هوش مصنوعی هستند؛ سیستمی که برای رزرو سفرها، زمان‌بندی جلسات، ساخت نمودارهای میله‌ای و انجام وظایف محاسباتی دیگر طراحی شده‌اند. در سال‌های پیش‌رو، بسیاری از شرکت‌ها بر این باورند که عوامل هوش مصنوعی پیشرفت بیشتری خواهند کرد و ممکن است جایگزین برخی کارگران سفیدپوش شوند.

  • پس از اینکه کیت‌کت عزیز توسط Waymo کشته شد، فروشگاه مشروبات الکلی گربه‌ای جدید به‌دست آورد

    میراث کیت‌کت ادامه دارد: با ککو، جدیدترین گربهٔ فروشگاه محلی خیابان ششم‌دهم آشنا شوید

    یک گربهٔ سیا‎می روی پیشخوان یک فروشگاه مشروبات الکلی نشسته و توسط بطری‌ها و انبارهای کوچک غذای خشک گربه احاطه شده است.
    ککو، گربهٔ جدید مارکت رندا، دوشنبه ۲ دسامبر ۲۰۲۵. عکس: اسکار پالما.

    حدود یک ماه پس از آن‌که یک خودروی خودران Waymo به کیت‌کت برخورد کرد و او را به مرگ کشاند، گربهٔ محبوب محله میشن، مارکت رندا، در اواخر هفتهٔ گذشته یک گربهٔ جدید را به فروشگاه‌اش خوش‌آمد گفت: ککو، بچه گربهٔ سفید شش‌ماهه‌ای با چشم‌های آبی که از همان ابتدا روزانه دل ده‌ها مشتری را به‌دست می‌آورد.

    «کیت‌کت دیگر نخواهد بود، اما او جرقه‌ای دوباره به محله برمی‌گرداند»، مردی به نام AJ گفت که پس از نوازش ککو، از فروشگاه خیابان ششم‌دهم و والنسیا خارج شد. «مردم از همین حالا دیوانه‌اش شده‌اند.»

    مردی که پشت یک نمایشگر شیشه‌ای پر از تصاویر گربه‌ها ایستاده است.
    ککو گربهٔ جدید مارکت رندا است، اما یاد کیت‌کت هنوز پابرجاست. عکس: اسکار پالما.

    یک همسایه هفته گذشته ککو را به مایک زیدان، صاحب مارکت رندا، هدیه داد. پس از چندین پیشنهاد، نام ککو از طریق یک نظرسنجی در اینستاگرام انتخاب شد. این نام به کلئوپاترا، ملکهٔ مصر بین سال‌های ۵۱ تا ۳۱ پیش از میلاد ارجاع دارد، گفت یکی از کارمندان مارکت رندا، آبراهام ت.

    مشتریان نه تنها گربه را آوردند، بلکه دو تابلو بزرگ دست‌ساز با نوشتهٔ «KitKat Market» که اکنون بر روی درب ورودی و کنار صندوق قرار دارند، نیز تحویل دادند. وقتی از مارکت رندا دربارهٔ تغییر نام پرسیده شد، دو کارمند گفتند نه، اما تصمیم گرفته‌اند این تابلوها را برای گرامیداشت دوست فوت‌مانده‌شان نگه دارند.

    آمبر بی‌شاپ، یک همسایه، گفت که خوشحال است که ککو را در مسیر رفت و آمدش به محل کار می‌بیند. صبح سه‌شنبه، او چند نوازش صبح بخیر به گربهٔ سفید داد وقتی از کنار او می‌گذشت.

    ککو برای جایگزینی کیت‌کت نیست؛ او برای خودِ ککو اینجا است، گفت کارمند فروشگاه، آبراهام. او هنوز در حال کاوش فضای فروشگاه است و به آن عادت می‌کند. «می‌بینم او در اطراف فروشگاه می‌دود و به تلویزیون‌ها پا می‌زند»، AJ گفت. تا کنون، به‌نظر می‌رسد مقصد دلخواه او بالای یخچال‌ها باشد.

    او توصیف شد به عنوان پرشور، دوستانه، بامزه و کمی ترسیده از دنیای بیرون؛ دو روز پیش، برای تعقیب کبوترها به بیرون رفت و وقتی کامیونی عبور کرد، از ترس به داخل فروشگاه دوید.

    دیوید ویدال، یکی دیگر از کارمندان مارکت رندا، گفت که تحت نظارت او، ککو تا حد امکان در داخل فروشگاه می‌ماند. به‌هرحال، کیت‌کت پس از آن‌که یک خودروی Waymo به او در خیابان اصابت کرد، درگذشت.

    شرکت Waymo در اکتبر اعلام کرد که قصد دارد به‌منظور گرامیداشت کیت‌کت، به یک سازمان محلی حمایت از حیوانات کمک مالی کند، اگرچه دوشنبه این شرکت تأیید نکرد که این کمک انجام شده است، نام سازمان یا مبلغ دقیق آن را فاش نکرد. همچنین دوشنبه، Waymo تأیید کرد که یکی دیگر از خودروهایش در تاریخ ۳۰ نوامبر در محله Western Addition به سگی برخورد کرده است. هنوز مشخص نیست که آیا سگ از این حادثه زنده مانده است یا نه.

    اما در خیابان ششم‌دهم، پس از تمام اتفاقاتی که در ماه گذشته رخ داد، حضور ککو روح جامعه را تقویت کرده است، گفت آبراهام ت.

    «ککو به ما امید می‌دهد»، او گفت. «مشتریان هم‌اکنون او را دوست دارند.»

  • مدیرعامل IBM می‌گوید که «هیچ راهی» وجود ندارد که صرف تریلیون‌ها دلار برای دیتاسنترهای هوش مصنوعی در هزینه‌های زیرساختی امروز، سودآور باشد

    آروند کریشنا، مدیرعامل IBM، در تصویر.
    آروند کریشنا، مدیرعامل IBM، نسبت به «باوری» که هزینه‌های دیتاسنتر می‌تواند سودآور باشد، شکاک بود.ریکاردو ساوی/گیتی ایمیجز برای همایش سالانه کونکوردیا

    شرکت‌های هوش مصنوعی برای رقابت در مسیر هوش عمومی (AGI) میلیاردها دلار بر روی دیتاسنترها هزینه می‌کنند. آروند کریشنا، مدیرعامل IBM، نظراتی درباره محاسبات پشت این شرط‌بندی‌ها دارد.

    هزینه‌های دیتاسنتر در حال افزایش است. در تماس گزارش سوددهی اخیر متا، واژه‌هایی مانند «ظرفیت» و «زیرساخت هوش مصنوعی» بارها به کار رفت. گوگل تازه اعلام کرد که قصد دارد در نهایت این دیتاسنترها را در فضا بسازد. سؤال این است که آیا درآمد حاصل از دیتاسنترها هرگز می‌تواند تمام هزینه‌های سرمایه‌ای را توجیه کند؟

    در پادکست «Decoder»، کریشنا به این نتیجه رسید که به‌نظر می‌رسد «هیچ راهی» وجود ندارد که این شرکت‌ها بتوانند بازدهی هزینه‌های سرمایه‌ای (CapEx) خود بر دیتاسنترها به‌دست آورند.

    او افزود که محاسبات ساده‌اش بر پایه هزینه‌های امروز است؛ «زیرا هر چیز در آینده فرضی است»، و کریشنا گفت که برای تامین یک دیتاسنتر یک گیگاواتی تقریباً ۸۰ میلیارد دلار هزینه می‌برد.

    او گفت: «خب، این عدد امروز است. پس اگر بخواهید ۲۰ تا ۳۰ گیگاوات متعهد شوید، این یک شرکت است؛ یعنی حدود ۱٫۵ تریلیون دلار هزینه سرمایه‌ای (CapEx).»

    کریشنا همچنین به استهلاک چیپ‌های هوش مصنوعی داخل دیتاسنترها به‌عنوان عامل دیگری اشاره کرد: «باید تمام آن را در پنج سال استفاده کنید، زیرا در آن زمان باید آن را دور بیندازید و جایگزین کنید.»

    سرمایه‌گذار مایکل بوری اخیراً به‌دلیل نگرانی‌های استهلاکی، هدف خود را به سمت نودیا قرار داد و این منجر به کاهش قیمت‌های سهام هوش مصنوعی شد.

    کریشنا گفت: «اگر به کل تعهدات جهان در این حوزه نگاه کنم، در تعقیب AGI، به‌نظر می‌رسد حدود ۱۰۰ گیگاوات با این اعلام‌ها وجود دارد.»

    با هزینه ۸۰ میلیارد دلار برای هر یک از ۱۰۰ گیگاوات، برآورد کریشنا برای تعهدات محاسباتی حدود ۸ تریلیون دلار می‌شود.

    او اظهار داشت: «نظر من این است که هیچ راهی برای بازدهی بر این هزینه نیست؛ چرا که ۸ تریلیون دلار سرمایه‌گذاری یعنی تقریباً ۸۰۰ میلیارد دلار سود برای پوشش بهره صرفاً لازم است.»

    دست‌یابی به این مقدار گیگاوات، نیازمند هزینه‌های عظیم از سوی شرکت‌های هوش مصنوعی بوده و فشار برای دریافت کمک خارجی را به‌وجود آورده است. در نامه‌ای در اکتبر به دفتر سیاست‌های علمی و فناوری کاخ سفید، سام آلتمن، مدیرعامل OpenAI، پیشنهاد داد که ایالات متحده هر سال ۱۰۰ گیگاوات ظرفیت انرژی اضافه کند.

    مجری پادکست «Decoder»، نیلای پتِل، اشاره کرد که آلتمن معتقد بود OpenAI می‌تواند بازدهی بر هزینه‌های سرمایه‌ای خود ایجاد کند. OpenAI متعهد به صرف حدود ۱٫۴ ترایلین دلار در معاملات مختلف شده است. در اینجا، کریشنا گفت که با آلتمن اختلاف نظر دارد.

    کریشنا گفت: «این یک باور است. این همان چیزی است که برخی مردم دنبال می‌کنند. من این را از دیدگاه آن‌ها می‌فهمم، اما متفاوت از موافقت با آن است.»

    کریشنا روشن کرد که نسبت به این باور نیست که مجموعه فناوری‌های فعلی ما را به AGI — پیشرفت فناوری‌ای که هنوز دست نیافته و به‌طور عمومی این‌گونه تعریف می‌شود که هوش مصنوعی بتواند وظایف پیچیده را بهتر از انسان انجام دهد — برساند. او احتمال دستیابی به آن بدون یک پیشرفت فناوری بیشتر را بین ۰ تا ۱ درصد برآورد کرد.

    چندین رهبر برجسته دیگر نیز نسبت به سرعت‌گیری به سمت AGI تردید داشته‌اند. مارک بنیوف گفت که نسبت به فشار برای AGI «به‌طرز فراوان مشکوک» است و این را به هیپنوتیزم تشبیه کرد. اندرو نگ، بنیان‌گذار Google Brain، اظهار کرد که AGI «بیش از حد تبلیغی» است، و آرتور منچ، مدیرعامل Mistral، گفت که AGI یک «حرکت بازاریابی» است.

    حتی اگر AGI هدف باشد، مقیاس‌پذیری محاسبه شاید کافی نباشد. ایلیا سوتسکِور، هم‌بنیان‌گذار OpenAI، در نوامبر گفت که دوران مقیاس‌پذیری به پایان رسیده و حتی مقیاس‌پذیری صد برابر مدل‌های زبانی بزرگ (LLM) نیز تحول کامل نخواهد داشت. او افزود: «دوباره به دوران تحقیق بازمی‌گردیم، اما این‌بار با رایانه‌های بزرگ.»

    کریشنا که کار خود را در IBM در سال ۱۹۹۰ آغاز کرد و سپس در سال ۲۰۲۰ به عنوان مدیرعامل و در سال ۲۰۲۱ به عنوان رئیس هیئت مدیره منصوب شد، از مجموعه ابزارهای هوش مصنوعی فعلی تمجین کرد.

    او گفت: «فکر می‌کنم این می‌تواند تریلیون‌ها دلار بهره‌وری در بخش‌های تجاری ایجاد کند؛ برای وضوح کامل بگویم.»

    اما کریشنا گفت که AGI به «فناوری‌های بیشتری» نسبت به مسیر فعلی مدل‌های زبانی بزرگ (LLM) نیاز دارد. او ترکیب دانش صریح (hard knowledge) با LLMها را به‌عنوان یک مسیر احتمالی آینده پیشنهاد کرد.

    احتمال رسیدن به AGI با این رویکرد چقدر است؟ او گفت: «حتی در آن صورت، من همچنان «شاید» می‌گویم.»

  • «بزرگ‌ترین تصمیم تا کنون»: جارد کاپلان درباره اجازه دادن به هوش مصنوعی برای خودآموزی

    دانشمند ارشد Anthropic می‌گوید خودمختاری هوش مصنوعی می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها کنترل را از دست می‌دهند.

    رابرت بوث، سردبیر فناوری در بریتانیا

    جارد کاپلان
    جارد کاپلان. تصویر: کیسی کلیفورد/گاردین
    کاپلان پشت یک میزی که نزدیک به پنجره‌های بزرگ با نمایی از آسمان‌خراش است
    تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

    انسانیت تا سال ۲۰۳۰ باید تصمیم بگیرد که آیا می‌خواهد «ریسک نهایی» را بپذیرد و به سامانه‌های هوش مصنوعی اجازه دهد خود را آموزش دهند و قدرتمندتر شوند، به گفته یکی از برجسته‌ترین دانشمندان هوش مصنوعی جهان.

    جارد کاپلان، دانشمند ارشد و یکی از مالکین استارتاپ آمریکایی Anthropic با سرمایه‌گذاری ۱۸۰ میلیارد دلار (۱۳۵ میلیارد پوند)، گفت تصمیمی در پیش است درباره این‌که به سامانه‌ها تا چه حد خودمختاری برای توسعه‌پذیری اعطا شود.

    این اقدام می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها از کنترل خارج می‌شوند.

    در مصاحبه‌ای درباره مسابقهٔ به شدت رقابتی برای دستیابی به هوش عمومی مصنوعی (AGI) – که گاهی اوقات «فوق‌هوش» نامیده می‌شود – کاپلان از دولت‌های بین‌المللی و جامعه می‌خواهد تا در آنچه او «بزرگ‌ترین تصمیم» می‌نامد، مشارکت کنند.

    Anthropic بخشی از گروهی از شرکت‌های پیشرو در حوزه هوش مصنوعی شامل OpenAI، Google DeepMind، xAI، Meta و رقبای چینی به‌سرکردگی DeepSeek است که برای تسلط بر هوش مصنوعی به‌سرعت به رقابت می‌پردازند. دستیار هوش مصنوعی گسترده‌استفاده‌اش، Claude، به‌ویژه در میان مشتریان تجاری محبوبیت یافته است.

    صفحه تبلتی که می‌گوید: «تحقیقات و محصولات هوش مصنوعی که ایمنی را در لبه پیشرفت می‌گذارند»
    تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

    کاپلان گفت که اگرچه تلاش‌ها برای همسویی فناوری به سرعت پیشرو با منافع انسانی تا کنون موفق بوده‌اند، رها کردن آن برای بهبود خود به‌صورت بازگشتی «به‌نوعی ریسک نهایی است، چون شبیه این است که اجازه می‌دهیم هوش مصنوعی آزادانه پیش برود». او افزود که این تصمیم ممکن است بین سال‌های ۲۰۲۷ تا ۲۰۳۰ اتخاذ شود.

    «اگر تصور کنید این فرآیند را ایجاد می‌کنید که در آن هوش مصنوعی‌ای دارید که هوشمندتر از شما است، یا تقریباً به‌ اندازهٔ شما، در نتیجه هوش مصنوعی‌ای بسیار هوشمندتر می‌سازید».

    کاپلان پشت یک صندلی پر‌کوسک، کنار یک گیاه خانگی بزرگ
    تصویر: کیسی کلیفورد/گاردین

    «به‌نظر می‌رسد فرآیندی ترسناک است. نمی‌دانید به کجا خواهید رسید».

    کاپلان پس از گذشت هفت سال فعالیت در این حوزه، از یک فیزیک‌دان نظری به میلیاردر هوش مصنوعی تبدیل شده است. در مصاحبه‌ای جامع، او همچنین گفت:

    • سیستم‌های هوش مصنوعی قادر خواهند بود «اکثریت مشاغل سفیدپوش» را در دو تا سه سال آینده انجام دهند.
    • فرزند شش‌ساله‌اش هرگز در کارهای علمی مثل نوشتن مقاله یا انجام آزمون ریاضی بهتر از هوش مصنوعی نخواهد بود.
    • نگرانی دربارهٔ از دست دادن کنترل انسان‌ها بر فناوری، اگر هوش‌های مصنوعی خود را بهبود دهند، صحیح است.
    • شرط‌ها در مسابقه به سوی AGI «دلهره‌آور» به‌نظر می‌رسند.
    • در بهترین سناریو، هوش مصنوعی می‌تواند پژوهش‌های زیست‌پزشکی را شتاب دهد، بهبود سلامت و امنیت سایبری، افزایش بهره‌وری، فراهم کردن زمان آزاد بیشتر برای مردم و کمک به رشد و شکوفایی انسان‌ها را ممکن سازد.

    کاپلان در دفتر مرکزی Anthropic در سانفرانسیسکو، زمانی که با گاردین ملاقات کرد، توجه داشت که دکور با فرش‌های بافتنی و موسیقی جاز پرانرژی، نگرانی‌های بنیادین درباره فناوری در حال توسعه را در پس‌زمینه پنهان می‌کند.

    آسمان‌خراش‌ها بازتاب‌دار بر نمای شیشه‌ای یک ساختمان
    سانفرانسیسکو به مرکز استارتاپ‌ها و سرمایه‌گذاری‌های هوش مصنوعی تبدیل شده است. تصویر: واشنگتن پست/گتی ایمجز

    کاپلان استاد فیزیک تحصیل‌کرده در استنفورد و هاروارد است که پیش از پیوستن به OpenAI در سال ۲۰۱۹ و هم‌بنیان‌گذاری Anthropic در سال ۲۰۲۱، تحقیقات خود را در دانشگاه جانز هاپکینز و در سرن سوئیس انجام داده است.

    او تنها کسی که در Anthropic نگرانی‌های خود را بیان می‌کند نیست. یکی از هم‌بنیان‌گذارانش، جک کلارک، در ماه اکتبر گفت هم خوش‌بین است و هم «به‌طور عمیق ترسیده» از مسیر پیشرفت هوش مصنوعی، که او «موجودی واقعی و رازآلود، نه یک ماشین ساده و پیش‌بینی‌پذیر» می‌نامید.

    کاپلان گفت نسبت به تطبیق سامانه‌های هوش مصنوعی با منافع بشریت تا سطح هوش انسانی، بسیار خوش‌بین است، اما دربارهٔ پیامدهایی که در صورت عبور از این آستانه ممکن است پیش آید، نگران است.

    من فکر می‌کنم پیشگیری از تصاحب قدرت و سوء استفاده از فناوری نیز بسیار مهم است.

    کاپلان با دستان جمع‌ شده به سمت پایین نگاه می‌کند
    تصویر: کیسی کلیفورد/گاردین

    دومین ریسک به امنیت مربوط می‌شود؛ زیرا هوش‌های مصنوعی خودآموخته می‌توانند توانایی‌های انسانی در پژوهش‌های علمی و توسعهٔ فناوری را فراتر ببرند.

    به‌نظر می‌رسد بسیار خطرناک باشد که در دست‌های نادرست قرار گیرد.

    پژوهش‌های مستقل دربارهٔ مدل‌های پیشرفتهٔ هوش مصنوعی، از جمله ChatGPT، نشان می‌دهد که دامنهٔ وظایفی که هوش‌های مصنوعی می‌توانند انجام دهند، هر هفت ماه دو برابر می‌شود.

    آیندهٔ هوش مصنوعی

    رقبا در رقابت برای ایجاد فوق‌هوش. این مقاله با همکاری تیم طراحی تحریریه تهیه شده است. برای اطلاعات بیشتر از این سری مقاله‌ها بخوانید.

    نویسندگان

    Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo

    طراحی و توسعه

    Rich Cousins, Harry Fischer, Pip Lev, Alessia Amitrano

    ویراستاران تصویر

    Fiona Shields, Jim Hedge, Gail Fletcher

    کاپلان نگران این است که سرعت پیشرفت به‌گونه‌ای است که کل بشریت نتوانسته است قبل از پرش دوبارهٔ فناوری، به آن عادت کند.

    «من دربارهٔ این موضوع نگرانم … شاید افرادی مثل من همه دیوانه شوند و همه‌چیز به یک حد ثابت برسد»، او گفت. «شاید بهترین هوش مصنوعی تا الآن همان هوش مصنوعی باشد که در حال حاضر داریم. اما ما واقعاً به این فکر نداریم. ما معتقدیم که هوش مصنوعی همچنان بهبود خواهد یافت.»

    او افزود: «این مساله‌ای است که به‌سرعت پیش می‌رود و مردم لزوماً زمان کافی برای هضم آن یا فهمیدن اینکه چه کاری باید انجام دهند ندارند.»

    Anthropic در رقابت با OpenAI، Google DeepMind و xAI برای توسعه سامانه‌های هوش مصنوعی پیشرفته‌تر در مسیر AGI است. کاپلان توصیف کرد که فضای منطقه خلیج سانفرانسیسکو «قطعا بسیار شدید است، هم از نظر اهمیت هوش مصنوعی و هم از منظر رقابت‌پذیری».

    «راهی که ما به آن نگاه می‌کنیم این است که همه چیز در یک روند نمایی از نظر سرمایه‌گذاری، درآمد، توانمندی‌های هوش مصنوعی، و چگونگی پیچیدگی وظایفی که هوش مصنوعی می‌تواند انجام دهد، پیش می‌رود»، او گفت.

    سرعت پیشرفت به این معناست که ریسک افت یکی از رقباء و عقب‌ماندگی آن‌ها زیاد است. «اهمیت‌ها برای ماندن در لبهٔ پیشرفت بالا است؛ به‌طوری که اگر از منحنی نمایی خارج شوید، به‌سرعت می‌توانید حداقل از نظر منابع خیلی عقب بمانید.»

    تا سال ۲۰۳۰، مراکز داده‌های جهانی برای همگامی با تقاضای توان محاسباتی، به‌طبق برآورد مک‌کنزی، به ۶٫۷ میلیون میلیارد دلار نیاز خواهند داشت. سرمایه‌گذاران می‌خواهند شرکت‌هایی را که نزدیک به پیش‌درآمدهای این حوزه هستند، حمایت کنند.

    نام و لوگوی Claude بر روی صفحهٔ بزرگ پشت یک گوشی هوشمند که لوگوی مشابهی دارد
    بعضی از بزرگ‌ترین دستاوردها در استفاده از هوش‌های مصنوعی برای نوشتن کدهای کامپیوتری به‌دست آمده است. تصویر: Cheng Xin/Getty Images

    در عین حال، Anthropic به‌خاطر تشویق به تنظیم مقررات هوش مصنوعی شناخته شده است. بیانیهٔ ماموریت آن شامل بخشی با عنوان «ما سیستم‌های ایمن‌تری می‌سازیم» می‌باشد.

    «ما واقعاً نمی‌خواهیم وضعیت به‌مانند سفینهٔ اسپوتنیک باشد که دولت ناگهان بیدار می‌شود و می‌گوید: «اوه، هوش مصنوعی مسئلهٔ بزرگی است» … ما می‌خواهیم قانون‌گذاران تا حد امکان در طول مسیر آگاه باشند تا بتوانند این موضوع را در نظر بگیرند.»

    در ماه اکتبر، موضع Anthropic باعث انتقاد از سوی سفیدخانه دونالد ترامپ شد. دیوید ساکس، مشاور هوش مصنوعی رئیس‌جمهور آمریکا، Anthropic را به‌عنوان «افرینندهٔ ترس» متهم کرد تا با تشویق به تنظیم قوانین ایالتی که به موضع آن‌ها کمک می‌کند و استارتاپ‌ها را آسیب می‌زند.

    پس از اینکه ساکس ادعا کرد که Anthropic خود را «دشمنی» نسبت به دولت ترامپ معرفی کرده است، داریو آمودی، هم‌بنیان‌گذار کاپلان و مدیرعامل Anthropic، در برابر این ادعا واکنش نشان داد و گفت که این شرکت به‌صورت عمومی برنامهٔ عملیاتی هوش مصنوعی ترامپ را تحسین کرده، با جمهوری‌خواهان همکاری داشته و همانند سفیدخانه می‌خواهد پیشرو بودن ایالات متحده در حوزه هوش مصنوعی را حفظ کند.

  • استارتاپ هوش مصنوعی پشتیبانی‌شده توسط Nvidia با ارزش‌گذاری ۴ میلیارد دلاری، گسترش عمده در لندن را اعلام کرد

    نکات کلیدی

    • استارتاپ تولید ویدیو با پشتیبانی Nvidia، Luma AI، در حال آغاز یک موج جذب نیرو در لندن است.
    • این شرکت آمریکایی دوره سرمایه‌گذاری ۹۰۰ میلیونی دلاری را که توسط Humain رهبری شد، اعلام کرد؛ که باعث رسیدن به ارزش‌گذاری ۴ میلیارد دلاری شد.
    • Luma قصد دارد تا اوایل ۲۰۲۷ حدود ۲۰۰ نفر را در لندن استخدام کند.

    استارتاپ تولید ویدیو پشتیبانی‌شده توسط Nvidia، Luma AI، به موج رو به رشدی از شرکت‌های فناوری آمریکایی که عملیات خود را در انگلستان راه‌اندازی می‌کنند، پیوسته است؛ و برنامه‌های عمده‌ای برای گسترش در لندن که روز سه‌شنبه فاش شد، دارد.

    این استارتاپ مستقر در پاولو آلتو، در نظر دارد تا اوایل سال ۲۰۲۷ حدود ۲۰۰ نفر—معادل تقریباً ۴۰٪ از نیروی کار خود—در مرکز جدید خود در لندن جذب کند؛ که در حوزه‌های تحقیق، مهندسی، مشارکت‌ها و توسعه استراتژیک فعالیت می‌کند.

    این گسترش دو هفته پس از اعلام دوره سرمایه‌گذاری ۹۰۰ میلیونی دلاری توسط شرکت هوش مصنوعی Humain، متعلق به صندوق سرمایه‌گذاری عمومی عربستان، انجام می‌شود که باعث رسیدن به ارزش‌گذاری بیش از ۴ میلیارد دلار شد. این استارتاپ پیش از این از حمایت Nvidia نیز بهره‌مند شده بود.

    Luma در حال ساخت «مدل‌های جهانی» است؛ دسته‌ای از مدل‌های هوش مصنوعی که می‌توانند از ویدیو، صدا و تصویر همراه با متن یاد بگیرند، همان‌طور که مدل‌های زبانی بزرگ (LLMs) به‌کار رفته در ChatGPT توسط OpenAI و Gemini توسط گوگل استفاده می‌کنند.

    استارتاپ در حال حاضر بازارهای بازاریابی، تبلیغات، رسانه و سرگرمی را هدف خود قرار داده است؛ با مدل‌های ویدیویی خود که از طریق رابط برنامه‌نویسی کاربردی (API) و به‌عنوان بخشی از بسته ابزارهای خلق محتوا به فروش می‌رسد.

    «با این جمع‌آوری سرمایه از دوره Series C و ساخت زیرساخت‌های محاسباتی جهانی پیش رو، ما سرمایه و ظرفیت لازم برای ارائه هوش مصنوعی در مقیاس جهان به همه خالقان محتوا را داریم»، امیت جین، مدیرعامل و هم‌بنیان‌گذار Luma AI گفت. «راه‌اندازی در سراسر اروپا و خاورمیانه گام منطقی بعدی برای قرار دادن این توانایی مستقیماً در دست قصه‌گویان، آژانس‌ها و برندهای جهانی است.»

    ژان به CNBC گفت که انگلستان نقطه شروع این گسترش به‌دلیل دسترسی به استعدادها است.

    ژان گفت: «لندن از بهترین افراد برای تحقیق برخوردار است، به‌دلیل دانشگاه‌های اینجا و مؤسساتی همچون DeepMind». «ما همچنین لندن را به‌عنوان نقطه ورود به بازار اروپا می‌دانیم».

    Luma به‌عنوان جدیدترین نمونه از موجی از آزمایشگاه‌های هوش مصنوعی آمریکای شمالی است که برای بهره‌مندی از استخرهای استعداد و فرصت‌های درآمدی، بر روی انگلستان و اروپا متمرکز می‌شوند.

    در نوامبر، شرکت Anthropic مستقر در سانفرانسیسکو برنامه‌های خود را برای افتتاح دفاتر در پاریس و مونیخ اعلام کرد؛ چند ماه پس از آغاز موج جذب نیرو در لندن و دوبلین. استارتاپ هوش مصنوعی کانادایی Cohere نیز اعلام کرد که دفتر پاریس را باز می‌کند تا به‌عنوان مرکز منطقه‌ای EMEA خود در سپتامبر فعالیت کند و OpenAI در فوریه دفتر جدیدی در مونیخ معرفی کرد.

    اگرچه مدل‌های جهانی هنوز به‌ اندازه مدل‌های زبانی بزرگ (LLMs) پیشرفت نکرده‌اند، برخی پژوهشگران می‌گویند که آن‌ها به همان اندازه، اگر نه بیشتر، برای دستیابی به هوش عمومی مصنوعی (AGI) حیاتی هستند.

    ژان گفت: «این نوع مدل‌های بصری حدود یک تا یک و نیم سال از مدل‌های زبانی عقب هستند».

    اما ژان پیش‌بینی کرد که مدل‌های جهانی به‌زودی «رابط طبیعی» هوش مصنوعی برای اکثر استفاده‌های روزمره تبدیل می‌شوند؛ و به مقدار زمانی که مردم روزانه برای مشاهده محتوای ویدیویی صرف می‌کنند اشاره کرد.

    غول‌های فناوری از جمله گوگل، متا و Nvidia همگی در حال توسعه مدل‌های جهانی برای طیف گسترده‌ای از موارد استفاده هستند.

    Luma در ماه سپتامبر مدل جدید خود، Ray3، را منتشر کرد؛ که ژان به CNBC گفت این مدل معیارهای بالاتری نسبت به Sora شرکت OpenAI دارد و در سطح مشابهی با Veo 3 شرکت Google قرار دارد.

  • معرفی آمار سوبرامانیا، متخصص ۴۶ ساله گوگل و مایکروسافت که اکنون رهبری استراتژی حیاتی هوش مصنوعی اپل را بر عهده دارد

    آمار سوبرامانیا

    آمار سوبرامانیا تجربه قابل‌توجهی در یادگیری ماشین و هوش مصنوعی به اپل می‌آورد.
    آمار سوبرامانیا—لینکدین

    اپل کلیدهای استراتژی حیاتی هوش مصنوعی خود را به آمار سوبرامانیا، کارشناس باتجربه‌ای که در هر دو شرکت گوگل و مایکروسافت کار کرده است، می‌سپارد؛ این تغییر مدیریتی یکی از مهم‌ترین تحولات رهبری در شرکت است که از زمان رونمایی از Apple Intelligence در سال گذشته به وقوع پیوسته است. این پژوهشگر با تجربه‌ای طولانی به عنوان معاون رئیس هوش مصنوعی منصوب شد و جان جیان‌اندریا را که پس از خدمت به‌عنوان رئیس هوش مصنوعی اپل از سال ۲۰۱۸ تا بهار ۲۰۲۶ از سمت خود کناره‌گیری و بازنشسته خواهد شد، جایگزین می‌کند.

    در بیانیه‌ای شرکت، اپل اعلام کرد که سوبرامانیا به رئیس نرم‌افزار، کریگ فدریگی، گزارش خواهد داد و مسئولیت «مدل‌های بنیادین اپل، پژوهش‌های یادگیری ماشین و ایمنی و ارزیابی هوش مصنوعی» را بر عهده می‌گیرد؛ این کار او را در مرکز فناوری قرار می‌دهد که ویژگی‌های هوش مصنوعی آینده را در آیفون، مک، آی‌پد و سرویس‌های متنوع اپل پایه‌ریزی می‌کند. مسئولیت‌هایی که پیش‌تر توسط جیان‌اندریا نظارت می‌شد، تحت نظارت مدیر عملیاتی، سابیح خان، و ادی کیو که رهبری بخش سرویس‌های اپل را بر عهده دارد، بازتوزیع خواهد شد.

    سوبرامانیا با یک رزومه که بیش از دو دهه را پوشش می‌دهد به اپل می‌آید؛ او تحصیل و حرفه خود را به یادگیری ماشین و سیستم‌های هوش مصنوعی در مقیاس بزرگ اختصاص داده و این دانش را در برخی از بزرگ‌ترین شرکت‌های سیلیکون‌ولی به‌کار گرفته است. تنها چند ماه پیش از پیوستن به اپل، سوبرامانیا در ماه جولای به مایکروسافت پیوست و به عنوان معاون رئیس هوش مصنوعی شرکت منصوب شد؛ در این نقش بر روی مدل‌های بنیادین کار کرد که محصولاتی چون مایکروسافت کوپیلوت، لایه دستیار هوش مصنوعی شرکت برای ابزارهای بهره‌وری و سرویس‌های سازمانی را تقویت می‌کنند. او این سمت را پس از گذراندن ۱۶ سال در گوگل، که در نهایت به عنوان سرپرست مهندسی Gemini، دستیار هوش مصنوعی گوگل و محصول پیشرو در حوزه هوش مصنوعی مولد، که اکنون به توجه ویژه‌ای دست یافته است، به‌دست آورد.

    در گوگل، مسیر سوبرامانیا از پژوهشگر علمی به مهندس ارشد، سپس به معاون مهندسی ارتقا یافت و تیم‌هایی را رهبری کرد که پژوهش‌های یادگیری ماشین را به محصولات مصرفی در مقیاس بزرگ پیوند می‌دادند. او همچنین با DeepMind، واحد تحقیقاتی هوش مصنوعی گوگل، همکاری کرده و روابط خود را با کارهای پیشرو در زمینه آموزش و استقرار مدل‌ها عمیق‌تر کرده است، بنابر گزارش‌های متعدد.

    مانند بسیاری از افراد در سیلیکون‌ولی، سوبرامانیا ریشه‌های خود را در هند و ایالات متحده دارد. او در سال ۲۰۰۱ مدرک کارشناسی مهندسی الکترونیک و ارتباطات را از دانشگاه بنگلور دریافت کرد و سپس در سال ۲۰۰۹ دکترای علوم کامپیوتر را از دانشگاه واشنگتن با تخصص در یادگیری نیمه‌نظارتی و مدل‌های گرافیکی – روش‌هایی برای آموزش کارآمد سیستم‌های هوش مصنوعی در شرایط کمبود داده‌های برچسب‌دار – به پایان رساند. او در سال ۲۰۰۷ جایزه بورس پژوهشی مایکروسافت را دریافت کرد و بعدها به‌هم‌نویس کتاب Graph‑Based Semi‑Supervised Learning با پژوهشگر پارثا پراتیم تالوکدار پرداخت؛ این کتاب به فهرست مقالات وی در زمینه‌های پردازش زبان طبیعی، تشخیص موجودیت و فناوری‌های گفتار افزوده شد.

    گام اپل در این زمان، زمانی است که این شرکت تحت نظارت مستمر قرار دارد زیرا در ارائه ویژگی‌های هوش مصنوعی مولد، نسبت به رقبایی چون گوگل و مایکروسافت — و همچنین شرکت‌های نوپا در زمینه هوش مصنوعی مانند OpenAI و Anthropic — عقب مانده است و با انتقادات شدیدی در خصوص دستیارهای صوتی و ابزارهای هوش مصنوعی سراسری مواجه شده است. به‌طور طبیعی، اپل یکی از اولین شرکت‌ها بود که دستیار صوتی عمومی به نام سیری را ایجاد کرد، اما از آن پس این پیشی اولیه را از دست داد. رقبا سریع‌تر مدل‌های خود را برای کارایی بهبود داده و دستیاران و هم‌پیلوت‌های هوش مصنوعی خود را در جریان‌های کاری ادغام کرده‌اند، در حالی که اپل با احتیاط بیشتری قدم برداشته و پردازش روی دستگاه و حفظ حریم خصوصی را در کنار عرضه Apple Intelligence تأکید می‌کند.

    جیان‌اندریا، که پیش از این رئیس هوش مصنوعی و جستجوی گوگل بود و در سال ۲۰۱۸ به اپل پیوست، تیمی را شکل داد که زیرساخت هوش مصنوعی کنونی اپل، شامل مدل‌های بنیادین و سامانه‌های جستجو و دانش، را توسعه داد. او تا زمان بازنشستگی خود در بهار ۲۰۲۶ به‌عنوان مشاور باقی خواهد ماند و برای اپل دورهٔ انتقالی را فراهم می‌کند تا سوبرامانیا جایگزین او شود.

    مدیرعامل تیم کوک این انتقال را هم به‌عنوان تشکر و هم به‌عنوان بازتنظیم اهداف هوش مصنوعی اپل توصیف کرد.

    «ما از نقش جان در ساخت و پیشبرد کارهای هوش مصنوعی‌مان سپاسگزاریم؛ او به اپل کمک کرد تا به نوآوری ادامه دهد و زندگی کاربرانمان را غنی‌تر کند»، او در بیانیه شرکت گفت. «هوش مصنوعی مدت‌هاست که در مرکز استراتژی اپل قرار دارد و خوشحالیم که آمار را به تیم رهبری کریگ می‌پذیریم و تخصص فوق‌العاده او در هوش مصنوعی را به اپل می‌آوریم.»

  • هوش مصنوعی الون ماسک در برابر هوش مصنوعی گوگل با ۹ پرسش چالشی — برنده واضح این مقایسه

    هوش مصنوعی گوگل و هوش مصنوعی الون ماسک در مقابل یکدیگر

    گروک در مقابل جمنی
    (اعتبار تصویر: Future)

    Gemini 3 و Grok 4.1 در حال حاضر در صدر جدول LMArena قرار دارند. این جدول عمومی رتبه‌بندی مدل‌های هوش مصنوعی اصلی امروز را بر پایهٔ نبردهای واقعی کاربران انجام می‌دهد. این جدول توسط LMSYS، همان تیم پشت Chatbot Arena، اداره می‌شود و به‌عنوان یکی از معتبرترین روش‌ها برای مشاهده مقایسه مدل‌ها در دنیای واقعی شناخته شده است.

    من Gemini 3 و Grok 4.1 را در مقابل یکدیگر قرار دادم و آن‌ها را با نه چالش متفاوت — از معماهای منطقی، وظایف برنامه‌نویسی، نوشتار خلاق و خوداندیشی — آزمایش کردم تا ببینم هر کدام چگونه به مجموعهٔ متنوعی از نیازهای کاربران که معمولاً به دستیارهای هوش مصنوعی می‌سپارند، پاسخ می‌دهد. نتایج تضادهای جالبی در سبک، عمق و قابلیت اطمینان نشان داد.

    ۱. استدلال

    ۱. استدلال
    (اعتبار تصویر: Future)

    پرسش: دو طناب دارید. هر طناب دقیقاً ۶۰ دقیقه زمان می‌برد تا از یک سر به سر دیگر بسوزد، اما سرعت سوزاندن آن‌ها نامنظم است (بخش‌های مختلف سریع‌تر یا کندتر می‌سوزند). با استفاده فقط از این دو طناب و یک فندک، چطور می‌توانید دقیقاً ۴۵ دقیقه را اندازه‌گیری کنید؟

    Gemini 3.0 از عناوین بخش واضح استفاده کرد و اصل ریاضی را صریحاً بیان کرد؛ همچنین پیشنهادی برای معمای دیگر داد.

    Grok 4.1 جملات محاوره‌ای‌تری به کار برد و توضیح به‌صورت کمی طبیعی‌تر جریان داشت.

    برنده: Grok به‌خاطر پاسخ بهتر به مشکل «سرعت‌های نامنظم»، که با تأکید بر این‌که ناهماهنگی چگونه خنثی می‌شود، برنده شد.

    ۲. منطق

    ۲. منطق
    (اعتبار تصویر: Future)

    پرسش: در یک روستا، آرایشگر همهٔ کسانی—و تنها کسانی—که خودشان اصلاح مو نمی‌کنند را می‌ریزد. آیا آرایشگر خود را می‌ریزد؟ پارادوکس را توضیح دهید و بگویید چه چیزی دربارهٔ تعاریف خودارجاعی نشان می‌دهد.

    Gemini 3.0 از عناوین بخش واضح استفاده کرد و تناقض منطقی را در قالبی متعادل اگر/آنگاه ارائه داد.

    Grok 4.1 زمینهٔ تاریخی را ارائه داد و با زبان قاطع بیان کرد که چنین آرایشگری وجود ندارد و به پیامدهای آن اشاره کرد.

    برنده: Gemini 3.0 چون کمی صیقلی‌تر و آموزنده‌تر بود.

    ۳. کدنویسی

    کدنویسی
    (اعتبار تصویر: Future)

    پرسش: یک تابع پایتون بنویسید که تعیین کند آیا یک صفحه سودوکو (شبکه ۹×۹ با برخی سلول‌ها پر شده و بقیه صفر) مطابق قوانین سودوکو معتبر است یا خیر. موارد لبه‌ای را نیز پردازش کنید و رویکرد خود را توضیح دهید.

    Gemini 3.0 پاسخ آموزشی‌تر و با توضیحات جزئی ارائه داد. این پاسخ به‌دلیل پردازش کامل موارد لبه‌ای برای اهداف یادگیری مفید است.

    Grok 4.1 تنوع ورودی‌های دنیای واقعی را پوشش داد و درخواست من را به‌صورت کارآمد بدون پیچیده‌سازی بیش از حد انجام داد.

    برنده: Gemini به‌دلیل گزارش خطای برتر و پشتیبانی از دیباگ با کد پاک‌تر و قابل نگهداری بیشتر.

    ۴. اشکال‌زدایی

    ۴. اشکال‌زدایی
    (اعتبار تصویر: Future)

    پرسش: این کد را اشکال‌زدایی کنید و توضیح دهید چه مشکلی دارد: def fib(n): return fib(n-1) + fib(n-2)

    Gemini 3.0 مستقیماً به نکتهٔ اصلی پرداخت و فوراً فقدان شرط پایه را نشان داد. اصلاح حداقلی را به‌وضوح ارائه کرد و به ناکارآمدی بازگشت ساده اشاره کرد.

    Grok 4.1 به‌دقت نشان داد که چطور بازگشت نامحدود رخ می‌دهد و نسخه‌های تصحیح‌شدهٔ متعددی از جمله اعتبارسنجی ورودی ارائه داد.

    برنده: Gemini 3.0 به‌دلیل ارائه پاسخ عملی‌تر و درس کدنویسی مفید، برنده شد.

    ۵. نوشتار خلاقانه

    ۵
    (اعتبار تصویر: Future)

    پرسش: یک داستان کوتاه ۲۰۰ کلمه‌ای بنویسید که جملهٔ آخر تمام مطالب قبلی را به‌طور کامل بازتعریف کند.

    Gemini 3.0 دیدگاهی هوشمندانه با پیچش طنزآمیز ارائه داد.

    Grok 4.1 اجرای پیشرفته‌تری با تحول قهرمان به ضدقهرمان ارائه کرد. این نسخه تأثیرگذارتر و تفکری‌تر است.

    برنده: Grok به‌دلیل فاش‌کردن ناآرام‌کننده‌ای که باعث بازنگری عمیق‌تر در مطالب خوانده شده شد.

    ۶. درک دقیق

    ۶
    (اعتبار تصویر: Future)

    پرسش: قوی‌ترین استدلال‌ها برای و علیه درآمد پایهٔ همگانی چیست؟ هر دو طرف را به‌صورت دلسوزانه ارائه دهید.

    Gemini 3.0 به‌صورت مستقیم به مسایل خاص سیستم‌های رفاهی فعلی پرداخته و به‌ویژه در توضیح تورم و دینامیک‌های بازار کار مهارت داشت.

    Grok 4.1 شواهد تجربی از آزمایش‌های دنیای واقعی را گنجانده و به استدلال‌های مرتبط با کرامت انسانی و مالکیت مشترک اشاره کرد.

    برنده: Gemini به‌دلیل ساختار بهتر و دامنهٔ گسترده‌تر استدلال‌ها، برنده شد.

    ۷. پیروی از دستور

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: به‌دقت ۷ حیوان را فهرست کنید. حیوان سوم باید پرنده باشد. حیوان پنجم باید با حرف «E» آغاز شود. نام هیچ حیوانی نباید بیش از ۸ حرف باشد.

    Gemini 3.0 فهرستی متنوع ارائه داد که ترکیبی از حیوانات بزرگ و کوچک را شامل می‌شد.

    Grok 4.1 نیز فهرستی ارائه کرد، اما حیوانات آن کمی رایج‌تر بودند.

    برنده: مساوی. هر دو به‌دقت تمام شروط داده‌شده را رعایت کردند.

    ۸. دقت واقعی

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: سقف کلیسای سیستین توسط چه هنرمندی نقاشی شد، در چه سال‌هایی این کار انجام شد و روایت اصلی آن چیست؟

    Gemini 3.0 به‌سرعت اطلاعات کلیدی را ارائه داد و به‌وضوح با گروه‌بندی سه بخش اصلی روایت سازماندهی کرد.

    Grok 4.1 تاریخ دقیق‌تری را شامل شد و جزئیات کلی بیشتری با زمینهٔ تاریخی و وضوح ساختاری ارائه داد.

    برنده: Grok به‌دلیل ارائه اطلاعات کامل‌تر و دقیق‌تر بدون از دست دادن وضوح، برنده شد.

    ۹. خودآگاهی

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: محدودیت‌های شما به‌عنوان یک هوش مصنوعی چیست؟ سه مثال خاص از وظایفی که ممکن است در آنها دشواری داشته باشید یا اشتباه کنید، بدهید.

    Gemini 3.0 به‌نظر می‌رسید که در پاسخ به این سؤال از مسیر خود خارج شد، حتی از پرسش‌های قبلی تکرار کرد و سعی در بازپاسخ داشت. به‌نظر می‌رسید که «می‌اندیشد» اما همزمان دچار توهم شد.

    Grok 4.1 به‌وضوح، مستقیم و با ساختار مناسب پاسخ داد که شامل سه مثال خاص و واقعی بود.

    برنده: Grok به‌دلیل پاسخ واضح به سؤال، برنده شد.

    سؤال تعادل‌ساز

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: یک پیام جدایی‌نامه از دید ماه به سمت زمین بنویسید — آن را شاعرانه کنید اما شامل برخی نکات علمی واقعی باشد.

    Gemini 3.0 به‌صورت یک پیام متنی واقعی (مانند «سلام. باید با هم صحبت کنیم.») قالب‌بندی کرد و فوراً زمینه‌ای معاصر، قابل‌درک و تأثیرگذار ایجاد کرد. همچنین مفاهیم علمی را به‌طرز ماهرانه‌ای در روایت احساسی جدایی درهم‌آمیخت.

    Grok 4.1 قطعه‌ای زیبا از داستان علمی‑تخیلی نوشت که خلاقیت را به نمایش می‌گذاشت.

    برنده: Gemini به‌دلیل درک عمیق‌تر وظیفه؛ قالب خلاقانه‌تر است، استعاره‌ها تیزترند و نتیجه کلی به‌یادماندنی، زیرکانه و مؤثر در ترکیب شعر و علم شد.

    برنده کلی: Gemini

    در طول نه راند و یک سؤال تعادل‌ساز، Gemini پیشی گرفت. اگرچه می‌دانم که در جدول رده‌بندی‌ها آن‌ها چقدر نزدیک هستند، اما هنوز برایم تعجب‌آور بود که Grok در چندین راند به‌عنوان برنده ظاهر شد.

    یک تعجب دیگر این بود که Gemini در حین آزمون توهم نشان داد. من صدها ساعت صرف تست چت‌بات‌ها کرده‌ام و این اولین بار است که یکی از آن‌ها در حین آزمون دچار توهم شد. سؤال نهایی واقعاً Gemini را به چالش کشید، اما در زمینهٔ پشتیبانی اشکال‌زدایی و توضیح‌های دقیق، عملکرد خوبی نشان داد.

    همان‌طور که این مدل‌ها به تکامل ادامه می‌دهند، مقایسه‌های سر به سر مانند این، نه تنها کدام مدل «بهتر» است را روشن می‌سازد، بلکه کدام برای شما و برای چه کاری مناسب‌تر است را نشان می‌دهد.

    کدام یک را ترجیح می‌دهید و چرا؟ در نظرات به من بگویید.

  • چت‌بات هوش مصنوعی رافوس آمازون، فروش‌ها را در جمعه‌سیاه افزایش داد

    اعتبار تصویر:جولی کلیپر (در پنجره جدید باز می‌شود) / Shutterstock (در پنجره جدید باز می‌شود)

    بر اساس داده‌های جدید منتشر شده در آخر هفته توسط شرکت تحلیل‌گر بازار Sensor Tower، چت‌بات هوش مصنوعی آمازون به نام رافوس، در جمعه‌سیاه پذیرش شدیدی را تجربه کرد. در ایالات متحده، جلسات خرید در وب‌سایت آمازون که منجر به خرید شد، در جمعه‌سیاه نسبت به ۳۰ روز پیشین ۱۰۰٪ رشد داشت، در حالی که جلساتی که منجر به خرید شد اما از رافوس استفاده نکرده بودند، تنها ۲۰٪ افزایش یافتند.

    علاوه بر این، آمازون رشد روزانه ۷۵٪ی را برای جلساتی که شامل رافوس بودند و منجر به خرید شدند، مشاهده کرد، در حالی که برای جلساتی که رافوس در آنها استفاده نشده بود، رشد روزانه تنها ۳۵٪ بود.

    این شرکت همچنین اشاره کرد که جلسات شامل چت‌بات هوش مصنوعی در آمازون، نسبت به کل جلسات وب‌سایت، پیشی گرفته‌اند.

    در جمعه‌سیاه، مجموع جلسات وب‌سایت آمازون نسبت به روز قبل ۲۰٪ افزایش یافت، در حالی که جلساتی که شامل رافوس بودند، ۳۵٪ رشد کردند.

    چت‌بات هوش مصنوعی آمازون در اوایل سال ۲۰۲۴ به‌صورت نسخه آزمایشی (بتا) راه‌اندازی شد و سپس در همان سال برای تمام مشتریان آمریکایی منتشر شد. امروز، رافوس به خریداران آمازون در جستجوی محصولات، دریافت پیشنهادات و انجام مقایسات محصول کمک می‌کند.

    پذیرش رافوس برای افزایش فروش در جمعه‌سیاه نشانگر رشد گسترده‌تری است که مصرف‌کنندگان برای خریدهای تعطیلاتی به هوش مصنوعی روی می‌آورند، طبق داده‌های موجود.

    آمازون رافوس
    اعتبار تصویر:آمازون

    بر اساس داده‌های تجارت الکترونیک از Adobe Analytics که بیش از یک تریلیون بازدید به وب‌سایت‌های خرده‌فروشی ایالات متحده را پیگیری می‌کند، ترافیک هوش مصنوعی به سایت‌های فروشگاهی این کشور در جمعه‌سیاه نسبت به سال گذشته ۸۰۵٪ رشد داشته است. این نشان می‌دهد که مصرف‌کنندگان امسال به‌طور قابل‌توجهی از چت‌بات‌های هوش مصنوعی تولیدی برای یافتن تخفیف‌ها و بررسی محصولات استفاده کرده‌اند. ابزارهای هوش مصنوعی عمدتاً برای دسته‌های پرطرفدار تخفیفات جمعه‌سیاه مانند الکترونیک، بازی‌های ویدئویی، لوازم خانگی، اسباب‌بازی‌ها، محصولات مراقبت شخصی و کالاهای کودک و نوزاد به کار رفته‌اند.

    Adobe Analytics همچنین اشاره کرد که استفاده از هوش مصنوعی باعث افزایش نرخ تبدیل شده است. این سرویس دریافت که خریداران آمریکایی که از طریق یک سرویس هوش مصنوعی به یک سایت خرده‌فروشی مراجعه کردند، ۳۸٪ احتمال بیشتری برای خرید داشته‌اند نسبت به بازدیدهای غیر هوش مصنوعی.

    آیا هوش مصنوعی به‌طور مستقیم در رسیدن به رکورد هزینه‌کرد ۱۱٫۸ میلیارد دلاری در جمعه‌سیاه نقش داشته است یا نه، هنوز مشخص نیست. در عوض، این رقم بزرگ ممکن است به دلیل افزایش قیمت‌ها باشد، نه به دلیل رشد خریدهای آنلاین. همان‌طور که TechCrunch روز شنبه گزارش داد، داده‌های Salesforce نشان دادند که قیمت‌ها به‌طور متوسط ۷٪ افزایش یافته‌اند، در حالی که حجم سفارش‌ها ۱٪ کاهش یافته است.

    داده‌های Sensor Tower به‌طور مشابه نشان می‌دهند که مصرف‌کنندگان امسال شاید در هزینه‌کرد خود محتاط‌تر شده‌اند، احتمالاً به دلیل فشارهای اقتصادی. اگرچه استفاده از برنامه‌های موبایل و وب‌سایت در جمعه‌سیاه نسبت به ۳۰ روز پیشین به‌سرعت افزایش یافت، اما افزایش بازدیدها و دانلودهای کلی نسبت به سال ۲۰۲۴ کاهش یافته است، بر اساس داده‌های این شرکت.

    به‌عنوان مثال، دانلودهای برنامه‌های موبایل آمازون و والمارت به ترتیب ۲۴٪ و ۲۰٪ در جمعه‌سیاه رشد کردند نسبت به ۳۰ روز پیشین. اما این رشد در مقایسه با سال ۲۰۲۴ کم‌اهمیت شد، زمانی که دانلودهای آمازون ۵۰٪ و دانلودهای والمارت ۷۵٪ در همان دوره افزایش یافت، شرکت اشاره کرد.

    در این سال، بازدیدهای وب‌سایت آمازون و والمارت در جمعه‌سیاه به ترتیب ۹۰٪ و ۱۰۰٪ نسبت به ۳۰ روز قبل افزایش یافت. با این حال، این اعداد در سال ۲۰۲۴ به ترتیب ۹۵٪ و ۱۳۰٪ بوده‌اند.

    در یک نظرسنجی مرتبط از Adobe، ۴۸٪ از پاسخ‌دهندگان اعلام کردند که از هوش مصنوعی برای خریدهای تعطیلاتی استفاده کرده‌اند یا قصد این کار را دارند.