دسته: هوش مصنوعی

  • با وجود سر و صدا، هوش مصنوعی عامل هنوز برای به‌دست‌گیری کنترل‌های برند آماده نیست

    توسط کیمکو مک‌کوی

    Ivy Liu

    هوش مصنوعی عامل اهداف بلندپروازانه‌ای دارد و به بازاریابان وعده می‌دهد که ایده‌پردازی و اجرا را در یک جریان، با نظارت کمی، انجام دهند. اما واقعیت این است که هنوز انسان‌ها فرماندهی کار را در دست دارند.

    در بخش اعظم سال ۲۰۲۵، هوش مصنوعی عامل به عنوان واژه‌پرفروش صنعت مطرح شد. همان‌طور که Digiday تعریف می‌کند، «وضعیتی که در آن چندین عامل هوش مصنوعی برای تکمیل وظایف پیچیده با هم کار می‌کنند، با نظارت حداقل از سمت کاربر انسانی». اما به‌نظر می‌رسد این نظارت کم، مانعی باشد که بازاریابان را از پذیرش کامل استقلال هوش مصنوعی عامل باز می‌دارد.

    «این فقط برای انتقال از تولید به انتشار آماده نیست»، گفت کارن رودریگز، مدیر ارشد بازاریابی محتوا در New American Funding.

    رودریگز گفت که شرکت وام‌دهی مسکن از هوش مصنوعی عامل در تمام بخش بازاریابی خود برای نوشتن متون و پیش‌نویس‌های محتوا در شبکه‌های اجتماعی و بازاریابی ایمیلی استفاده می‌کند. New American Funding هوش مصنوعی عامل را از طریق مشارکت خود با Writer، یک پلتفرم هوش مصنوعی سازمانی، آزمون کرده است. با این حال، انسان‌ها بخش عمدهٔ محتوا را پیش از انتشار بازبینی می‌کنند.

    در شرکت فناوری سلامت و بهزیستی Oura نیز وضعیت مشابهی مشاهده می‌شود. Oura از هوش مصنوعی عامل برای بهینه‌سازی عملکرد خود در جستجوهای هوش مصنوعی عامل و استراتژی تولید محتوا استفاده می‌کند، اما در حال حاضر هیچ محتوای تولید‌شده توسط هوش مصنوعی بدون دخالت انسانی منتشر نمی‌کند، گفت مدیر ارشد بازاریابی Oura، دوگ سوینی.

    «آن‌ها بلاگ نمی‌نویسند، اما از نظر زمینه‌ای به ما کمک می‌کنند — مانند یک ویراستار یا نویسنده‌ای که در کنار شما می‌نشیند و یاری می‌کند»، او گفت.

    به‌عنوان مثال، محتوایی که برای رودریگز در New American Funding قبلاً روزها برای نوشتن، ویرایش و دریافت تأیید از بخش حقوقی می‌طلبید، اکنون می‌تواند در همان روز آماده شود، او گفت.

    طبق پژوهش PwC، شرکت‌های آمریکایی گزارش داده‌اند که هوش مصنوعی عامل بهره‌وری را ۶۶٪ و صرفه‌جویی‌ها را ۵۷٪ افزایش داده است.

    با این وجود، همچنان احتیاطی در مورد اعتماد به این عوامل هوش مصنوعی برای به‌کارگیری مستمر راهنمای سبک برند و منبع‌گذاری صحیح تصاویر تولید‌شده وجود دارد.

    Writer سیستم‌هایی را برای مقابله با توهم و سایر نقص‌های هوش مصنوعی عامل پیاده‌سازی کرده است، گفت دیگو لومان‌تو، مدیر ارشد بازاریابی Writer. به‌عنوان مثال، این سیستم برای هر اقدام انجام‌شده توسط عامل هوش مصنوعی توضیحی ارائه می‌دهد که سپس می‌تواند توسط مشتری بررسی شود، او افزود.

    در Go Fish Digital، یک آژانس بازاریابی دیجیتال، برخی از مشتریان نسبت به خدمات هوش مصنوعی عامل بازتر هستند، در حالی که برخی دیگر نگران توهمات و دقت هستند و یا سیستم‌های خودکار هوش مصنوعی را محدود می‌کنند یا بازبینی انسانی بیشتری می‌طلبند، گفت دیوید دوِک، رئیس Go Fish Digital.

    «همهٔ آنچه ساخته‌ایم برای تعامل بین انسان و هوش مصنوعی طراحی شده است»، دوِک گفت.

  • زن پس از به‌طور وسواسی تولید تصاویر هوش مصنوعی از خود، به روان‌پریشی ناشی از هوش مصنوعی دچار شد

    زنی که در یک استارتاپ تولید تصویر هوش مصنوعی کار می‌کرد می‌گوید این فناوری او را به یک دوره مانیک دو قطبی کشاند که منجر به روان‌پریشی شد.
    Getty / Futurism

    علاوه بر هزینه‌های زیست‌محیطی، سیاسی و اجتماعی‌ای که هوش مصنوعی بر جهان تحمیل کرده است، این فناوری همچنین با بحران جدی سلامت روان مرتبط است؛ به‌طوری‌که کاربران به توهمات می‌گرایند، در نهایت به بیمارستان‌های روان‌پزشکی منتقل می‌شوند یا حتی خودکشی می‌کنند.

    به‌عنوان مثال، Caitlin Ner را در نظر بگیرید. در مقاله‌ای برای Newsweek، Ner درباره تجربه‌اش به‌عنوان سرپرست تجربه کاربری در یک استارتاپ تولید تصویر هوش مصنوعی می‌نویسد — شغلی که او می‌گوید او را به عمق فروپاشی روانی ناشی از هوش مصنوعی کشاند.

    در روایت صریح خود، Ner می‌گوید همه‌اش از زمان کار آغاز شد؛ جایی که او روزانه بیش از نه ساعت را صرف درخواست‌های خود به سامانه‌های اولیهٔ هوش مصنوعی تولیدی از دوران ۲۰۲۳ می‌کرد. اگرچه تصاویری که این سامانه‌های انسان‌ساخت تولید می‌کردند اغلب خراب و تحریف‌شده بودند، اما همچنان «مانند جادو» حس می‌شد — حداقل در ابتدا.

    «در عرض چند ماه، آن جادو به حالت جنونی تبدیل شد»، او نوشت.

    Ner نوشته است که این تصاویر اولیه «آغاز به تحریف ادراک بدن من کردند و مغزم را به‌گونه‌ای بیش از حد تحریک می‌کردند که به‌طور جدی سلامت روانم را تحت‌تأثیر قرار می‌داد». حتی وقتی هوش مصنوعی تعداد انگشت‌های تولید شده در دست انسان را کنترل کرد، این تصاویر همچنان فشار روانی ایجاد می‌کردند؛ به‌جای خطاهای آناتومیک، صحنه‌هایی با اندام‌های فوق‌العاده لاغر و زیبا را به تصویر می‌کشیدند.

    «دیدن مکرر این تصاویر هوش مصنوعی، حس عادی بودن من را دوباره‌تنظیم کرد»، Ner توضیح داد. «وقتی به انعکاس واقعی‌ام نگاه می‌کردم، چیزی می‌دیدم که نیاز به اصلاح داشت».

    در یک لحظهٔ بحرانی، Ner شروع به آزمایش با تصاویری کرد که خود را به‌عنوان یک مدل مد به تصویر می‌کشید؛ دستوری که توسط شرکتش که به دنبال کاربران علاقه‌مند به مد بود، تعیین شده بود. «متوجه شدم که در حال فکر کردن به این هستم که «اگر فقط شبیه نسخهٔ هوش مصنوعی‌ام می‌بودم»،» او نوشت. «به‌شدت وسواسی به کم‌چربی‌تر شدن، داشتن بدن بهتر و پوست کامل فکر می‌کردم».

    به‌زودی او برای تولید بی‌وقفه تصاویر، خواب خود را از دست داد؛ این کار را «اعتیادآور» می‌نامید، چون هر تصویر «یک انفجار کوچک دوپامین» را به‌وجود می‌آورد. اگرچه Ner پیش از ورود به مدلینگ مد هوش مصنوعی به‌خوبی اختلال دوقطبی خود را تحت درمان داشت، این وسواس جدید به یک «دورهٔ مانیک دو قطبی» تبدیل شد که او می‌گوید باعث بروز روان‌پریشی شد.

    «وقتی تصویری هوش مصنوعی از من روی اسب پرنده دیدم، باور کردم که می‌توانم واقعاً پرواز کنم»، Ner می‌نویسد. «صدای‌ها به من گفتند از بالکن بپرسم، احساس اطمینانی به من دادند که می‌توانم زنده بمانم. این توهم بزرگ‌نمایی تقریباً مرا به پرش واقعی ترغیب کرد».

    خوشبختانه، او خود را متوقف کرد و برای کمک به دوستان و خانواده رجوع کرد. یک متخصص به او کمک کرد تا متوجه شود کارش این مسیر را به‌وجود آورده است، که منجر به ترک استارتاپ هوش مصنوعی شد. «اکنون می‌فهمم که آنچه برایم رخ داد تنها تصادف بیماری روانی و فناوری نبود»، او توضیح می‌دهد. «این یک نوع اعتیاد دیجیتال بود که ماه‌ها و ماه‌ها تولید تصویر هوش مصنوعی به‌وجود آمد».

    او پس از آن به‌عنوان مدیر در یک شرکت مدرن دیگر به نام PsyMed Ventures منتقل شد؛ شرکتی که Newsweek آن را به‌عنوان یک صندوق سرمایه‌گذاری خطرپذیر که در حوزه سلامت ذهن و مغز سرمایه‌گذاری می‌کند، توصیف کرده است. بسیاری از شرکت‌های سرمایه‌گذاری شده توسط PsyMed ابزارهای هوش مصنوعی دارند — که Ner می‌گوید هنوز هم از آن‌ها استفاده می‌کند، هرچند با احترامی تازه یافته.

    اطلاعات بیشتر درباره هوش مصنوعی: مردی که توصیف می‌کند چگونه ChatGPT او را مستقیماً به روان‌پریشی کشاند

  • Google می‌گوید گزینهٔ «به‌صورت تدریجی معرفی می‌شود» برای تغییر آدرس @gmail.com شما

    در یک صفحهٔ پشتیبانی Google، این شرکت اعلام می‌کند که گزینهٔ جدیدی برای اجازهٔ تغییر آدرس ایمیل کاربران حتی اگر آدرسشان «@gmail.com» باشد، به‌صورت تدریجی در حال اجراست.

    مدتی است که Google به کاربران اجازه می‌دهد آدرس ایمیل حساب خود را در صورت استفاده از آدرس ایمیل شخص ثالث تغییر دهند، اما کاربران دارای آدرس «@gmail.com» نمی‌توانستند آن را تغییر دهند؛ همان‌طور که Google می‌گوید:

    اگر آدرس ایمیل حساب شما با @gmail.com تمام شود، معمولاً نمی‌توانید آن را تغییر دهید.

    به نظر می‌رسد این وضعیت در حال تغییر است.

    در همان صفحهٔ پشتیبانی که در حال حاضر می‌گوید معمولاً نمی‌توانید ایمیل خود را تغییر دهید، Google فرآیند جدیدی که «به‌صورت تدریجی معرفی می‌شود» را شرح می‌دهد. صفحهٔ تغییریافته به‌طرز عجیبی در حال حاضر فقط به زبان هندی نمایش داده می‌شود، بنابراین نمی‌توانید تغییرات را به انگلیسی ببینید. تمام مطالب زیر ترجمه شده‌اند. این صفحه اولین بار در گروه «Google Pixel Hub» در تلگرام مشاهده شد.

    Google توضیح می‌دهد:

    آدرس ایمیل مرتبط با حساب Google شما، همان آدرسی است که برای ورود به سرویس‌های Google استفاده می‌کنید. این آدرس ایمیل به شما و دیگران کمک می‌کند تا حساب شما را شناسایی کنید. اگر مایل باشید، می‌توانید آدرس ایمیل حساب Google خود که به gmail.com ختم می‌شود را به یک آدرس ایمیل جدید که به gmail.com ختم می‌شود، تغییر دهید.

    این عملکرد جدیدی است که Google هنوز جزئیات آن را در جای دیگر منتشر نکرده، اما می‌گوید که «به‌صورت تدریجی برای همه کاربران در دسترس خواهد شد».

    با این تغییر، Google به کاربران اجازه می‌دهد آدرس ایمیل «@gmail.com» خود را به آدرس جدید «@gmail.com» با نام کاربری متفاوت تغییر دهند. پس از تغییر، Google توضیح می‌دهد که آدرس ایمیل اصلی شما هنوز ایمیل‌ها را در همان صندوق ورودی که آدرس جدید دارد دریافت می‌کند و برای ورود به سرویس‌ها قابل استفاده است و هیچ‌یک از دسترسی‌های حساب شما تغییر نمی‌کند. کاربران نمی‌توانند ایمیل خود را در طول ۱۲ ماه پس از تغییر، تغییر یا حذف کنند.

    وقتی آدرس ایمیل حساب Google خود را از ایمیلی که به gmail.com ختم می‌شود به ایمیل جدیدی که به gmail.com ختم می‌شود تغییر می‌دهید:

    • آدرس ایمیل قدیمی در حساب Google شما که به gmail.com ختم می‌شود به‌عنوان یک نام مستعار (alias) تنظیم می‌شود. برای اطلاعات بیشتر در مورد نام‌های مستعار ایمیل، به صفحه مربوطه مراجعه کنید.
    • ایمیل‌ها هم به آدرس قدیمی و هم به آدرس جدید شما ارسال می‌شوند.
    • داده‌های ذخیره‌شده در حساب‌تان، از جمله عکس‌ها، پیام‌ها و ایمیل‌های ارسالی به آدرس قدیمی، تحت تأثیر قرار نمی‌گیرد.
    • می‌توانید هر زمان که بخواهید، آدرس ایمیل قدیمی حساب Google خود را دوباره استفاده کنید. اما نمی‌توانید در طول ۱۲ ماه آینده آدرس ایمیلی جدید که به gmail.com ختم می‌شود ایجاد کنید. همچنین نمی‌توانید آدرس ایمیل جدید را حذف کنید.
    • می‌توانید برای ورود به سرویس‌های Google مانند Gmail، Maps، YouTube، Google Play یا Drive، از آدرس ایمیل قدیمی یا جدید استفاده کنید.

    هر حساب می‌تواند حداکثر تا ۳ بار آدرس «@gmail.com» خود را تغییر دهد؛ یعنی در مجموع می‌تواند ۴ آدرس مختلف داشته باشد.

    Google همچنین توضیح می‌دهد که آدرس Gmail قدیمی شما همچنان در برخی موارد نمایش داده می‌شود و «در نمونه‌های قدیمی‌تر» نظیر رویدادهای تقویم که قبل از تغییر ایجاد شده‌اند، بلافاصله منعکس نمی‌شود. شما همچنان می‌توانید ایمیل‌ها را از آدرس قدیمی ارسال کنید. آدرس قدیمی هنوز متعلق به شماست و نمی‌تواند توسط کاربر دیگری استفاده شود.

  • تیم هوش مصنوعی تسلا شب کریسمس را به کار گرفت و نسخه FSD v14.2.2.1 را منتشر کرد

    این به‌روزرسانی تنها یک روز پس از آغاز انتشار نسخه FSD v14.2.2 برای مشتریان منتشر شد.

    در این کریسمس، تسلا به کارهای شبانه می‌پردازد و تیم هوش مصنوعی تسلا به‌صورت آرام نسخه Full Self-Driving (Supervised) v14.2.2.1 را تنها یک‌روز پس از آغاز انتشار نسخه FSD v14.2.2 برای مشتریان منتشر می‌کند.

    مالک تسلا بینش‌های خود را درباره نسخه FSD v14.2.2.1 به اشتراک می‌گذارد

    مالک طولانی‌مدت تسلا و آزمونگر FSD @BLKMDL3 پس از چندین رانندگی با نسخه FSD v14.2.2.1 در شرایط بارانی لس‌آنجلوس، با آب ثابت و خطوط راه کم‌رنگ، برخی بینش‌ها را به‌اشتراک گذاشت. او گزارش داد که هیچ تعلیق یا لرزش در فرمان حس نمی‌شود، تغییر خطوط با اطمینان انجام می‌شود و مانورهای دقیق که عملکرد ربات‌تاکسی‌های خودران تسلا در آستین را تداعی می‌کند، اجرا شد.

    عملکرد پارک‌کردن شگفت‌انگیز بود؛ اکثر مکان‌ها به‌دقت کامل، حتی در پیچ‌های تیز و فشرده، در یک‌بار و بدون لرزش در فرمان انجام شد. تنها یک انحراف جزئی به دلیل خودروی دیگری که از خط پارک عبور کرده بود رخ داد که FSD با افزودن چند اینچ این فاصله را جبران کرد. در بارانی که معمولاً علائم جاده را از بین می‌برد، FSD خطوط راه و مسیرهای پیچ را بهتر از انسان‌ها تجسم کرد و هنگام ورود به خیابان‌های جدید به‌طور بی‌نقص موقعیت خود را تنظیم کرد.

    « امشب مسیر تاریک، مرطوب و پیچ‌دار یک دره کوهستانی را بالا و پایین طی کردم و همان‌طور که انتظار می‌رفت، خیلی خوب پیش رفت. در خط مسیر مرکز ماند، سرعت را به‌خوبی حفظ کرد و حس فرمان‌دهی‌ای که اعتماد به‌نفس می‌بخشد، ارائه داد؛ این‌جوری که این جاده‌های پیچ‌دار را بهتر از اکثر رانندگان انسانی مدیریت می‌کند.» صاحب تسلا در پستی در X نوشت.

    همین‌طور، به‌روزرسانی دیگری از FSD. نسخه ۱۴.۲.۲.۱ در حال دانلود است! pic.twitter.com/ajh1mu0TEK— Greggertruck (@greggertruck) ۲۴ دسامبر ۲۰۲۵

    ۵ رانندگی با FSD v14.2.2.1 انجام دادم و این‌ها نظرات من هستند:

    هنوز هیچ تعلیق یا لرزش در فرمان ندارم، تغییر خطوط با اطمینان و عالی است. تمام رانندگی‌های امشب من با این نسخه در باران بوده و از عملکرد آن در مواجهه با آب ثابت روی جاده بسیار تحت تأثیر قرار گرفتم… pic.twitter.com/W6RwqnnChe— Zack (@BLKMDL3) ۲۴ دسامبر ۲۰۲۵

    خبر خوب 🚨 $TSLA FSD V14.2.2.1 هم‌اکنون در حال انتشار است 💥

    این نسخه نگهداری برای اصلاح ویژگی‌های موجود در ۱۴.۲.۲ است 🔥 سرعت انتشار این به‌روزرسانی از زمان شروع سری v14 به‌صورت شگفت‌انگیزی سریع بوده است 🔥

    ۱️⃣ V14.1 (2025.32.8.5) — ۶ اکتبر ۲۰۲۵
    ۲️⃣ V14.1.1 (2025.32.8.6) — ۱۲ اکتبر ۲۰۲۵… pic.twitter.com/cdhioquSU8— Ming (@tslaming) ۲۴ دسامبر ۲۰۲۵

    به‌روزرسانی FSD v14.2.2 تسلا

    یک روز پیش از انتشار نسخه FSD v14.2.2.1، تسلا نسخه FSD v14.2.2 را منتشر کرد که بر عملکرد واقعی نرم‌تر، آگاهی بهتر از موانع و مسیر دقیق‌تری در انتهای سفر متمرکز بود. بر اساس یادداشت‌های انتشار این به‌روزرسانی، FSD v14.2.2 شبکه عصبی انکودر بینایی را با ویژگی‌های با وضوح بالاتر ارتقا می‌دهد و تشخیص وسایل نقلیه اضطراری، موانع جاده‌ای و اشارات انسانی را بهبود می‌بخشد.

    گزینه‌های جدید Arrival Options نیز به کاربران اجازه می‌دهد سبک‌های دلخواه تحویل را انتخاب کنند، مانند پارکینگ، خیابان، راه‌پایانی، گاراژ پارک یا لبه‌خیابان، به‌طوری که پن مکان‌یابی به‌صورت خودکار به نقطهٔ ایده‌آل تنظیم شود. سایر بهبودها شامل توقف برای وسایل نقلیه اضطراری، مسیرهای دوربری بر پایهٔ تصویر برای جاده‌های مسدود، مدیریت بهتر دروازه‌ها و مانده‌مانده‌ها، و پروفایل‌های سرعت برای تنظیم سبک رانندگی است.

  • آماده یا نه، این‌ها می‌آیند — یادداشت‌هایی از تغذیه اجباری هوش مصنوعی ….

    به تازگی یک آیفون جدید خریدم. نیازی به داشتن نسخه جدیدتر نداشتم، اما گوشی قبلی‌ام به‌گونه‌ای خراب شده بود که به سادگی قابل تعمیر نبود؛ پس ناچار شدم به چرخه سخت برنامه‌ریزی برای کهنه‌شدن بپیوندم. من همیشه از بهبود مستمر کیفیت تصویر خوشحالم. در غیر این‌صورت، برای من فقط نیاز به یک گوشی جدید و بدون آسیب بود. اما این یکی از مدل‌هایی است که اپل بارها به شما می‌گوید هوش مصنوعی خود را در دستگاه تعبیه کرده است—چیزی که می‌گویند فوق‌العاده است. یا همان‌طور که آن‌ها می‌گویند. به‌طور مکرر. و حس کلی من این است که اپل نسبت به دیگر غول‌های فناوری، کم‌ترین تمایل به پرستاره‌سازی و اغراق در این زمینه را دارد.

    از وقتی که از گوشی جدید استفاده می‌کنم، دریافتم که برنامه پیام‌رسانی اپل حالا پیشنهادهای عبارت و تکمیل کلمات را به سطحی بالاتر می‌برد — به‌گونه‌ای که می‌توان گفت به حدی تقریباً بی‌منطق رسیده است.

  • بستن نشت‌ها در محاسبهٔ کوانتومی

    جوزف ایمرسون – مؤسسهٔ محاسبهٔ کوانتومی و گروه ریاضیات کاربردی، دانشگاه واترلو، انتاریو، کانادا

    فیزیک 18, 200 – یک استراتژی نوین با مهار اثرهای خروج کیوبیت‌ها از حالت‌های هدفشان، اصلاح خطا در محاسبهٔ کوانتومی را بهبود می‌بخشد.

    عنوان تصویر
    شکل 1: پان و همکارانش حافظهٔ کوانتومی اصلاح‌شده را بر بستر 97 کیوبیت ابررسانا نشان دادند [1]. دایره‌های قرمز و آبی به ترتیب نشان‌دهندهٔ کیوبیت‌های داده و کیوبیت‌های کمکی هستند. حاشیه‌های نارنجی و قرمز به ترتیب مجموعه‌های کیوبیت با فاصله‌۳ و فاصله‌۵ را در بر دارند.
    عنوان تصویر
    شکل 1: پان و همکارانش حافظهٔ کوانتومی اصلاح‌شده را بر بستر 97 کیوبیت ابررسانا نشان دادند [1]. دایره‌های قرمز و آبی به ترتیب نشان‌دهندهٔ کیوبیت‌های داده و کیوبیت‌های کمکی هستند. حاشیه‌های نارنجی و قرمز به ترتیب مجموعه‌های کیوبیت با فاصله‌۳ و فاصله‌۵ را در بر دارند.

    کامپیوترهای کوانتومی در فضای با بعد بالا کار می‌کنند و از هم‌بستگی، درهم‌تنیدگی و سایر اثرات کوانتومی ویژه بهره می‌برند. به همین دلیل، این سامانه‌ها به‌طرز منحصربه‌فردی نسبت به خطاها حساس هستند؛ حساسیتی که در سیستم‌های کلاسیک مشاهده نمی‌شود. غلبه بر این خطاها، چالش اصلی برای دستیابی به محاسبهٔ کوانتومی در مقیاس بزرگ است. از میان روش‌های متعدد حذف خطا، اصلاح خطای کوانتومی معیار طلایی به شمار می‌آید، اما بیشینهٔ کارایی خود را زمانی می‌نماید که خطاها به‌صورت مستقل بین کیوبیت‌ها و در طول زمان رخ دهند؛ یعنی وقتی همبستگی خطاها محدود باشد. در حال حاضر، جیان‌وی پان از دانشگاه علم و فناوری چین و همکارانش رویکرد جدیدی برای مهار خطاهای همبسته ناشی از به‌نام «خطاهای نفوذی» (leakage) ارائه دادند [1]. آنها این دستاورد را با به‌کارگیری یک طرح کنترلی که به‌طور مؤثر در یک چرخهٔ واحد اصلاح خطا ادغام می‌شود، به دست آوردند. این نمایش، دامنهٔ منابع فیزیکی خطا را که می‌تواند در چارچوب محدودیت‌های معماری اصلاح خطای کوانتومی مهار شود، به‌شدت گسترده‌تر می‌کند.

    اصلاح خطا بهترین عملکرد را وقتی دارد که هم خطاهای همبسته و هم خطاهای حفظ‌کنندهٔ هم‌بستگی در سطح ناچیز باشند. خطاهای همگنی می‌توانند از نقص‌های کلی در کنترل کیوبیت ناشی شوند، بسته به بازهٔ زمانی تغییرات این نقص‌ها. در همان حال، خطاهای همبسته بین کیوبیت‌ها می‌توانند از نقص‌های خاص کنترلی، مانند تداخل میکروویوی و اتصال‌های باقی‌مانده و غیرقصدی بین کیوبیت‌ها، به‌وجود آیند. سرانجام، خطاهای همبسته در طول گام‌های زمانی می‌توانند از مجموعه‌ای گسترده از مکانیزم‌ها ظاهر شوند.

    تلاش‌های فراوانی برای توسعه روش‌های شناسایی و مهار خطاهای همگنی و همبسته در سامانه‌های کیوبیتی انجام شده است. مهار خطاهای همگنی تا حد زیادی مسئله‌ای حل‌شده است، از طریق تکنیک‌هایی مانند جداسازی دینامیک (dynamical decoupling) [2] و ترکیب تصادفی (randomized compiling) [3]. همچنین، وجود همبستگی‌ها بین کیوبیت‌ها و زمان (مربوط به خطاهای غیرمارکوفی که به «خطاهای غیرمارکوفی» نیز نامیده می‌شوند) اکنون می‌تواند به‌صورت مؤثر از طریق مجموعه‌ای از روش‌ها که از استراتژی «benchmarks تصادفی» (randomized benchmarking) استفاده می‌کنند، شناسایی شود [4‑6]. با این حال، یافتن روش‌های کارآمد برای سرکوب همبستگی‌های خطا همچنان به‌عنوان یک چالش بزرگ باقی مانده است، به‌ویژه در چارچوب محدودیت‌های زمانی و سایر محدودیت‌های معماری اصلاح خطای کوانتومی.

    یک منبع مهم از همبستگی‌های خطا در چندین پلتفرم پیشرو محاسبهٔ کوانتومی — از جمله کیوبیت‌های یون‌دار و کیوبیت‌های ابررسانا — مکانیزمی به نام «نشت» است. نشت زمانی اتفاق می‌افتد که حالت کوانتومی یک کیوبیت از زیرفضای دو‑بعدی سطوح انرژی فیزیکی که به‌عنوان حالات ۰ و ۱ کیوبیت تعریف می‌شود، فرار کند. خطاهای نشت به‌خودشان به‌راحتی شناسایی می‌شوند [7, 8] و می‌توانند توسط تکنیک‌های اصلاح خطا مدیریت شوند. اما یکی از چالش‌های منحصر به‌فرد این خطاها این است که اطلاعات کوانتومی معمولاً از دست نمی‌رود؛ بلکه در طول زمان طولانی در کنار زیرفضای کیوبیت باقی می‌ماند. سپس مشکل نشت پیچیده‌تر می‌شود؛ چرا که اطلاعات نشت‑شده می‌تواند بعداً به زیرفضای کیوبیت بازگردد. این فرآیند می‌تواند اطلاعات کوانتومی را در همان کیوبیت یا کیوبیت همسایه تغییر دهد و به خطاهای همبسته در طول محاسبه منجر شود. به‌عبارت دیگر، خطای بازگشت تنها زمانی رخ می‌دهد که خطای نشت نیز پیش آمده باشد، و این گونه خطاهای همبسته اغلب فراتر از قابلیت‌های کدهای اصلاح خطا برای شناسایی و حذف مطمئن هستند.

    پان و همکارانش این مسأله را در یک بستر کیوبیت ابررسانا که برای اجرای حافظهٔ کوانتومی تنظیم شده بود، با حضور هر دو نوع کیوبیت داده و انکلا (کیوبیت‌های کمکی) مورد نیاز برای یک طرح کامل اصلاح خطا، مورد بررسی قرار دادند (شکل 1). آنها طرح خود را در چارچوب معماری کد سطح (surface code) پیاده‌سازی کردند؛ رویکردی پیشرو در اصلاح خطای کوانتومی که به دلیل نیازهای کم به اتصال کیوبیت‌ها و تحمل بالا در مقابل نرخ خطا، مورد توجه قرار گرفته است. در طرح جدید، نشت کیوبیت‌های داده با بهره‌گیری از مدارهای کنترلی یکپارچه که به‌صورت کامل توسط پالس‌های میکروویوی هدایت می‌شوند، مهار می‌شود و این مهار به‌عنوان یک زیرروال سریع در هر چرخهٔ اصلاح اجرا می‌گردد. همزمان، یک پروتکل بازنشانی برای کیوبیت‌های انکلا، نشت و سایر خطاهای این کیوبیت‌های کمکی را کاهش می‌دهد.

    تیم از تکنیک معیار‌سنجی تصادفی ترکیبی برای برآورد خطاهای اضافی ناشی از مدارهای مهار نشت استفاده کرد. اما این روش می‌تواند نسبت به روش‌های پیشرفته‌تری نظیر معیار‌سنجی چرخه‌ای (cycle benchmarking) [5] خطاهای قابل‌توجهی داشته باشد. با این وجود، پان و همکارانش توانستند تأیید کنند که ترکیب عناصرشان، ضمن محدودیت‌های یک چرخهٔ اصلاح، دستاورد کاهش خطای خالص به‌اندازهٔ ۱٫۴ را به‌دست آورده است. این نتیجه بدین معنی است که بزرگ‌کردن کد سطح به‌مقدار یک واحد فاصله، نرخ‌خطای منطقی را به‌دلیل ۱٫۴ برابر کاهش می‌دهد؛ یافته‌ای که پژوهشگران نشان دادند بدون این مهار نشت، غیرممکن بود.

    پان و همکارانش حافظهٔ کوانتومی اصلاح‌شده را با کد سطح فاصله‌۷ که بر روی ۹۷ کیوبیت فیزیکی اجرا شد و دارای عمق ۴۰ چرخهٔ اصلاح بود، نشان دادند. این نمایش یک پیاده‌سازی در مقیاس بزرگ و دستاوردی چشمگیر بر پایهٔ استانداردهای امروز بود. اما باید انتظاراتمان را به‌دقت تنظیم کنیم، چرا که هنوز فاصلهٔ زیادی با اهداف محاسبهٔ کوانتومی مقیاس کاربردی و مقاوم به خطا و تأثیرات واقعی آن در جهان دارد. به‌عنوان مثال، معیار طلایی برای نشان‌دهی برتری کوانتومی — این‌که محاسبهٔ کوانتومی می‌تواند از محاسبهٔ کلاسیک پیشی بگیرد — پیاده‌سازی الگوریتم شاور برای فاکتورگیری اعداد بزرگ و حل مسئلهٔ لگاریتم گسسته است. این دستاورد تهدیدی برای سامانه‌های مورد استفاده در تراکنش‌های اینترنتی، امنیت بیت‌کوین و غیره است که به سختی این محاسبات وابسته‌اند. پیشرفت‌های نظری اخیر نیازهای فاکتورگیری عدد ۲۰۴۸‑بیتی را از تخمین ۲۰ میلیون کیوبیت به «فقط» یک میلیون کیوبیت کاهش داده‌اند [9]. بنابراین خبر خوش این است که این نیازها به سمت توانمندی‌های آزمایشگاهی ما نزدیک می‌شوند؛ خبر بد این است که هنوز مسیر طولانی در پیش است.

    مراجع

    1. T. He و همکاران, «اصلاح خطای کوانتومی تجربی زیر آستانه کد سطح از طریق مهار نشت تمام‌میکروویوی», Phys. Rev. Lett. 135, 260601 (2025).
    2. L. Viola و همکاران, «جدا‌سازی دینامیکی سامانه‌های کوانتومی باز», Phys. Rev. Lett. 82, 2417 (1999).
    3. J. J. Wallman و J. Emerson, «سفارشی‌سازی نویز برای محاسبهٔ کوانتومی مقیاس‌پذیر از طریق ترکیب تصادفی», Phys. Rev. A 94, 052325 (2016).
    4. J. Emerson و همکاران, «تخمین نویز مقیاس‌پذیر با عملگرهای تصادفی واحدی», J. Opt. B: Quantum Semiclassical Opt. 7, S347 (2005).
    5. A. Erhard و همکاران, «شناسایی کامپیوترهای کوانتومی مقیاس بزرگ از طریق معیار‌سنجی چرخه‌ای», Nat. Commun. 10, 5347 (2019).
    6. A. Carignan-Dugas و همکاران, «بازسازی خطا و کالیبراسیون ترکیبی چرخه‌های محاسبهٔ کوانتومی», arXiv:2303.17714.
    7. J. J Wallman و همکاران, «شناسایی مقاوم خطاهای نشت», New J. Phys. 18, 043021 (2016).
    8. Y.-H. Chen و C. H. Baldwin, «معیار‌سنجی تصادفی با خطاهای نشت», Phys. Rev. Res. 7, 043065 (2025).
    9. C. Gidney, «چگونه اعداد صحیح RSA ۲۰۴۸ بیتی را با کمتر از یک میلیون کیوبیت پرنوازی فاکتور کنیم», arXiv:2505.15917.
  • ۴ حقیقت ناخوشایند درباره استفاده از ChatGPT

    نمای نزدیک از درخواست «Ask ChatGPT» روی صفحهٔ یک گوشی هوشمند
    Nwz/Shutterstock

    از اواخر نوامبر ۲۰۲۲، OpenAI با ارائه یک ربات گفت‌وگو پیشرفته که از یک مدل زبانی بزرگ برای درک ورودی‌های انسانی و تولید پاسخ‌های شبیه به انسان استفاده می‌کند، جهان را شگفت‌زده کرد. علیرغم اینکه یکی از نخستین کاربردهای یک مدل زبانی بزرگ بود، ChatGPT به‌خاطر دسترسی آسان خود محبوب شد. می‌توانید برنامه را دانلود کنید یا هوش مصنوعی گفت‌وگوئی OpenAI را از طریق مرورگر وب استفاده کنید. اگر می‌خواهید تاریخچهٔ گفتگوهای خود را ذخیره کنید، باید با یک حساب موجود Apple، Google یا Microsoft وارد شوید.

    اگرچه ChatGPT دسترسی آسانی دارد و به‌طبیعی در کار، مدرسه و حتی استفاده‌های غیررسمی ادغام می‌شود، هنوز مواردی وجود دارد که هنگام تعامل با این ربات گفت‌وگو باید به آن‌ها توجه کنید. گاهی ممکن است ChatGPT پاسخ‌های نادرستی بدهد یا اطلاعات شخصی شما را ثبت کند. این ربات در برخی موارد قابل اطمینان است، اما همچنان دارای سوگیری‌هایی است که نمی‌توان نادیده گرفت. همچنین، گفتگو طولانی‌مدت با یک ربات می‌تواند اثرات روان‌شناختی ایجاد کند که پذیرششان دشوار است.

    ChatGPT می‌تواند به سؤالات پاسخ‌های ساختگی بدهد

    گزینهٔ جستجوی وب ChatGPT در صفحهٔ درخواست برجسته شده
    Nwz/Shutterstock

    ChatGPT ممکن است پاسخ‌ها را با لحنی بسیار بی‌ادعا ارائه دهد، اما واقعیت این است که همیشه صحیح نیست.

    در حال حاضر، ChatGPT نسخهٔ ۵.۱ را برای تمام سطوح اجرا می‌کند، اما انتظار می‌رود نسخهٔ ۵.۲ به‌زودی منتشر شود. این نشان می‌دهد که همیشه فشار برای ارائهٔ به‌روزرسانی‌ها وجود دارد تا همگام با رقبای فعلی بماند. به یاد داشته باشید که هوش مصنوعی هنوز حوزه‌ای در حال رشد سریع است و رقبایی همچون Google Gemini، Claude از Anthropic، و حتی Perplexity به این رقابت شعلۀ بیشتری می‌افشانند.

    همچنین ChatGPT همواره منبع یا ارجاع مناسب برای پاسخ‌های خود را ارائه نمی‌دهد. OpenAI در راهنمای خود اشاره می‌کند که ChatGPT ممکن است تعاریف، واقعیت‌ها را به‌صورت نادرست ارائه دهد و حتی نقل قول‌ها و مطالعاتی را ساختگی ارائه کند. بنابراین، پیش از باور به اطلاعات، باید همیشه آن‌ها را تأیید کنید، اما گاهی ربات مسیر منبع اطلاعات را به‌دست‌نخورده می‌گذارد؛ در این صورت بهتر است زمانی که امکان دارد سؤال کنید.

    ChatGPT انسان نیست، علی‌رغم داشتن قابلیت مکالمه

    شخصیت رباتیک کنار تلفنی با لوگوی ChatGPT روی صفحه
    miss.cabul/Shutterstock

    در حین گفتگو با ربات گفت‌وگوی OpenAI، ممکن است به‌راحتی فراموش کنید که تولید کنندهٔ پاسخ‌ها در واقع یک هوش مصنوعی است، نه یک انسان، به‌ویژه که این برنامه بر پایه یک مدل زبانی بزرگ ساخته شده تا به‌صورت شبیه‌انسان پاسخ دهد. حتی مواردی وجود دارد که افراد از این ربات برای تبدیل همدم هوش مصنوعی به شریک ایده‌آل استفاده کرده‌اند. یک مورد که اوایل امسال گزارش شد، شامل زنی متاهل بود که برای ایجاد یک رابطهٔ مجازی از این پلتفرم استفاده کرد.

    اگرچه این تنها یک زیر محصول از ظاهر انسان‌مانند ربات‌های گفت‌وگو است، تصور کنید که از آن به‌عنوان پلتفرمی برای بیان مشکلات یا برگزاری بحث‌های حساس بدون احساس قضاوت استفاده کنید؟ این راحتی مکالمه باعث می‌شود افراد تقریباً احساس کنند که «فرد» پشت صفحه، در واقع یک هوش مصنوعی واقعی است که پاسخ‌ها را بر پایه داده‌های ارائه‌شده پیش‌بینی می‌کند، نه یک انسان.

    ChatGPT دارای محدودیت حافظه است

    شخصی که بر روی گوشی هوشمند به ChatGPT می‌نویسد
    Ascannio/Shutterstock

    ChatGPT همچنین محدودیتی برای میزان اطلاعاتی که می‌تواند هنگام تعامل به‌خاطر بسپارد دارد. این نکته‌ای نیست که همه به آن فکر کنند، به‌ویژه اگر پلتفرم را به‌صورت گاه‌به‌گاه استفاده کنید. ChatGPT می‌تواند جزئیات خاصی را از طریق عملکرد حافظهٔ ذخیره‌شدهٔ ارجاعی خود نگه دارد که به حفظ ارتباط و شخصی‌سازی گفت‌وگوها کمک می‌کند. اما این نیز دارای محدودیتی است. طبق گفتهٔ ChatGPT، می‌تواند تا هزاران توکن از زمینه را ذخیره کند که معادل چند صفحهٔ متن است (OpenAI به‌طور واضح اندازهٔ دادهٔ ذخیره‌شده برای ChatGPT را اعلام نکرده است).

    همچنین نمی‌تواند تمام اطلاعاتی را که به آن می‌دهید ذخیره کند. اطلاعات کوتاه‌مدت یا جزئیات بی‌اهمیت، اطلاعات حساس شخصی (مانند گرایش جنسی یا موضع سیاسی دقیق) یا هر چیزی که می‌تواند هویت شما را شناسایی کند، مانند شمارهٔ تلفن و شناسه‌ها، ذخیره نمی‌شود. اما علایق، زمینهٔ شخصی، ترجیحات و پروژه‌های بلندمدت شما ذخیره می‌شوند. حافظه‌های ذخیره‌شده نیز به دو دستهٔ اصلی تقسیم می‌شوند: حافظهٔ گفت‌وگو و حافظهٔ دائم. مگر اینکه شما صراحتاً درخواست کنید یا تنظیمات را به‌صورت خودکار فعال کنید، هیچ اطلاعاتی در حافظهٔ دائم ذخیره نخواهد شد.

    ChatGPT به‌طور کامل محرمانه نیست

    لوگوی ChatGPT بر روی یک دستگاه موبایل در مقابل دیوار متنی سبز
    Alan Mazzocco/Shutterstock

    در هر پلتفرم هوش مصنوعی، باید از ارائهٔ اطلاعات شخصی خود خودداری کنید. هرگز داده‌های حساسی مانند اطلاعات بانکی، پروژه‌های کاری یا حتی برخی اطلاعات حساس دستگاه که می‌تواند به حساب‌های شما مرتبط شود را به‌اشتراک نگذارید. سیاست حریم‌خصوصی ChatGPT اعلام می‌کند که اطلاعاتی نظیر اطلاعات حساب کاربری، محتوای کاربر (متن ورودی شما به‌عنوان پرسش، شامل فایل‌های بارگذاری‌شده) و اطلاعات شخصی که در ارتباطات ارائه می‌دهید، از جمله ایمیل‌ها، رویدادها و نظرسنجی‌ها، جمع‌آوری می‌شود.

    تمام اطلاعاتی که فراهم می‌کنید برای ارتقاء خدمات و آموزش مدل، و برای رعایت تعهدات قانونی و شرایط استفاده به‌کار می‌رود. با این حال، این سیاست حریم‌خصوصی همچنین بیان می‌کند که ممکن است داده‌های شما را به افراد ثالث، از جمله دولت و وابستگان آن، افشا کند. همچنین باید به یاد داشته باشید که افراد می‌توانند داده‌های ارائه‌شده توسط شما را مشاهده کنند مگر اینکه برای مقاصد آموزشی گزینهٔ خروج از این‌کار را انتخاب کرده باشید. با این وجود، در مواردی که به دلایل قانونی یا برای بررسی سوءاستفاده ضروری باشد، ممکن است به‌طور فنی به برخی از داده‌ها دسترسی داشته باشند.

  • «در ۶ ماه، همه چیز تغییر می‌کند»: مدیر اجرایی مایکروسافت دربارهٔ چهره واقعی هوش مصنوعی در ۶ سال آینده توضیح می‌دهد

    شش ماه برای تحول، شش سال تا عادی جدید، می‌گوید یک مدیر اجرایی مایکروسافت. اگر هوش مصنوعی از نقش کمکی به تصمیم‌گیری روی بیاورد، کلیدها در دست چه کسی خواهند بود؟

    مدیر اجرایی مایکروسافت دربارهٔ چهره واقعی هوش مصنوعی در ۶ سال آینده توضیح می‌دهد

    چارلز لامانا، مدیر اجرایی پشت Copilot در مایکروسافت، می‌گوید موج بعدی هوش مصنوعی تنها کمکی نخواهد بود، بلکه اجرایی خواهد شد. آزمایش‌ها در حوزه مالی، پشتیبانی مشتری، لجستیک و عملیات داخلی قبلاً اجازه داده‌اند که عوامل به ابزارها متصل شوند و کار را به‌صورت انتها‑به‑انتها انجام دهند، که دستاوردهای اولیه در داده‌های IDC و شاخص Work Trends Index 2025 مایکروسافت بازتاب یافته‌اند. اگر این شتاب ادامه یابد، توصیف شغلی‌ها و نمودارهای سازمانی گام بعدی خواهند شد، به‌همراه امنیت، حاکمیت و Zero Trust که مرزها را تعیین می‌کنند. در ادامه می‌خوانید که این تحول از درون چگونه در حال شکل‌گیری است و در سال‌های آینده چه معنایی می‌تواند داشته باشد.

    تحول شتاب‌دار هوش مصنوعی از کمکی به خودمختاری

    اگر ابزارهایی که هر روز استفاده می‌کنیم دیگر فقط به ما کمک نکنند، بلکه به‌تنهایی تمام وظایف را انجام دهند، چه می‌شود؟ بر اساس گفته‌های چارلز لامانا، مدیر اجرایی که برنامه Copilot مایکروسافت را هدایت می‌کند، این تحول در حال وقوع فوری است و نه یک رؤیای دوردست. او پیش‌بینی می‌کند که در ۶ ماه آینده این تغییر غیرقابل انکار خواهد شد و تا ۶ سال آینده، به‌طور واقعی انقلابی به شمار خواهد آمد.

    هوش مصنوعی فراتر از کمک ساده‌ای مانند خلاصه‌کردن ایمیل‌ها یا سازماندهی داده‌ها پیش رفته و اکنون به‌عنوان عامل‌های مستقل عمل می‌کند. این سیستم‌ها با نظارت انسانی کمینه، در میان ابزارها و پلتفرم‌ها تعامل می‌کنند. از جهات مختلف، آن‌ها به‌همکارانی توانمند تبدیل شده‌اند. اما این تحول در کسب‌وکارهای واقعی امروز چگونه به‌کار گرفته می‌شود؟

    شکستن موانع: هوش مصنوعی در عمل امروز

    تکامل هوش مصنوعی در مایکروسافت نشان می‌دهد فناوری به کجا می‌رود. در ابتدا، ابزارهایی مانند Copilot برای کاهش کارهای تکراری طراحی شدند؛ شامل نوشتن پیش‌نویس اسناد، پاسخ به پرسش‌های اولیه مشتریان و تحلیل گزارش‌ها. امروزه این قابلیت‌ها به سرعت در حال گسترش‌اند. سیستم‌های هوش مصنوعی می‌توانند به‌صورت خودکار فاکتورهای مالی را پردازش کنند، زنجیره تأمین در حوزه لجستیک را بهینه‌سازی نمایند و مشکلات پیچیده پشتیبانی مشتری را از ابتدا تا انتها حل نمایند.

    این پیشرفت در چندین بخش مختلف مشهود است. به‌عنوان مثال، حوزه‌های بهداشت و درمان، خرده‌فروشی و آموزش در حال پذیرش هوش مصنوعی برای رفع گلوگاه‌های عملیاتی هستند. بر اساس یک مطالعه توسط IDC، شرکت‌هایی که به هوش مصنوعی روی می‌آورند، بهره‌وری و خلاقیت قابل‌توجهی را تجربه می‌کنند. این گام تنها مختص غول‌های فناوری نیست؛ به‌تدریج برای سازمان‌های با مقیاس‌های مختلف در دسترس می‌شود.

    آمار پشت این شتاب

    آمارها تأثیر روزافزون هوش مصنوعی را نشان می‌دهند. شاخص Work Trends Index 2025 مایکروسافت گزارش کرد که اکثریت رهبران کسب‌وکار انتظار دارند هوش مصنوعی در عرض دو سال، روش‌های کاری را به‌طرز اساسی تغییر دهد. علاوه بر این، مطالعه IDC نشان داد که شرکت‌های فعال در پذیرش هوش مصنوعی، نوآوری سریع‌تری را تجربه می‌کنند و هزینه‌ها را کاهش می‌دهند؛ به‌طوری که مسیر رهبری در صنعت را ترسیم می‌کنند.

    • بهبود خودکارسازی وظایف به‌عنوان اصلی‌ترین مزیت پذیرش هوش مصنوعی ذکر می‌شود.
    • بیش از ۷۰٪ از مدیران اجرایی بر این باورند که هوش مصنوعی نقش‌های شغلی کاملاً جدیدی را فراهم خواهد کرد.
    • نگرانی‌های امنیتی بزرگ‌ترین مانع برای پیاده‌سازی کامل هستند.

    پشت این اعداد سؤال اصلی‌ای نهفته است: کسب‌وکارها چگونه برای این تحول سریع آماده می‌شوند؟

    سازماندهی گسترده محیط کار

    لامانا این لحظه را به انقلاب‌های صنعتی گذشته مقایسه می‌کند، زمانی که فناوری‌های نوین ساختار کار را دگرگون کردند. با خودکارسازی فرایندهای سطح بالا، هوش مصنوعی فرصت‌های شغلی‌ای ایجاد خواهد کرد که هنوز وجود ندارند؛ از «مسئولان اخلاق هوش مصنوعی» تا «متخصصان اتوماسیون». با این حال، این تحول چالش‌های خود را به‌همراه دارد.

    همان‌طور که سیستم‌های هوش مصنوعی وظایف خودمختار بیشتری بر عهده می‌گیرند، شرکت‌ها باید به‌صورت مستقیم به موضوع اعتماد بپردازند. مایکروسافت بر اصول «Zero Trust» تأکید می‌کند تا امنیت داده‌ها، حاکمیت و استفاده اخلاقی از ابزارهای هوش مصنوعی تضمین شود. در صورت عدم وجود چنین چارچوب‌هایی، وعدهٔ آیندهٔ هوش مصنوعی می‌تواند تحت‌تأثیر ریسک‌ها قرار گیرد. تعادل میان تسهیل پیشرفت و حفظ پاسخگویی، تعیین‌کننده سرعت و کارآمدی این تغییر خواهد بود.

    نگاهی به شش سال آینده

    شاید شش سال زمان کوتاهی به نظر برسد، اما در فناوری می‌تواند کل صنایع را دگرگون کند. برای سازمان‌هایی مثل مایکروسافت، نقشهٔ راه در دسترس است: هوش مصنوعی سریع‌تر، هوشمندتر و هوش مصنوعی قابل اعتماد که در هر لایهٔ کار تعبیه شده است. برای شرکت‌هایی که دقیقاً نظاره می‌کنند، آنهایی که سازگار شوند در خط مقدم موج بعدی نوآوری قرار خواهند گرفت. دیگر سؤال این نیست که آیا این تحول خواهد بود، بلکه این است که هر سازمان چه‌سریع می‌تواند حرکت کند.

  • گوگل vs. ناشران: معنای بررسی اتحادیه اروپا برای سئو، پاسخ‌های هوش مصنوعی و حقوق محتوا

    یک پرونده ضد انحصاری، نمایش‌های هوش مصنوعی، گزینه‌های خروج و قابلیت مشاهده بدون کلیک را تحت بررسی دقیق قرار می‌دهد، در میانهٔ مناظرهٔ رو به رشد دربارهٔ استفاده از محتوا و اعتباردهی.

    در یکی از مهم‌ترین اقدامات نظارتی تا به امروز برای آیندهٔ جستجو، کمیسیون اروپا رسماً تحقیق ضدانحصاری علیه گوگل را آغاز کرده است. 

    در مرکز شکایت، استفادهٔ گوگل از محتوای ناشران برای آموزش و توانمندسازی نمایش‌های هوش مصنوعی و سایر ویژگی‌های هوش مصنوعی مولد است – که ممکن است ترافیک را از منابع اصلی منحرف کند.

    برای هر کسی که در سئو، استراتژی محتوا یا دیده شدن برند فعالیت می‌کند، پیامدها فوراً احساس می‌شود. 

    آیا گوگل با استفادهٔ مجدد از محتوای ناشران برای تولید پاسخ‌های هوش مصنوعی از مرز عبور می‌کند، یا این صرفاً هزینهٔ مشارکت در وبی باز و قابل خزنده است؟

    با مداخلهٔ تنظیم‌کنندگان، صنعت مجبور می‌شود نحوهٔ استفاده، مدیریت و ارزش‌گذاری محتوای قابل خواندن توسط ماشین را بازنگری کند – و هزینه‌ای که برای برندها، ناشران و آژانس‌ها در صورت عدم همگامی قوانین با نوآوری پیش می‌آید.

    در اینجا آنچه در حال رخ دادن است، چرا مهم است و چگونه صنعت در حال پاسخگویی است را می‌توانید ببینید.

    چه‌چیز واقعاً در حال رخ دادن است: ادعاهای اصلی در شکایت

    این اقدام اتحادیه اروپا در میان موج روزافزون دعاوی قضائی و منازعات سیاستی دربارهٔ داده‌های آموزشی هوش مصنوعی رخ می‌دهد؛ از موارد برجستهٔ دعاوی ناشران علیه OpenAI و دیگران تا دعوی جدید ضد‌انحصاری پنسکه مدیا در برابر محصولات هوش مصنوعی گوگل.

    ناشران به‌طور فزاینده‌ای روش گوگل را به‌عنوان یک انتخاب اجباری توصیف می‌کنند: پذیرش استفادهٔ بدون مجوز از محتوای خود برای آموزش و پاسخ‌های هوش مصنوعی، یا در معرض خطر از دست دادن ترافیک جستجوی حیاتی.

    همزمان، کنترل‌های فنی مانند دستورات robots.txt، Google-Extended و متاهای نوظهور noai و nopreview نشان می‌دهند صنعتی که می‌خواهد کنترل وبی را که هرگز برای آموزش مدل‌های زبانی بزرگ طراحی نشده است، باز پس گیرد.

    منزلهٔ اختلاف این است که آیا آموزش هوش مصنوعی و تولید پاسخ‌ها گسترشی از ایندکس‌گذاری سنتی و ایجاد اسنیپت‌ها هستند یا استفاده‌ای متمایز که نیازمند مجوز، اعتباردهی یا هر دو است.

    مطالعهٔ عمیق‌تر: استانداردهای وب جدید می‌توانند نحوهٔ استفادهٔ مدل‌های هوش مصنوعی از محتوای شما را بازتعریف کنند

    چه مواردی در شکایت هدف قرار گرفته‌اند

    با گزارش‌کردن ناشران از کاهش ترافیک بین ۲۰–۵۰٪ در پرس‌وجوهای اطلاعاتی، این شکایت — که توسط ائتلافی از ناشران خبری و تخصصی اروپایی رهبری می‌شود — سه رویه را هدف قرار می‌دهد:

    • برداشت محتوای ناشران توسط گوگل برای آموزش و پایه‌گذاری مدل‌هایی مانند Gemini به منظور ارائهٔ خلاصه‌های هوش مصنوعی و حالت هوش مصنوعی.
    • عدم وجود گزینه‌های خروج معنادار که قابلیت حفظ دید در جستجو را فراهم می‌کند.
    • خلاصه‌های هوش مصنوعی که توجه کاربران را بالاتر از لینک‌های ارگانیک جذب می‌کنند و کلیک‌ها به ناشران اصلی را کاهش می‌دهند.

    از تنظیم‌کنندگان خواسته شده است تا سه سؤال اصلی را بررسی کنند:

    • گوگل چگونه مدل‌های خود را با محتوای ناشران آموزش می‌دهد و پایه‌گذاری می‌کند.
    • آیا ناشران روش‌های معناداری برای خروج دارند که بدون از دست دادن قابلیت دیده شدن در جستجو باشد.
    • آیا خلاصه‌های هوش مصنوعی بر تسلط گوگل تأکید می‌افزایند و کاربران را درون واسط خود گوگل نگه می‌دارند.

    تحول جستجوی بدون کلیک: آیا بازار آماده است؟

    برای جامعهٔ سئو، این بررسی می‌تواند نقطهٔ شروعی برای عصر پس‌کلیک باشد، جایی که رقابت برای دیده شدن از نتایج صفحات به پنجرهٔ زمینهٔ مدل‌های زبانی منتقل می‌شود. 

    سؤال باز این است که آیا گوگل برای این تغییر آماده است.

    تجربهٔ جستجوی بدون کلیک اغلب مورد بحث قرار می‌گیرد، اما برای اینکه برای همه طرف‌ها کارساز باشد، باید سه شرط برآورده شود:

    • کاربران باید بتوانند آنچه نیاز دارند را در خود صفحهٔ نتایج جستجو (SERP)، خلاصه‌های هوش مصنوعی یا حالت هوش مصنوعی دریافت کنند.
    • گوگل باید انواع محتوا — متن، تصویر، ویدئو، محصولات، خدمات و حتی فرآیند خرید — را به‌صورت یکپارچه و مفید ترکیب کند.
    • ناشران باید برای مشارکت در این اکوسیستم به‌دست‌آمدن عادلانه‌ای دریافت کنند.

    در حال حاضر، گوگل به‌نظر می‌رسد مشتاق حرکت به سمت تجربهٔ کامل بدون کلیک است، اما هنوز توانایی پشتیبانی جامع از آن را ندارد:

    • کاربران هنوز با پاسخ‌های توهمی یا منسوخ مواجه می‌شوند.
    • چت‌های کمکی همچنان پراکنده‌اند و نمی‌توانند گردش کامل کشف یا خرید را پشتیبانی کنند.
    • ناشران هنوز در مورد اینکه چگونه — یا آیا — هنگام استناد به محتوای خود جبران می‌شوند، مطمئن نیستند.

    نسخهٔ خروج چیست و چقدر مؤثر است؟

    در دفاع خود از بازبکارگذاری محتوا، گوگل به مکانیسم‌های خروج مانند Google-Extended در robots.txt اشاره می‌کند. 

    اگرچه Google-Extended می‌تواند آموزش Gemini را مسدود کند، از استخراج داده‌های زنده توسط پاسخ‌های هوش مصنوعی از وب‌سایت‌های ناشران جلوگیری نمی‌کند.

    در عمل، مسدود کردن آموزش مدل‌های زبانی بزرگ (LLM) محدودیت‌های متعددی دارد:

    • این کار از نمایش محتوا در خلاصه‌های هوش مصنوعی جلوگیری نمی‌کند. اگر گوگل صفحه‌ای را ایندکس کرده باشد، می‌تواند همچنان آن را در پاسخ‌های هوش مصنوعی خلاصه یا بازنویسی کند، حتی اگر Google-Extended مسدود شده باشد.
    • این مکانیسم خروج (opt-out) است نه ورود (opt-in). محتوا به‌صورت پیش‌فرض استفاده می‌شود و ناشران باید از Google-Extended آگاه باشند و به‌طور فعال آن را پیاده‌سازی کنند تا آموزش را متوقف کنند.
    • این امکان کنترل جزئی را فراهم نمی‌کند. ناشران نمی‌توانند اسنیپت‌های سنتی را در حالی که آموزش LLM را مسدود می‌کنند، یا برعکس، مجاز کنند.

    چرا خروج ممکن است ایدهٔ نامطلوبی باشد

    بسیاری از ناشران می‌خواهند از خزیدن یا استفاده از محتوای خود در پاسخ‌های هوش مصنوعی خروج کنند. 

    اما اگر پاسخ‌های هوش مصنوعی به رابط پیش‌فرض تبدیل شوند، همان‌طور که جستجو به سمت تجربهٔ بدون کلیک پیش می‌رود، تکیه صرف بر ترافیک مستقیم یا ارگانیک به‌تدریج مخاطره‌آمیز می‌شود.

    در عمل، این یک دینامیک باخت‑باخت ایجاد می‌کند. 

    مسدود کردن استفاده می‌تواند مالکیت فکری را محافظت کند اما دید را کاهش دهد، در حالی‌که باز ماندن حضور را حفظ می‌کند ولی هزینهٔ آن از دست دادن کنترل است. 

    بدون داشتن حمایت‌های قانونی، ناشران به‌طور عمده مجبورند در چارچوب سیستم فعلی فعالیت کنند.

    مطالعهٔ عمیق‌تر: چگونگی مختل شدن درآمد ناشران و تبلیغات توسط پاسخ‌های هوش مصنوعی

    مناظرهٔ بزرگ: «گوگل بدهکار شما نیست» در مقابل «این محتوای آن‌ها نیست»

    از آنجا که وب‌سایت‌ها وجود دارند، ما تمایل داریم فرض کنیم که تحت کنترل ما هستند. 

    اما بدون موتورهای جستجو، دسترسی آن‌ها محدود می‌شود. 

    این تنش در قلب مباحثی قرار دارد که نظرات سئو را به دو قطب تقسیم کرده است.

    از یک سو، جناح «گوگل بدهکار شما نیست» وجود دارد. 

    • بسیاری از سئوکاران استدلال می‌کنند که وب به‌صورت پیش‌فرض باز است و اجازهٔ خزیدن موتورهای جستجو به یک سایت به‌طور ضمنی اجازهٔ استفاده از محتوا را بدون هیچ تضمینی برای بازگشت می‌دهد. 
    • گوگل امکان کشف محتوا را فراهم می‌کند، اما هیچ‌کس تضمین کلیک یا بک‌لینک در ازای آن دریافت نمی‌کند.

    از سوی دیگر، دیدگاه «این محتوای آن‌ها نیست» وجود دارد. 

    • ناشران استدلال می‌کنند که:
      • آموزش مدل‌های زبانی بزرگ به‌صورت بنیادین متفاوت از ایندکس‌گذاری صفحات است.
      • تولید پاسخ‌ها از محتوای اختصاصی بدون ارجاع یا جبران، تعادل دیرینه بین پلتفرم‌ها و ناشران را برهم می‌زند. 
    • زمانی که دیدار در خلاصه‌های هوش مصنوعی جذب می‌شود بدون مسیر واضح برای جبران یا پاداش، پیامدهای طولانی‌مدت برای ناشران، برندها و سئو قابل توجه است.

    این مناظره روزانه در شبکه‌های اجتماعی، بحث‌های ردیت و گفتگوهای کوئرا مطرح می‌شود. 

    برخی به بهینه‌سازی موتور مولد (GEO) به‌عنوان مسیر بقا اشاره می‌کنند؛ جایی که نقل‌قول شدن در پاسخ‌های هوش مصنوعی جایگزین رتبه‌بندی‌های سنتی می‌شود. 

    اما این رویکرد همچنان ناشران را به تصمیمات گوگل در خصوص لینک‌گذاری و انتخاب کاربران برای کلیک‌کردن وابسته می‌گذارد.

    در عمل، هر دو طرف استدلال‌های معتبری دارند. 

    با این حال، جهت کلی به‌نظر واضح است. 

    حتی اگر گوگل با جریمه‌های این تحقیق مواجه شود، جستجو به‌احتمال زیاد به مدل صرفاً لینک‌های آبی بازنخواهد گشت. 

    انتقال به سمت تجربهٔ بدون کلیک هم‌اکنون در حال وقوع است.

    آیندهٔ تاریک وبی بدون محتوای منحصربه‌فرد

    قبل از بررسی نتایج احتمالی شکایت و معنای آن برای سئوها، شایسته است پیامدهای آن برای خود اطلاعات را در نظر بگیریم.

    همان‌طور که خالقان احساس می‌کنند کارشان بدون کسب اجازه یا پاداش دوباره استفاده می‌شود، انگیزهٔ تولید محتوای اصلی و با کیفیت بالا کاهش می‌یابد. 

    در همان زمان، حجم محتوای تولیدشده توسط هوش مصنوعی که با حداقل مشارکت انسانی ایجاد می‌شود، همچنان در حال رشد است. این روند حاشیه‌ای نیست. 

    اکنون وب‌سایت‌های کاملی وجود دارند که هزاران صفحه‌شان تقریباً به‌صورت کامل توسط سامانه‌های مولد تولید می‌شود.

    بخش بزرگی از این مطالب از متن‌های موجود استخراج شده‌اند که بازنگری، ترکیب یا به‌صورت جزئی تغییر یافته‌اند و اغلب شامل توهمات یا نادقیق‌بودن‌های گاه و بیگاه است. 

    آن محتوا، به نوبه خود، به پاسخ‌های هوش مصنوعی جدید و مطالب تولیدشده توسط هوش مصنوعی دیگر تغذیه می‌کند و چرخه‌ای از بازاستفاده محتوا، گسترش خطاها و کاهش کیفیت اطلاعاتی به دلیل کمبود ورودی‌های اصلاً جدید ایجاد می‌کند.

    از این منظر، مناظرهٔ دربارهٔ آموزش هوش مصنوعی و حقوق محتوا فقط دربارهٔ ترافیک یا درآمد نیست.

    این موضوع همچنین سؤالات اساسی دربارهٔ چگونگی حفظ خلق دانش اصیل در وب را مطرح می‌کند – و چرا محافظت از ناشران برای جلوگیری از تخریب طولانی‌مدت کیفیت اطلاعات ضروری است.

    چه اتفاقی می‌تواند بیفتد اگر گوگل شکست بخورد

    سال‌ها، قرارداد بین گوگل و ناشران ساده بود: «من به شما اجازه می‌دهم خزیدن کنید، شما به من کلیک می‌دهید.» 

    هوش مصنوعی مولد آن قرارداد را شکسته است. 

    اگر اتحادیه اروپا عملی‌های گوگل را مخالف قوانین رقابتی تشخیص دهد، می‌توانیم سه تغییر عمده در چشم‌انداز جستجو مشاهده کنیم:

    • مکانیسم‌های خروج اجباری: در حال حاضر، مسدود کردن Google-Extended آموزش را متوقف می‌کند اما لزوماً از خلاصه‌سازی در زمان واقعی شما محافظت نمی‌کند. پیروزی تنظیم‌کننده می‌تواند مکانیسم جزئی «خروج از خلاصه‌های هوش مصنوعی بدون از دست دادن رتبه‌های جستجو» را تحمیل کند.
    • اقتصاد مجوزدهی: مشابه صنعت موسیقی، ممکن است شاهد رشد مجوزدهی جمعی باشیم. اگر گوگل مجبور به پرداخت هزینهٔ ارزش آموزشی محتوا شود، جستجوی ارگانیک ممکن است در نهایت به جستجوی رایگان و جستجوی هوش مصنوعی تجاری، دارای مجوز، تقسیم شود.
    • رسماً‌سازی AEO: اگر ارجاع منبع به‌عنوان یک الزام قانونی شود، ذکر منبع می‌تواند به‌عنوان عاملی برای رتبه‌بندی درنظر گرفته شود. سئوکاران باید به‌جای تمرکز صرف بر بک‌لینک‌های سنتی، به بهینه‌سازی ارجاع به نهادها بپردازند.

    تبلیغات و تحول اقتصاد دیده شدن

    اگرچه این داستان عمدتاً دربارهٔ هوش مصنوعی، حقوق محتوا و سئو است، تبلیغات همچنان بزرگ‌ترین عامل در صفحه نتایج جستجو (SERP) باقی مانده‌اند.

    همزمان که فضای ارگانیک بیشتری توسط خلاصه‌های تولیدشده توسط هوش مصنوعی و چت‌های کمکی مصرف می‌شود، آخرین ابزار پیش‌بینی‌پذیر برای دیده شدن، تبلیغات پولی باقی می‌ماند. 

    حتی اگر اتحادیه اروپا گوگل را مجبور به محدود کردن پاسخ‌های هوش مصنوعی یا بهبود ارجاع کند، فضای کلی باقی‌مانده برای لینک‌های آبی سنتی به‌احتمال زیاد به‌طور چشم‌گیری گسترش نخواهد یافت.

    فضای در دسترس به استفاده از محصولات درآمدزأ گوگل ادامه خواهد داد.

    اگر خلاصه‌های هوش مصنوعی در بالای صفحه تسلط پیدا کنند و لینک‌های ارگانیک به‌سوی پایین‌تر رانده شوند، هزینه‌های کلیک (CPC) احتمالاً افزایش خواهد یافت، چه درون پاسخ‌های هوش مصنوعی و چه خارج از آن.

    تبلیغ‌کنندگان برای مکان‌های کلیک‌پذیر باقی‌مانده به‌صورت پرتحرک‌تری رقابت خواهند کرد. 

    صرف‌نظر از نحوهٔ پیشرفت آیندهٔ هوش مصنوعی برای گوگل، جهت‌گیری واضح است: هزینهٔ دیده شدن در حال افزایش است.

    چگونه استراتژی سئو و محتوای خود را تطبیق دهیم

    حتی پیش از هر تصمیم رسمی اتحادیه اروپا، تیم‌های پیشرو در حال تغییر از «رتبه‌بندی برای کلیدواژه» به «پاسخ‌دهی به‌عنوان موجودیت اصلی در هر جایی که مدل نگاه می‌کند» هستند. 

    این شامل موارد زیر است:

    • تقویت وضوح موجودیت‌ها با استفاده از اسکیما، اطلاعات تماس ثابت (NAP) و داده‌های ساختار یافته تا سیستم‌های هوش مصنوعی بتوانند سؤالات، موضوعات و ویژگی‌ها را به برند شما مرتبط کنند.
    • بازرسی نحوهٔ نمایش برند شما در خلاصه‌های هوش مصنوعی، چت‌بات‌های اصلی، و ابزارهای ویژه هوش مصنوعی؛ سپس ردیابی حضور، احساسات و صحت واقعی به‌عنوان شاخص‌های کلیدی عملکرد (KPI) جدید برای دیده شدن.
    • بازبینی robots.txt. مسدود کردن ممکن است مالکیت فکری را محافظت کند اما نمایش را کاهش دهد، در حالی‌که باز ماندن ممکن است دیده شدن توسط هوش مصنوعی را افزایش دهد اما سؤالاتی دربارهٔ مجوزدهی و ارزش‌گذاری ایجاد کند.
    • آموزش به رهبران که ترافیک دیگر تنها نتیجهٔ دیده شدن نیست. نقل‌قول شدن، خلاصه شدن یا استفاده به‌عنوان منبع پایه در خروجی‌های هوش مصنوعی ارزش دارد، اما این ارزش باید به‌صورت داخلی تعریف و اندازه‌گیری شود.

    همان‌طور که چارچوب‌های قانونی و فنی تکامل می‌یابند، چالش استراتژیک این است که به‌صورت قابل‌خواندن برای ماشین و آگاه از حقوق بمانیم، کنترل استفاده از محتوا را اعمال کنیم و در عین حال برند در هر جایی که پاسخ‌های هوش مصنوعی بیشترین اعتماد را دارد، حضور داشته باشد.

    مطالعهٔ عمیق‌تر: چگونگی ساخت یک استراتژی محتوا مؤثر برای سال ۲۰۲۶