
الا بارون

الا بارون
توسط کیمکو مککوی

هوش مصنوعی عامل اهداف بلندپروازانهای دارد و به بازاریابان وعده میدهد که ایدهپردازی و اجرا را در یک جریان، با نظارت کمی، انجام دهند. اما واقعیت این است که هنوز انسانها فرماندهی کار را در دست دارند.
در بخش اعظم سال ۲۰۲۵، هوش مصنوعی عامل به عنوان واژهپرفروش صنعت مطرح شد. همانطور که Digiday تعریف میکند، «وضعیتی که در آن چندین عامل هوش مصنوعی برای تکمیل وظایف پیچیده با هم کار میکنند، با نظارت حداقل از سمت کاربر انسانی». اما بهنظر میرسد این نظارت کم، مانعی باشد که بازاریابان را از پذیرش کامل استقلال هوش مصنوعی عامل باز میدارد.
«این فقط برای انتقال از تولید به انتشار آماده نیست»، گفت کارن رودریگز، مدیر ارشد بازاریابی محتوا در New American Funding.
رودریگز گفت که شرکت وامدهی مسکن از هوش مصنوعی عامل در تمام بخش بازاریابی خود برای نوشتن متون و پیشنویسهای محتوا در شبکههای اجتماعی و بازاریابی ایمیلی استفاده میکند. New American Funding هوش مصنوعی عامل را از طریق مشارکت خود با Writer، یک پلتفرم هوش مصنوعی سازمانی، آزمون کرده است. با این حال، انسانها بخش عمدهٔ محتوا را پیش از انتشار بازبینی میکنند.
در شرکت فناوری سلامت و بهزیستی Oura نیز وضعیت مشابهی مشاهده میشود. Oura از هوش مصنوعی عامل برای بهینهسازی عملکرد خود در جستجوهای هوش مصنوعی عامل و استراتژی تولید محتوا استفاده میکند، اما در حال حاضر هیچ محتوای تولیدشده توسط هوش مصنوعی بدون دخالت انسانی منتشر نمیکند، گفت مدیر ارشد بازاریابی Oura، دوگ سوینی.
«آنها بلاگ نمینویسند، اما از نظر زمینهای به ما کمک میکنند — مانند یک ویراستار یا نویسندهای که در کنار شما مینشیند و یاری میکند»، او گفت.
بهعنوان مثال، محتوایی که برای رودریگز در New American Funding قبلاً روزها برای نوشتن، ویرایش و دریافت تأیید از بخش حقوقی میطلبید، اکنون میتواند در همان روز آماده شود، او گفت.
طبق پژوهش PwC، شرکتهای آمریکایی گزارش دادهاند که هوش مصنوعی عامل بهرهوری را ۶۶٪ و صرفهجوییها را ۵۷٪ افزایش داده است.
با این وجود، همچنان احتیاطی در مورد اعتماد به این عوامل هوش مصنوعی برای بهکارگیری مستمر راهنمای سبک برند و منبعگذاری صحیح تصاویر تولیدشده وجود دارد.
Writer سیستمهایی را برای مقابله با توهم و سایر نقصهای هوش مصنوعی عامل پیادهسازی کرده است، گفت دیگو لومانتو، مدیر ارشد بازاریابی Writer. بهعنوان مثال، این سیستم برای هر اقدام انجامشده توسط عامل هوش مصنوعی توضیحی ارائه میدهد که سپس میتواند توسط مشتری بررسی شود، او افزود.
در Go Fish Digital، یک آژانس بازاریابی دیجیتال، برخی از مشتریان نسبت به خدمات هوش مصنوعی عامل بازتر هستند، در حالی که برخی دیگر نگران توهمات و دقت هستند و یا سیستمهای خودکار هوش مصنوعی را محدود میکنند یا بازبینی انسانی بیشتری میطلبند، گفت دیوید دوِک، رئیس Go Fish Digital.
«همهٔ آنچه ساختهایم برای تعامل بین انسان و هوش مصنوعی طراحی شده است»، دوِک گفت.

علاوه بر هزینههای زیستمحیطی، سیاسی و اجتماعیای که هوش مصنوعی بر جهان تحمیل کرده است، این فناوری همچنین با بحران جدی سلامت روان مرتبط است؛ بهطوریکه کاربران به توهمات میگرایند، در نهایت به بیمارستانهای روانپزشکی منتقل میشوند یا حتی خودکشی میکنند.
بهعنوان مثال، Caitlin Ner را در نظر بگیرید. در مقالهای برای Newsweek، Ner درباره تجربهاش بهعنوان سرپرست تجربه کاربری در یک استارتاپ تولید تصویر هوش مصنوعی مینویسد — شغلی که او میگوید او را به عمق فروپاشی روانی ناشی از هوش مصنوعی کشاند.
در روایت صریح خود، Ner میگوید همهاش از زمان کار آغاز شد؛ جایی که او روزانه بیش از نه ساعت را صرف درخواستهای خود به سامانههای اولیهٔ هوش مصنوعی تولیدی از دوران ۲۰۲۳ میکرد. اگرچه تصاویری که این سامانههای انسانساخت تولید میکردند اغلب خراب و تحریفشده بودند، اما همچنان «مانند جادو» حس میشد — حداقل در ابتدا.
«در عرض چند ماه، آن جادو به حالت جنونی تبدیل شد»، او نوشت.
Ner نوشته است که این تصاویر اولیه «آغاز به تحریف ادراک بدن من کردند و مغزم را بهگونهای بیش از حد تحریک میکردند که بهطور جدی سلامت روانم را تحتتأثیر قرار میداد». حتی وقتی هوش مصنوعی تعداد انگشتهای تولید شده در دست انسان را کنترل کرد، این تصاویر همچنان فشار روانی ایجاد میکردند؛ بهجای خطاهای آناتومیک، صحنههایی با اندامهای فوقالعاده لاغر و زیبا را به تصویر میکشیدند.
«دیدن مکرر این تصاویر هوش مصنوعی، حس عادی بودن من را دوبارهتنظیم کرد»، Ner توضیح داد. «وقتی به انعکاس واقعیام نگاه میکردم، چیزی میدیدم که نیاز به اصلاح داشت».
در یک لحظهٔ بحرانی، Ner شروع به آزمایش با تصاویری کرد که خود را بهعنوان یک مدل مد به تصویر میکشید؛ دستوری که توسط شرکتش که به دنبال کاربران علاقهمند به مد بود، تعیین شده بود. «متوجه شدم که در حال فکر کردن به این هستم که «اگر فقط شبیه نسخهٔ هوش مصنوعیام میبودم»،» او نوشت. «بهشدت وسواسی به کمچربیتر شدن، داشتن بدن بهتر و پوست کامل فکر میکردم».
بهزودی او برای تولید بیوقفه تصاویر، خواب خود را از دست داد؛ این کار را «اعتیادآور» مینامید، چون هر تصویر «یک انفجار کوچک دوپامین» را بهوجود میآورد. اگرچه Ner پیش از ورود به مدلینگ مد هوش مصنوعی بهخوبی اختلال دوقطبی خود را تحت درمان داشت، این وسواس جدید به یک «دورهٔ مانیک دو قطبی» تبدیل شد که او میگوید باعث بروز روانپریشی شد.
«وقتی تصویری هوش مصنوعی از من روی اسب پرنده دیدم، باور کردم که میتوانم واقعاً پرواز کنم»، Ner مینویسد. «صدایها به من گفتند از بالکن بپرسم، احساس اطمینانی به من دادند که میتوانم زنده بمانم. این توهم بزرگنمایی تقریباً مرا به پرش واقعی ترغیب کرد».
خوشبختانه، او خود را متوقف کرد و برای کمک به دوستان و خانواده رجوع کرد. یک متخصص به او کمک کرد تا متوجه شود کارش این مسیر را بهوجود آورده است، که منجر به ترک استارتاپ هوش مصنوعی شد. «اکنون میفهمم که آنچه برایم رخ داد تنها تصادف بیماری روانی و فناوری نبود»، او توضیح میدهد. «این یک نوع اعتیاد دیجیتال بود که ماهها و ماهها تولید تصویر هوش مصنوعی بهوجود آمد».
او پس از آن بهعنوان مدیر در یک شرکت مدرن دیگر به نام PsyMed Ventures منتقل شد؛ شرکتی که Newsweek آن را بهعنوان یک صندوق سرمایهگذاری خطرپذیر که در حوزه سلامت ذهن و مغز سرمایهگذاری میکند، توصیف کرده است. بسیاری از شرکتهای سرمایهگذاری شده توسط PsyMed ابزارهای هوش مصنوعی دارند — که Ner میگوید هنوز هم از آنها استفاده میکند، هرچند با احترامی تازه یافته.
اطلاعات بیشتر درباره هوش مصنوعی: مردی که توصیف میکند چگونه ChatGPT او را مستقیماً به روانپریشی کشاند

در یک صفحهٔ پشتیبانی Google، این شرکت اعلام میکند که گزینهٔ جدیدی برای اجازهٔ تغییر آدرس ایمیل کاربران حتی اگر آدرسشان «@gmail.com» باشد، بهصورت تدریجی در حال اجراست.
مدتی است که Google به کاربران اجازه میدهد آدرس ایمیل حساب خود را در صورت استفاده از آدرس ایمیل شخص ثالث تغییر دهند، اما کاربران دارای آدرس «@gmail.com» نمیتوانستند آن را تغییر دهند؛ همانطور که Google میگوید:
اگر آدرس ایمیل حساب شما با @gmail.com تمام شود، معمولاً نمیتوانید آن را تغییر دهید.
به نظر میرسد این وضعیت در حال تغییر است.
در همان صفحهٔ پشتیبانی که در حال حاضر میگوید معمولاً نمیتوانید ایمیل خود را تغییر دهید، Google فرآیند جدیدی که «بهصورت تدریجی معرفی میشود» را شرح میدهد. صفحهٔ تغییریافته بهطرز عجیبی در حال حاضر فقط به زبان هندی نمایش داده میشود، بنابراین نمیتوانید تغییرات را به انگلیسی ببینید. تمام مطالب زیر ترجمه شدهاند. این صفحه اولین بار در گروه «Google Pixel Hub» در تلگرام مشاهده شد.
Google توضیح میدهد:
آدرس ایمیل مرتبط با حساب Google شما، همان آدرسی است که برای ورود به سرویسهای Google استفاده میکنید. این آدرس ایمیل به شما و دیگران کمک میکند تا حساب شما را شناسایی کنید. اگر مایل باشید، میتوانید آدرس ایمیل حساب Google خود که به gmail.com ختم میشود را به یک آدرس ایمیل جدید که به gmail.com ختم میشود، تغییر دهید.
این عملکرد جدیدی است که Google هنوز جزئیات آن را در جای دیگر منتشر نکرده، اما میگوید که «بهصورت تدریجی برای همه کاربران در دسترس خواهد شد».
با این تغییر، Google به کاربران اجازه میدهد آدرس ایمیل «@gmail.com» خود را به آدرس جدید «@gmail.com» با نام کاربری متفاوت تغییر دهند. پس از تغییر، Google توضیح میدهد که آدرس ایمیل اصلی شما هنوز ایمیلها را در همان صندوق ورودی که آدرس جدید دارد دریافت میکند و برای ورود به سرویسها قابل استفاده است و هیچیک از دسترسیهای حساب شما تغییر نمیکند. کاربران نمیتوانند ایمیل خود را در طول ۱۲ ماه پس از تغییر، تغییر یا حذف کنند.
وقتی آدرس ایمیل حساب Google خود را از ایمیلی که به gmail.com ختم میشود به ایمیل جدیدی که به gmail.com ختم میشود تغییر میدهید:
- آدرس ایمیل قدیمی در حساب Google شما که به gmail.com ختم میشود بهعنوان یک نام مستعار (alias) تنظیم میشود. برای اطلاعات بیشتر در مورد نامهای مستعار ایمیل، به صفحه مربوطه مراجعه کنید.
- ایمیلها هم به آدرس قدیمی و هم به آدرس جدید شما ارسال میشوند.
- دادههای ذخیرهشده در حسابتان، از جمله عکسها، پیامها و ایمیلهای ارسالی به آدرس قدیمی، تحت تأثیر قرار نمیگیرد.
- میتوانید هر زمان که بخواهید، آدرس ایمیل قدیمی حساب Google خود را دوباره استفاده کنید. اما نمیتوانید در طول ۱۲ ماه آینده آدرس ایمیلی جدید که به gmail.com ختم میشود ایجاد کنید. همچنین نمیتوانید آدرس ایمیل جدید را حذف کنید.
- میتوانید برای ورود به سرویسهای Google مانند Gmail، Maps، YouTube، Google Play یا Drive، از آدرس ایمیل قدیمی یا جدید استفاده کنید.
هر حساب میتواند حداکثر تا ۳ بار آدرس «@gmail.com» خود را تغییر دهد؛ یعنی در مجموع میتواند ۴ آدرس مختلف داشته باشد.
Google همچنین توضیح میدهد که آدرس Gmail قدیمی شما همچنان در برخی موارد نمایش داده میشود و «در نمونههای قدیمیتر» نظیر رویدادهای تقویم که قبل از تغییر ایجاد شدهاند، بلافاصله منعکس نمیشود. شما همچنان میتوانید ایمیلها را از آدرس قدیمی ارسال کنید. آدرس قدیمی هنوز متعلق به شماست و نمیتواند توسط کاربر دیگری استفاده شود.
این بهروزرسانی تنها یک روز پس از آغاز انتشار نسخه FSD v14.2.2 برای مشتریان منتشر شد.

در این کریسمس، تسلا به کارهای شبانه میپردازد و تیم هوش مصنوعی تسلا بهصورت آرام نسخه Full Self-Driving (Supervised) v14.2.2.1 را تنها یکروز پس از آغاز انتشار نسخه FSD v14.2.2 برای مشتریان منتشر میکند.
مالک طولانیمدت تسلا و آزمونگر FSD @BLKMDL3 پس از چندین رانندگی با نسخه FSD v14.2.2.1 در شرایط بارانی لسآنجلوس، با آب ثابت و خطوط راه کمرنگ، برخی بینشها را بهاشتراک گذاشت. او گزارش داد که هیچ تعلیق یا لرزش در فرمان حس نمیشود، تغییر خطوط با اطمینان انجام میشود و مانورهای دقیق که عملکرد رباتتاکسیهای خودران تسلا در آستین را تداعی میکند، اجرا شد.
عملکرد پارککردن شگفتانگیز بود؛ اکثر مکانها بهدقت کامل، حتی در پیچهای تیز و فشرده، در یکبار و بدون لرزش در فرمان انجام شد. تنها یک انحراف جزئی به دلیل خودروی دیگری که از خط پارک عبور کرده بود رخ داد که FSD با افزودن چند اینچ این فاصله را جبران کرد. در بارانی که معمولاً علائم جاده را از بین میبرد، FSD خطوط راه و مسیرهای پیچ را بهتر از انسانها تجسم کرد و هنگام ورود به خیابانهای جدید بهطور بینقص موقعیت خود را تنظیم کرد.
« امشب مسیر تاریک، مرطوب و پیچدار یک دره کوهستانی را بالا و پایین طی کردم و همانطور که انتظار میرفت، خیلی خوب پیش رفت. در خط مسیر مرکز ماند، سرعت را بهخوبی حفظ کرد و حس فرماندهیای که اعتماد بهنفس میبخشد، ارائه داد؛ اینجوری که این جادههای پیچدار را بهتر از اکثر رانندگان انسانی مدیریت میکند.» صاحب تسلا در پستی در X نوشت.
همینطور، بهروزرسانی دیگری از FSD. نسخه ۱۴.۲.۲.۱ در حال دانلود است! pic.twitter.com/ajh1mu0TEK— Greggertruck (@greggertruck) ۲۴ دسامبر ۲۰۲۵
۵ رانندگی با FSD v14.2.2.1 انجام دادم و اینها نظرات من هستند:
هنوز هیچ تعلیق یا لرزش در فرمان ندارم، تغییر خطوط با اطمینان و عالی است. تمام رانندگیهای امشب من با این نسخه در باران بوده و از عملکرد آن در مواجهه با آب ثابت روی جاده بسیار تحت تأثیر قرار گرفتم… pic.twitter.com/W6RwqnnChe— Zack (@BLKMDL3) ۲۴ دسامبر ۲۰۲۵
خبر خوب 🚨 $TSLA FSD V14.2.2.1 هماکنون در حال انتشار است 💥
این نسخه نگهداری برای اصلاح ویژگیهای موجود در ۱۴.۲.۲ است 🔥 سرعت انتشار این بهروزرسانی از زمان شروع سری v14 بهصورت شگفتانگیزی سریع بوده است 🔥
۱️⃣ V14.1 (2025.32.8.5) — ۶ اکتبر ۲۰۲۵
۲️⃣ V14.1.1 (2025.32.8.6) — ۱۲ اکتبر ۲۰۲۵… pic.twitter.com/cdhioquSU8— Ming (@tslaming) ۲۴ دسامبر ۲۰۲۵
یک روز پیش از انتشار نسخه FSD v14.2.2.1، تسلا نسخه FSD v14.2.2 را منتشر کرد که بر عملکرد واقعی نرمتر، آگاهی بهتر از موانع و مسیر دقیقتری در انتهای سفر متمرکز بود. بر اساس یادداشتهای انتشار این بهروزرسانی، FSD v14.2.2 شبکه عصبی انکودر بینایی را با ویژگیهای با وضوح بالاتر ارتقا میدهد و تشخیص وسایل نقلیه اضطراری، موانع جادهای و اشارات انسانی را بهبود میبخشد.
گزینههای جدید Arrival Options نیز به کاربران اجازه میدهد سبکهای دلخواه تحویل را انتخاب کنند، مانند پارکینگ، خیابان، راهپایانی، گاراژ پارک یا لبهخیابان، بهطوری که پن مکانیابی بهصورت خودکار به نقطهٔ ایدهآل تنظیم شود. سایر بهبودها شامل توقف برای وسایل نقلیه اضطراری، مسیرهای دوربری بر پایهٔ تصویر برای جادههای مسدود، مدیریت بهتر دروازهها و ماندهماندهها، و پروفایلهای سرعت برای تنظیم سبک رانندگی است.

به تازگی یک آیفون جدید خریدم. نیازی به داشتن نسخه جدیدتر نداشتم، اما گوشی قبلیام بهگونهای خراب شده بود که به سادگی قابل تعمیر نبود؛ پس ناچار شدم به چرخه سخت برنامهریزی برای کهنهشدن بپیوندم. من همیشه از بهبود مستمر کیفیت تصویر خوشحالم. در غیر اینصورت، برای من فقط نیاز به یک گوشی جدید و بدون آسیب بود. اما این یکی از مدلهایی است که اپل بارها به شما میگوید هوش مصنوعی خود را در دستگاه تعبیه کرده است—چیزی که میگویند فوقالعاده است. یا همانطور که آنها میگویند. بهطور مکرر. و حس کلی من این است که اپل نسبت به دیگر غولهای فناوری، کمترین تمایل به پرستارهسازی و اغراق در این زمینه را دارد.
از وقتی که از گوشی جدید استفاده میکنم، دریافتم که برنامه پیامرسانی اپل حالا پیشنهادهای عبارت و تکمیل کلمات را به سطحی بالاتر میبرد — بهگونهای که میتوان گفت به حدی تقریباً بیمنطق رسیده است.
جوزف ایمرسون – مؤسسهٔ محاسبهٔ کوانتومی و گروه ریاضیات کاربردی، دانشگاه واترلو، انتاریو، کانادا
فیزیک 18, 200 – یک استراتژی نوین با مهار اثرهای خروج کیوبیتها از حالتهای هدفشان، اصلاح خطا در محاسبهٔ کوانتومی را بهبود میبخشد.


کامپیوترهای کوانتومی در فضای با بعد بالا کار میکنند و از همبستگی، درهمتنیدگی و سایر اثرات کوانتومی ویژه بهره میبرند. به همین دلیل، این سامانهها بهطرز منحصربهفردی نسبت به خطاها حساس هستند؛ حساسیتی که در سیستمهای کلاسیک مشاهده نمیشود. غلبه بر این خطاها، چالش اصلی برای دستیابی به محاسبهٔ کوانتومی در مقیاس بزرگ است. از میان روشهای متعدد حذف خطا، اصلاح خطای کوانتومی معیار طلایی به شمار میآید، اما بیشینهٔ کارایی خود را زمانی مینماید که خطاها بهصورت مستقل بین کیوبیتها و در طول زمان رخ دهند؛ یعنی وقتی همبستگی خطاها محدود باشد. در حال حاضر، جیانوی پان از دانشگاه علم و فناوری چین و همکارانش رویکرد جدیدی برای مهار خطاهای همبسته ناشی از بهنام «خطاهای نفوذی» (leakage) ارائه دادند [1]. آنها این دستاورد را با بهکارگیری یک طرح کنترلی که بهطور مؤثر در یک چرخهٔ واحد اصلاح خطا ادغام میشود، به دست آوردند. این نمایش، دامنهٔ منابع فیزیکی خطا را که میتواند در چارچوب محدودیتهای معماری اصلاح خطای کوانتومی مهار شود، بهشدت گستردهتر میکند.
اصلاح خطا بهترین عملکرد را وقتی دارد که هم خطاهای همبسته و هم خطاهای حفظکنندهٔ همبستگی در سطح ناچیز باشند. خطاهای همگنی میتوانند از نقصهای کلی در کنترل کیوبیت ناشی شوند، بسته به بازهٔ زمانی تغییرات این نقصها. در همان حال، خطاهای همبسته بین کیوبیتها میتوانند از نقصهای خاص کنترلی، مانند تداخل میکروویوی و اتصالهای باقیمانده و غیرقصدی بین کیوبیتها، بهوجود آیند. سرانجام، خطاهای همبسته در طول گامهای زمانی میتوانند از مجموعهای گسترده از مکانیزمها ظاهر شوند.
تلاشهای فراوانی برای توسعه روشهای شناسایی و مهار خطاهای همگنی و همبسته در سامانههای کیوبیتی انجام شده است. مهار خطاهای همگنی تا حد زیادی مسئلهای حلشده است، از طریق تکنیکهایی مانند جداسازی دینامیک (dynamical decoupling) [2] و ترکیب تصادفی (randomized compiling) [3]. همچنین، وجود همبستگیها بین کیوبیتها و زمان (مربوط به خطاهای غیرمارکوفی که به «خطاهای غیرمارکوفی» نیز نامیده میشوند) اکنون میتواند بهصورت مؤثر از طریق مجموعهای از روشها که از استراتژی «benchmarks تصادفی» (randomized benchmarking) استفاده میکنند، شناسایی شود [4‑6]. با این حال، یافتن روشهای کارآمد برای سرکوب همبستگیهای خطا همچنان بهعنوان یک چالش بزرگ باقی مانده است، بهویژه در چارچوب محدودیتهای زمانی و سایر محدودیتهای معماری اصلاح خطای کوانتومی.
یک منبع مهم از همبستگیهای خطا در چندین پلتفرم پیشرو محاسبهٔ کوانتومی — از جمله کیوبیتهای یوندار و کیوبیتهای ابررسانا — مکانیزمی به نام «نشت» است. نشت زمانی اتفاق میافتد که حالت کوانتومی یک کیوبیت از زیرفضای دو‑بعدی سطوح انرژی فیزیکی که بهعنوان حالات ۰ و ۱ کیوبیت تعریف میشود، فرار کند. خطاهای نشت بهخودشان بهراحتی شناسایی میشوند [7, 8] و میتوانند توسط تکنیکهای اصلاح خطا مدیریت شوند. اما یکی از چالشهای منحصر بهفرد این خطاها این است که اطلاعات کوانتومی معمولاً از دست نمیرود؛ بلکه در طول زمان طولانی در کنار زیرفضای کیوبیت باقی میماند. سپس مشکل نشت پیچیدهتر میشود؛ چرا که اطلاعات نشت‑شده میتواند بعداً به زیرفضای کیوبیت بازگردد. این فرآیند میتواند اطلاعات کوانتومی را در همان کیوبیت یا کیوبیت همسایه تغییر دهد و به خطاهای همبسته در طول محاسبه منجر شود. بهعبارت دیگر، خطای بازگشت تنها زمانی رخ میدهد که خطای نشت نیز پیش آمده باشد، و این گونه خطاهای همبسته اغلب فراتر از قابلیتهای کدهای اصلاح خطا برای شناسایی و حذف مطمئن هستند.
پان و همکارانش این مسأله را در یک بستر کیوبیت ابررسانا که برای اجرای حافظهٔ کوانتومی تنظیم شده بود، با حضور هر دو نوع کیوبیت داده و انکلا (کیوبیتهای کمکی) مورد نیاز برای یک طرح کامل اصلاح خطا، مورد بررسی قرار دادند (شکل 1). آنها طرح خود را در چارچوب معماری کد سطح (surface code) پیادهسازی کردند؛ رویکردی پیشرو در اصلاح خطای کوانتومی که به دلیل نیازهای کم به اتصال کیوبیتها و تحمل بالا در مقابل نرخ خطا، مورد توجه قرار گرفته است. در طرح جدید، نشت کیوبیتهای داده با بهرهگیری از مدارهای کنترلی یکپارچه که بهصورت کامل توسط پالسهای میکروویوی هدایت میشوند، مهار میشود و این مهار بهعنوان یک زیرروال سریع در هر چرخهٔ اصلاح اجرا میگردد. همزمان، یک پروتکل بازنشانی برای کیوبیتهای انکلا، نشت و سایر خطاهای این کیوبیتهای کمکی را کاهش میدهد.
تیم از تکنیک معیارسنجی تصادفی ترکیبی برای برآورد خطاهای اضافی ناشی از مدارهای مهار نشت استفاده کرد. اما این روش میتواند نسبت به روشهای پیشرفتهتری نظیر معیارسنجی چرخهای (cycle benchmarking) [5] خطاهای قابلتوجهی داشته باشد. با این وجود، پان و همکارانش توانستند تأیید کنند که ترکیب عناصرشان، ضمن محدودیتهای یک چرخهٔ اصلاح، دستاورد کاهش خطای خالص بهاندازهٔ ۱٫۴ را بهدست آورده است. این نتیجه بدین معنی است که بزرگکردن کد سطح بهمقدار یک واحد فاصله، نرخخطای منطقی را بهدلیل ۱٫۴ برابر کاهش میدهد؛ یافتهای که پژوهشگران نشان دادند بدون این مهار نشت، غیرممکن بود.
پان و همکارانش حافظهٔ کوانتومی اصلاحشده را با کد سطح فاصله۷ که بر روی ۹۷ کیوبیت فیزیکی اجرا شد و دارای عمق ۴۰ چرخهٔ اصلاح بود، نشان دادند. این نمایش یک پیادهسازی در مقیاس بزرگ و دستاوردی چشمگیر بر پایهٔ استانداردهای امروز بود. اما باید انتظاراتمان را بهدقت تنظیم کنیم، چرا که هنوز فاصلهٔ زیادی با اهداف محاسبهٔ کوانتومی مقیاس کاربردی و مقاوم به خطا و تأثیرات واقعی آن در جهان دارد. بهعنوان مثال، معیار طلایی برای نشاندهی برتری کوانتومی — اینکه محاسبهٔ کوانتومی میتواند از محاسبهٔ کلاسیک پیشی بگیرد — پیادهسازی الگوریتم شاور برای فاکتورگیری اعداد بزرگ و حل مسئلهٔ لگاریتم گسسته است. این دستاورد تهدیدی برای سامانههای مورد استفاده در تراکنشهای اینترنتی، امنیت بیتکوین و غیره است که به سختی این محاسبات وابستهاند. پیشرفتهای نظری اخیر نیازهای فاکتورگیری عدد ۲۰۴۸‑بیتی را از تخمین ۲۰ میلیون کیوبیت به «فقط» یک میلیون کیوبیت کاهش دادهاند [9]. بنابراین خبر خوش این است که این نیازها به سمت توانمندیهای آزمایشگاهی ما نزدیک میشوند؛ خبر بد این است که هنوز مسیر طولانی در پیش است.

از اواخر نوامبر ۲۰۲۲، OpenAI با ارائه یک ربات گفتوگو پیشرفته که از یک مدل زبانی بزرگ برای درک ورودیهای انسانی و تولید پاسخهای شبیه به انسان استفاده میکند، جهان را شگفتزده کرد. علیرغم اینکه یکی از نخستین کاربردهای یک مدل زبانی بزرگ بود، ChatGPT بهخاطر دسترسی آسان خود محبوب شد. میتوانید برنامه را دانلود کنید یا هوش مصنوعی گفتوگوئی OpenAI را از طریق مرورگر وب استفاده کنید. اگر میخواهید تاریخچهٔ گفتگوهای خود را ذخیره کنید، باید با یک حساب موجود Apple، Google یا Microsoft وارد شوید.
اگرچه ChatGPT دسترسی آسانی دارد و بهطبیعی در کار، مدرسه و حتی استفادههای غیررسمی ادغام میشود، هنوز مواردی وجود دارد که هنگام تعامل با این ربات گفتوگو باید به آنها توجه کنید. گاهی ممکن است ChatGPT پاسخهای نادرستی بدهد یا اطلاعات شخصی شما را ثبت کند. این ربات در برخی موارد قابل اطمینان است، اما همچنان دارای سوگیریهایی است که نمیتوان نادیده گرفت. همچنین، گفتگو طولانیمدت با یک ربات میتواند اثرات روانشناختی ایجاد کند که پذیرششان دشوار است.

ChatGPT ممکن است پاسخها را با لحنی بسیار بیادعا ارائه دهد، اما واقعیت این است که همیشه صحیح نیست.
در حال حاضر، ChatGPT نسخهٔ ۵.۱ را برای تمام سطوح اجرا میکند، اما انتظار میرود نسخهٔ ۵.۲ بهزودی منتشر شود. این نشان میدهد که همیشه فشار برای ارائهٔ بهروزرسانیها وجود دارد تا همگام با رقبای فعلی بماند. به یاد داشته باشید که هوش مصنوعی هنوز حوزهای در حال رشد سریع است و رقبایی همچون Google Gemini، Claude از Anthropic، و حتی Perplexity به این رقابت شعلۀ بیشتری میافشانند.
همچنین ChatGPT همواره منبع یا ارجاع مناسب برای پاسخهای خود را ارائه نمیدهد. OpenAI در راهنمای خود اشاره میکند که ChatGPT ممکن است تعاریف، واقعیتها را بهصورت نادرست ارائه دهد و حتی نقل قولها و مطالعاتی را ساختگی ارائه کند. بنابراین، پیش از باور به اطلاعات، باید همیشه آنها را تأیید کنید، اما گاهی ربات مسیر منبع اطلاعات را بهدستنخورده میگذارد؛ در این صورت بهتر است زمانی که امکان دارد سؤال کنید.

در حین گفتگو با ربات گفتوگوی OpenAI، ممکن است بهراحتی فراموش کنید که تولید کنندهٔ پاسخها در واقع یک هوش مصنوعی است، نه یک انسان، بهویژه که این برنامه بر پایه یک مدل زبانی بزرگ ساخته شده تا بهصورت شبیهانسان پاسخ دهد. حتی مواردی وجود دارد که افراد از این ربات برای تبدیل همدم هوش مصنوعی به شریک ایدهآل استفاده کردهاند. یک مورد که اوایل امسال گزارش شد، شامل زنی متاهل بود که برای ایجاد یک رابطهٔ مجازی از این پلتفرم استفاده کرد.
اگرچه این تنها یک زیر محصول از ظاهر انسانمانند رباتهای گفتوگو است، تصور کنید که از آن بهعنوان پلتفرمی برای بیان مشکلات یا برگزاری بحثهای حساس بدون احساس قضاوت استفاده کنید؟ این راحتی مکالمه باعث میشود افراد تقریباً احساس کنند که «فرد» پشت صفحه، در واقع یک هوش مصنوعی واقعی است که پاسخها را بر پایه دادههای ارائهشده پیشبینی میکند، نه یک انسان.

ChatGPT همچنین محدودیتی برای میزان اطلاعاتی که میتواند هنگام تعامل بهخاطر بسپارد دارد. این نکتهای نیست که همه به آن فکر کنند، بهویژه اگر پلتفرم را بهصورت گاهبهگاه استفاده کنید. ChatGPT میتواند جزئیات خاصی را از طریق عملکرد حافظهٔ ذخیرهشدهٔ ارجاعی خود نگه دارد که به حفظ ارتباط و شخصیسازی گفتوگوها کمک میکند. اما این نیز دارای محدودیتی است. طبق گفتهٔ ChatGPT، میتواند تا هزاران توکن از زمینه را ذخیره کند که معادل چند صفحهٔ متن است (OpenAI بهطور واضح اندازهٔ دادهٔ ذخیرهشده برای ChatGPT را اعلام نکرده است).
همچنین نمیتواند تمام اطلاعاتی را که به آن میدهید ذخیره کند. اطلاعات کوتاهمدت یا جزئیات بیاهمیت، اطلاعات حساس شخصی (مانند گرایش جنسی یا موضع سیاسی دقیق) یا هر چیزی که میتواند هویت شما را شناسایی کند، مانند شمارهٔ تلفن و شناسهها، ذخیره نمیشود. اما علایق، زمینهٔ شخصی، ترجیحات و پروژههای بلندمدت شما ذخیره میشوند. حافظههای ذخیرهشده نیز به دو دستهٔ اصلی تقسیم میشوند: حافظهٔ گفتوگو و حافظهٔ دائم. مگر اینکه شما صراحتاً درخواست کنید یا تنظیمات را بهصورت خودکار فعال کنید، هیچ اطلاعاتی در حافظهٔ دائم ذخیره نخواهد شد.

در هر پلتفرم هوش مصنوعی، باید از ارائهٔ اطلاعات شخصی خود خودداری کنید. هرگز دادههای حساسی مانند اطلاعات بانکی، پروژههای کاری یا حتی برخی اطلاعات حساس دستگاه که میتواند به حسابهای شما مرتبط شود را بهاشتراک نگذارید. سیاست حریمخصوصی ChatGPT اعلام میکند که اطلاعاتی نظیر اطلاعات حساب کاربری، محتوای کاربر (متن ورودی شما بهعنوان پرسش، شامل فایلهای بارگذاریشده) و اطلاعات شخصی که در ارتباطات ارائه میدهید، از جمله ایمیلها، رویدادها و نظرسنجیها، جمعآوری میشود.
تمام اطلاعاتی که فراهم میکنید برای ارتقاء خدمات و آموزش مدل، و برای رعایت تعهدات قانونی و شرایط استفاده بهکار میرود. با این حال، این سیاست حریمخصوصی همچنین بیان میکند که ممکن است دادههای شما را به افراد ثالث، از جمله دولت و وابستگان آن، افشا کند. همچنین باید به یاد داشته باشید که افراد میتوانند دادههای ارائهشده توسط شما را مشاهده کنند مگر اینکه برای مقاصد آموزشی گزینهٔ خروج از اینکار را انتخاب کرده باشید. با این وجود، در مواردی که به دلایل قانونی یا برای بررسی سوءاستفاده ضروری باشد، ممکن است بهطور فنی به برخی از دادهها دسترسی داشته باشند.
شش ماه برای تحول، شش سال تا عادی جدید، میگوید یک مدیر اجرایی مایکروسافت. اگر هوش مصنوعی از نقش کمکی به تصمیمگیری روی بیاورد، کلیدها در دست چه کسی خواهند بود؟

چارلز لامانا، مدیر اجرایی پشت Copilot در مایکروسافت، میگوید موج بعدی هوش مصنوعی تنها کمکی نخواهد بود، بلکه اجرایی خواهد شد. آزمایشها در حوزه مالی، پشتیبانی مشتری، لجستیک و عملیات داخلی قبلاً اجازه دادهاند که عوامل به ابزارها متصل شوند و کار را بهصورت انتها‑به‑انتها انجام دهند، که دستاوردهای اولیه در دادههای IDC و شاخص Work Trends Index 2025 مایکروسافت بازتاب یافتهاند. اگر این شتاب ادامه یابد، توصیف شغلیها و نمودارهای سازمانی گام بعدی خواهند شد، بههمراه امنیت، حاکمیت و Zero Trust که مرزها را تعیین میکنند. در ادامه میخوانید که این تحول از درون چگونه در حال شکلگیری است و در سالهای آینده چه معنایی میتواند داشته باشد.
اگر ابزارهایی که هر روز استفاده میکنیم دیگر فقط به ما کمک نکنند، بلکه بهتنهایی تمام وظایف را انجام دهند، چه میشود؟ بر اساس گفتههای چارلز لامانا، مدیر اجرایی که برنامه Copilot مایکروسافت را هدایت میکند، این تحول در حال وقوع فوری است و نه یک رؤیای دوردست. او پیشبینی میکند که در ۶ ماه آینده این تغییر غیرقابل انکار خواهد شد و تا ۶ سال آینده، بهطور واقعی انقلابی به شمار خواهد آمد.
هوش مصنوعی فراتر از کمک سادهای مانند خلاصهکردن ایمیلها یا سازماندهی دادهها پیش رفته و اکنون بهعنوان عاملهای مستقل عمل میکند. این سیستمها با نظارت انسانی کمینه، در میان ابزارها و پلتفرمها تعامل میکنند. از جهات مختلف، آنها بههمکارانی توانمند تبدیل شدهاند. اما این تحول در کسبوکارهای واقعی امروز چگونه بهکار گرفته میشود؟
تکامل هوش مصنوعی در مایکروسافت نشان میدهد فناوری به کجا میرود. در ابتدا، ابزارهایی مانند Copilot برای کاهش کارهای تکراری طراحی شدند؛ شامل نوشتن پیشنویس اسناد، پاسخ به پرسشهای اولیه مشتریان و تحلیل گزارشها. امروزه این قابلیتها به سرعت در حال گسترشاند. سیستمهای هوش مصنوعی میتوانند بهصورت خودکار فاکتورهای مالی را پردازش کنند، زنجیره تأمین در حوزه لجستیک را بهینهسازی نمایند و مشکلات پیچیده پشتیبانی مشتری را از ابتدا تا انتها حل نمایند.
این پیشرفت در چندین بخش مختلف مشهود است. بهعنوان مثال، حوزههای بهداشت و درمان، خردهفروشی و آموزش در حال پذیرش هوش مصنوعی برای رفع گلوگاههای عملیاتی هستند. بر اساس یک مطالعه توسط IDC، شرکتهایی که به هوش مصنوعی روی میآورند، بهرهوری و خلاقیت قابلتوجهی را تجربه میکنند. این گام تنها مختص غولهای فناوری نیست؛ بهتدریج برای سازمانهای با مقیاسهای مختلف در دسترس میشود.
آمارها تأثیر روزافزون هوش مصنوعی را نشان میدهند. شاخص Work Trends Index 2025 مایکروسافت گزارش کرد که اکثریت رهبران کسبوکار انتظار دارند هوش مصنوعی در عرض دو سال، روشهای کاری را بهطرز اساسی تغییر دهد. علاوه بر این، مطالعه IDC نشان داد که شرکتهای فعال در پذیرش هوش مصنوعی، نوآوری سریعتری را تجربه میکنند و هزینهها را کاهش میدهند؛ بهطوری که مسیر رهبری در صنعت را ترسیم میکنند.
پشت این اعداد سؤال اصلیای نهفته است: کسبوکارها چگونه برای این تحول سریع آماده میشوند؟
لامانا این لحظه را به انقلابهای صنعتی گذشته مقایسه میکند، زمانی که فناوریهای نوین ساختار کار را دگرگون کردند. با خودکارسازی فرایندهای سطح بالا، هوش مصنوعی فرصتهای شغلیای ایجاد خواهد کرد که هنوز وجود ندارند؛ از «مسئولان اخلاق هوش مصنوعی» تا «متخصصان اتوماسیون». با این حال، این تحول چالشهای خود را بههمراه دارد.
همانطور که سیستمهای هوش مصنوعی وظایف خودمختار بیشتری بر عهده میگیرند، شرکتها باید بهصورت مستقیم به موضوع اعتماد بپردازند. مایکروسافت بر اصول «Zero Trust» تأکید میکند تا امنیت دادهها، حاکمیت و استفاده اخلاقی از ابزارهای هوش مصنوعی تضمین شود. در صورت عدم وجود چنین چارچوبهایی، وعدهٔ آیندهٔ هوش مصنوعی میتواند تحتتأثیر ریسکها قرار گیرد. تعادل میان تسهیل پیشرفت و حفظ پاسخگویی، تعیینکننده سرعت و کارآمدی این تغییر خواهد بود.
شاید شش سال زمان کوتاهی به نظر برسد، اما در فناوری میتواند کل صنایع را دگرگون کند. برای سازمانهایی مثل مایکروسافت، نقشهٔ راه در دسترس است: هوش مصنوعی سریعتر، هوشمندتر و هوش مصنوعی قابل اعتماد که در هر لایهٔ کار تعبیه شده است. برای شرکتهایی که دقیقاً نظاره میکنند، آنهایی که سازگار شوند در خط مقدم موج بعدی نوآوری قرار خواهند گرفت. دیگر سؤال این نیست که آیا این تحول خواهد بود، بلکه این است که هر سازمان چهسریع میتواند حرکت کند.
در یکی از مهمترین اقدامات نظارتی تا به امروز برای آیندهٔ جستجو، کمیسیون اروپا رسماً تحقیق ضدانحصاری علیه گوگل را آغاز کرده است.
در مرکز شکایت، استفادهٔ گوگل از محتوای ناشران برای آموزش و توانمندسازی نمایشهای هوش مصنوعی و سایر ویژگیهای هوش مصنوعی مولد است – که ممکن است ترافیک را از منابع اصلی منحرف کند.
برای هر کسی که در سئو، استراتژی محتوا یا دیده شدن برند فعالیت میکند، پیامدها فوراً احساس میشود.
آیا گوگل با استفادهٔ مجدد از محتوای ناشران برای تولید پاسخهای هوش مصنوعی از مرز عبور میکند، یا این صرفاً هزینهٔ مشارکت در وبی باز و قابل خزنده است؟
با مداخلهٔ تنظیمکنندگان، صنعت مجبور میشود نحوهٔ استفاده، مدیریت و ارزشگذاری محتوای قابل خواندن توسط ماشین را بازنگری کند – و هزینهای که برای برندها، ناشران و آژانسها در صورت عدم همگامی قوانین با نوآوری پیش میآید.
در اینجا آنچه در حال رخ دادن است، چرا مهم است و چگونه صنعت در حال پاسخگویی است را میتوانید ببینید.
این اقدام اتحادیه اروپا در میان موج روزافزون دعاوی قضائی و منازعات سیاستی دربارهٔ دادههای آموزشی هوش مصنوعی رخ میدهد؛ از موارد برجستهٔ دعاوی ناشران علیه OpenAI و دیگران تا دعوی جدید ضدانحصاری پنسکه مدیا در برابر محصولات هوش مصنوعی گوگل.
ناشران بهطور فزایندهای روش گوگل را بهعنوان یک انتخاب اجباری توصیف میکنند: پذیرش استفادهٔ بدون مجوز از محتوای خود برای آموزش و پاسخهای هوش مصنوعی، یا در معرض خطر از دست دادن ترافیک جستجوی حیاتی.
همزمان، کنترلهای فنی مانند دستورات robots.txt، Google-Extended و متاهای نوظهور noai و nopreview نشان میدهند صنعتی که میخواهد کنترل وبی را که هرگز برای آموزش مدلهای زبانی بزرگ طراحی نشده است، باز پس گیرد.
منزلهٔ اختلاف این است که آیا آموزش هوش مصنوعی و تولید پاسخها گسترشی از ایندکسگذاری سنتی و ایجاد اسنیپتها هستند یا استفادهای متمایز که نیازمند مجوز، اعتباردهی یا هر دو است.
مطالعهٔ عمیقتر: استانداردهای وب جدید میتوانند نحوهٔ استفادهٔ مدلهای هوش مصنوعی از محتوای شما را بازتعریف کنند
با گزارشکردن ناشران از کاهش ترافیک بین ۲۰–۵۰٪ در پرسوجوهای اطلاعاتی، این شکایت — که توسط ائتلافی از ناشران خبری و تخصصی اروپایی رهبری میشود — سه رویه را هدف قرار میدهد:
از تنظیمکنندگان خواسته شده است تا سه سؤال اصلی را بررسی کنند:
برای جامعهٔ سئو، این بررسی میتواند نقطهٔ شروعی برای عصر پسکلیک باشد، جایی که رقابت برای دیده شدن از نتایج صفحات به پنجرهٔ زمینهٔ مدلهای زبانی منتقل میشود.
سؤال باز این است که آیا گوگل برای این تغییر آماده است.
تجربهٔ جستجوی بدون کلیک اغلب مورد بحث قرار میگیرد، اما برای اینکه برای همه طرفها کارساز باشد، باید سه شرط برآورده شود:
در حال حاضر، گوگل بهنظر میرسد مشتاق حرکت به سمت تجربهٔ کامل بدون کلیک است، اما هنوز توانایی پشتیبانی جامع از آن را ندارد:
در دفاع خود از بازبکارگذاری محتوا، گوگل به مکانیسمهای خروج مانند Google-Extended در robots.txt اشاره میکند.
اگرچه Google-Extended میتواند آموزش Gemini را مسدود کند، از استخراج دادههای زنده توسط پاسخهای هوش مصنوعی از وبسایتهای ناشران جلوگیری نمیکند.
در عمل، مسدود کردن آموزش مدلهای زبانی بزرگ (LLM) محدودیتهای متعددی دارد:
بسیاری از ناشران میخواهند از خزیدن یا استفاده از محتوای خود در پاسخهای هوش مصنوعی خروج کنند.
اما اگر پاسخهای هوش مصنوعی به رابط پیشفرض تبدیل شوند، همانطور که جستجو به سمت تجربهٔ بدون کلیک پیش میرود، تکیه صرف بر ترافیک مستقیم یا ارگانیک بهتدریج مخاطرهآمیز میشود.
در عمل، این یک دینامیک باخت‑باخت ایجاد میکند.
مسدود کردن استفاده میتواند مالکیت فکری را محافظت کند اما دید را کاهش دهد، در حالیکه باز ماندن حضور را حفظ میکند ولی هزینهٔ آن از دست دادن کنترل است.
بدون داشتن حمایتهای قانونی، ناشران بهطور عمده مجبورند در چارچوب سیستم فعلی فعالیت کنند.
مطالعهٔ عمیقتر: چگونگی مختل شدن درآمد ناشران و تبلیغات توسط پاسخهای هوش مصنوعی
از آنجا که وبسایتها وجود دارند، ما تمایل داریم فرض کنیم که تحت کنترل ما هستند.
اما بدون موتورهای جستجو، دسترسی آنها محدود میشود.
این تنش در قلب مباحثی قرار دارد که نظرات سئو را به دو قطب تقسیم کرده است.
از یک سو، جناح «گوگل بدهکار شما نیست» وجود دارد.
از سوی دیگر، دیدگاه «این محتوای آنها نیست» وجود دارد.
این مناظره روزانه در شبکههای اجتماعی، بحثهای ردیت و گفتگوهای کوئرا مطرح میشود.
برخی به بهینهسازی موتور مولد (GEO) بهعنوان مسیر بقا اشاره میکنند؛ جایی که نقلقول شدن در پاسخهای هوش مصنوعی جایگزین رتبهبندیهای سنتی میشود.
اما این رویکرد همچنان ناشران را به تصمیمات گوگل در خصوص لینکگذاری و انتخاب کاربران برای کلیککردن وابسته میگذارد.
در عمل، هر دو طرف استدلالهای معتبری دارند.
با این حال، جهت کلی بهنظر واضح است.
حتی اگر گوگل با جریمههای این تحقیق مواجه شود، جستجو بهاحتمال زیاد به مدل صرفاً لینکهای آبی بازنخواهد گشت.
انتقال به سمت تجربهٔ بدون کلیک هماکنون در حال وقوع است.
قبل از بررسی نتایج احتمالی شکایت و معنای آن برای سئوها، شایسته است پیامدهای آن برای خود اطلاعات را در نظر بگیریم.
همانطور که خالقان احساس میکنند کارشان بدون کسب اجازه یا پاداش دوباره استفاده میشود، انگیزهٔ تولید محتوای اصلی و با کیفیت بالا کاهش مییابد.
در همان زمان، حجم محتوای تولیدشده توسط هوش مصنوعی که با حداقل مشارکت انسانی ایجاد میشود، همچنان در حال رشد است. این روند حاشیهای نیست.
اکنون وبسایتهای کاملی وجود دارند که هزاران صفحهشان تقریباً بهصورت کامل توسط سامانههای مولد تولید میشود.
بخش بزرگی از این مطالب از متنهای موجود استخراج شدهاند که بازنگری، ترکیب یا بهصورت جزئی تغییر یافتهاند و اغلب شامل توهمات یا نادقیقبودنهای گاه و بیگاه است.
آن محتوا، به نوبه خود، به پاسخهای هوش مصنوعی جدید و مطالب تولیدشده توسط هوش مصنوعی دیگر تغذیه میکند و چرخهای از بازاستفاده محتوا، گسترش خطاها و کاهش کیفیت اطلاعاتی به دلیل کمبود ورودیهای اصلاً جدید ایجاد میکند.
از این منظر، مناظرهٔ دربارهٔ آموزش هوش مصنوعی و حقوق محتوا فقط دربارهٔ ترافیک یا درآمد نیست.
این موضوع همچنین سؤالات اساسی دربارهٔ چگونگی حفظ خلق دانش اصیل در وب را مطرح میکند – و چرا محافظت از ناشران برای جلوگیری از تخریب طولانیمدت کیفیت اطلاعات ضروری است.
سالها، قرارداد بین گوگل و ناشران ساده بود: «من به شما اجازه میدهم خزیدن کنید، شما به من کلیک میدهید.»
هوش مصنوعی مولد آن قرارداد را شکسته است.
اگر اتحادیه اروپا عملیهای گوگل را مخالف قوانین رقابتی تشخیص دهد، میتوانیم سه تغییر عمده در چشمانداز جستجو مشاهده کنیم:
اگرچه این داستان عمدتاً دربارهٔ هوش مصنوعی، حقوق محتوا و سئو است، تبلیغات همچنان بزرگترین عامل در صفحه نتایج جستجو (SERP) باقی ماندهاند.
همزمان که فضای ارگانیک بیشتری توسط خلاصههای تولیدشده توسط هوش مصنوعی و چتهای کمکی مصرف میشود، آخرین ابزار پیشبینیپذیر برای دیده شدن، تبلیغات پولی باقی میماند.
حتی اگر اتحادیه اروپا گوگل را مجبور به محدود کردن پاسخهای هوش مصنوعی یا بهبود ارجاع کند، فضای کلی باقیمانده برای لینکهای آبی سنتی بهاحتمال زیاد بهطور چشمگیری گسترش نخواهد یافت.
فضای در دسترس به استفاده از محصولات درآمدزأ گوگل ادامه خواهد داد.
اگر خلاصههای هوش مصنوعی در بالای صفحه تسلط پیدا کنند و لینکهای ارگانیک بهسوی پایینتر رانده شوند، هزینههای کلیک (CPC) احتمالاً افزایش خواهد یافت، چه درون پاسخهای هوش مصنوعی و چه خارج از آن.
تبلیغکنندگان برای مکانهای کلیکپذیر باقیمانده بهصورت پرتحرکتری رقابت خواهند کرد.
صرفنظر از نحوهٔ پیشرفت آیندهٔ هوش مصنوعی برای گوگل، جهتگیری واضح است: هزینهٔ دیده شدن در حال افزایش است.
حتی پیش از هر تصمیم رسمی اتحادیه اروپا، تیمهای پیشرو در حال تغییر از «رتبهبندی برای کلیدواژه» به «پاسخدهی بهعنوان موجودیت اصلی در هر جایی که مدل نگاه میکند» هستند.
این شامل موارد زیر است:
همانطور که چارچوبهای قانونی و فنی تکامل مییابند، چالش استراتژیک این است که بهصورت قابلخواندن برای ماشین و آگاه از حقوق بمانیم، کنترل استفاده از محتوا را اعمال کنیم و در عین حال برند در هر جایی که پاسخهای هوش مصنوعی بیشترین اعتماد را دارد، حضور داشته باشد.
مطالعهٔ عمیقتر: چگونگی ساخت یک استراتژی محتوا مؤثر برای سال ۲۰۲۶