ویژگی جدید کیندل با هوش مصنوعی برای پاسخ به سؤالات درباره کتابها—و نویسندگان نمیتوانند از آن خارج شوند
ویژگی جدیدی به نام «از این کتاب بپرس» هماکنون باعث جنجال و سؤالات بیپاسخ شده است.
توسط مالی تمپلتون
عکس: تاتسوئو یاماشیتا از ویکیمدیا کامنز
در حال حاضر، موارد متعددی وجود دارد که نویسندگان بهدلیل استخراج آثارشان توسط شرکتهای هوش مصنوعی بدون پرداخت یا کسب اجازه، علیه این شرکتها اقدام به شکایت کردهاند. در حالی که این جنگهای حقوقی ادامه دارد، آمازون بهصورت کمصدا ویژگی جدید هوش مصنوعی را به برنامه Kindle برای iOS اضافه کرده است — ویژگیای که «به شما اجازه میدهد درباره کتابی که میخوانید سؤال کنید و پاسخهای بدون فاشکننده (اسپویل) دریافت کنید»، همانگونه که در بیانیهای از آمازون آمده است.
شرکت میگوید این ویژگی، که با نام «از این کتاب بپرس» شناخته میشود، بهعنوان «دستیار خبرهٔ خواندن شما، که بهسرعت به سؤالهای مربوط به جزئیات طرح، روابط شخصیتها و عناصر موضوعی پاسخ میدهد بدون اینکه جریان خواندن شما را مختل کند»، عمل میکند.
منبع صنعت نشر Publishers Lunch این هفته به «از این کتاب بپرس» اشاره کرده و از آمازون در مورد آن سؤال کرد. سخنگوی آمازون، الِی ایرهتا، به PubLunch گفت: «این ویژگی از فناوری، شامل هوش مصنوعی، بهره میگیرد تا پاسخهای فوری و بدون فاش (اسپویل) به سؤالهای مشتریان دربارهٔ آنچه میخوانند، ارائه دهد. «از این کتاب بپرس» پاسخهای کوتاهی بر پایهٔ اطلاعات واقعی دربارهٔ کتاب فراهم میکند که فقط برای خوانندگانی که کتاب را خریداری یا امانت گرفتهاند در دسترس است و غیرقابلبهاشتراکگذاری و غیرقابلکپی میباشد.»
همانطور که PubLunch جمعبندی کرد: «به عبارت دیگر، این یک چتبات داخل کتاب است».
آمازون به سؤالات PubLunch در مورد «چه حقوقی شرکت برای اجرای این ویژگی جدید به آن تکیه میکند» پاسخی نداد و همچنین جزئیات فنی سرویس و تمام محافظتهای مرتبط (از جمله پیشگیری از توهمات هوش مصنوعی یا محافظت از متن در مقابل آموزش هوش مصنوعی) را روشن نکرد.
بهویژه نگرانکنندهتر، سخنگوی آمازون بیان کرد: «برای تضمین تجربهٔ خواندن یکنواخت، این ویژگی همیشه فعال است و هیچ گزینهای برای اینکه نویسندگان یا ناشران عناوین خود را از این ویژگی حذف کنند، وجود ندارد».
به نظر میرسد نویسندگان و ناشران برای بخش عمدهای از موارد از وجود این ویژگی مطلع نشدهاند.
آمازون این هفته بهخاطر خلاصهپردازیهای ناقص هوش مصنوعی از برنامههای تلویزیونی، در خبرها ظاهر شد. پس از اینکه خلاصهٔ Fallout بهعنوان «زباله پر از اشتباه» توسط io9 توصیف شد، شرکت این ویژگی را متوقف کرد. مشابه این اتفاق در اوایل امسال نیز با دوبلههای هوش مصنوعی آمازون برای سریالهای انیمه رخ داد.
بهگفتهٔ PubLunch دربارهٔ «از این کتاب بپرس»، «بسیاری از دارندگان حقوق و خالقان احتمالاً تمایلی به داشتن یک چتبات داخل کتاب بدون بررسی و تأیید خاص خود (یا حتی بدون آن) ندارند و انتظار داریم این پیام در روزهای آتی بهوضوح به ناشران و آمازون منتقل شود. بسیاری از افراد خروجیهای هوش مصنوعی تولیدی که یک اثر دارای حق نشر خاص را تحلیل میکند، به عنوان تجسیم واضح یک اثر مشتق (یا صرفاً نقض مستقیم) میدانند.»
«از این کتاب بپرس» در حال حاضر فقط در برنامه Kindle برای iOS در ایالات متحده در دسترس است، اما آمازون اعلام کرده که «سال آینده به دستگاههای Kindle و سیستمعامل اندروید اضافه خواهد شد».
دربارهٔ نویسنده
مالی تمپلتون
نویسنده
مالی تمپلتون پیش از این کتابفروش، سردبیر هفتگی آلتی، و دستیار مدیر اجرایی Tor.com بوده است. او اکنون در اوریگان زندگی و مینویسد و تا حد امکان زمان خود را در جنگل میگذراند. برای اطلاعات بیشتر درباره مالی
رئیسجمهور دونالد ترامپ در طول جشن کنگره در کاخ سفید روز پنجشنبه سخنرانی میکرد. Alex Wong/Getty Images
سازمان غذا و داروی آمریکا (FDA) قصد دارد هشدار «جعبهسیاه» را بر روی واکسنهای کووید‑۱۹ اعمال کند، به گفتهٔ منابع به CNN. هشدار جعبهسیاه، جدیترین هشدار این نهاد است و برای هشداردهی به خطرات دارویی به کار میرود.
در ادامه، نکات دیگری که برای بهروز شدن و ادامه روزتان لازم است، آورده شده است.
1️⃣ بهداشت و درمان
رئیسجمهور دونالد ترامپ در جشن کنگره در کاخ سفید روز پنجشنبه، پیشنهاد شگفتآوری برای همکاری دوجانبهٔ حزبی مطرح کرد و گفت که معتقد است دموکراتها و جمهوریخواهان بهزودی در حوزه بهداشت و درمان با یکدیگر همکاری خواهند کرد. دولت پس از آنکه مجلس سنا پیشنهادهای متقابل دو حزب را رد کرد، اکنون یک رویکرد جدید در زمینه بهداشت و درمان را وعده میدهد. این بنبست قانونگذاری در حالی رخ میدهد که میلیونها آمریکایی ممکن است در ژانویه با پرداختهای ماهیانهٔ بالاتر مواجه شوند، اگر حمایتهای بهبود یافتهٔ «اوباماکر» منقضی شوند. کارولین لیویِت، سخنگوی بیتسفید، گفت که جزئیات این طرح «بهزودی» منتشر خواهد شد.
2️⃣ نبردهای تجدید تقسیم حوزهها
جمهوریخواهان ایندیانا در مقابل کمپین فشار رئیسجمهور ترامپ برای بازنگری نقشههای کنگرهای ایالت، پیش از انتخابات میاندورهای سال آینده ایستادگی کردند. در روز پنجشنبه، ۲۱ جمهوریخواه به همراه ۱۰ دموکرات برای رد نقشهٔ پیشنهادی رأی دادند؛ نقشهای که میتوانست جمهوریخواهان را در همهٔ نه کرسی نمایندگان ایالت بهدست آورد و بهاحتمال کمک کند تا حزب کنترل مجلس را حفظ کند. چندین نماینده که از رأیدادن به این نقشه خودداری کردند، استدلال کردند که رایدهندگان آنان با تجدید تقسیم حوزهها مخالفند. ترامپ گفت امیدوار است جمهوریخواسانی که رأی خود را علیه بازطراحی نقشه ابراز کردند، با چالشهای مقدماتی از سوی حامیان وفادار مگا مواجه شوند.
3️⃣ سیلهای واشنگتن
سیلهای تاریخی در واشنگتن منجر به تخلیههای گسترده و عملیات نجات در آب شد. چندین رودخانه در بخش غربی ایالت سرریز شدند و شهرها را با آبهای سیلابی سریعالسیر غمر کردند. در سوماتس، دهها نفر نجات یافتند؛ سطح آب در روز پنجشنبه به ارتفاع ۱۵ فوت (حدود ۴٫۵ متر) رسید. برآورد مقامات نشان میدهد حدود ۱۰۰٬۰۰۰ ساکن در سراسر ایالت ممکن است با تهدیدهای فزایندهٔ سیلاب، احتمال تخلیه را داشته باشند. بسیاری از این افراد در شهرستان اسکاگیّت ساکن هستند، جایی که کل ناحیهٔ سیلابی صدیساله دستور تخلیه دریافت کرده است. هواشناسان میگویند که یک «رودخانهٔ جوی» جدید در هفتهٔ آینده میتواند بارانهای بیشتری به نواحی که پیشتر توسط سیلابها ویران شدهاند، بباراند.
4️⃣ مهاجرت
قاضی فدرال روز پنجشنبه، آزادی فوری کیلمار آبرگو گارسیا را از بازداشت ICE حکم داد. این مرد سالوادورایی بهاشتباه در اوایل سال جاری اخراج شد که منجر به یک نبرد حقوقی پیچیده شد؛ این نبرد شامل درگیریهای پرتنش بین قاضی و وزارت دادگستری بود. پروندهٔ او به نماد سرکوب مهاجرتی دولت ترامپ تبدیل شده و موضع تهاجمی این دولت برای اخراج مهاجران بهسوی کشورهای دوردست را نشان میدهد. آزادی او پس از آن رخ داد که دولت در هفتههای اخیر با مشکل یافتن کشوری که مایل به پذیرش سریع او باشد، مواجه شد.
5️⃣ هوش مصنوعی
رئیسجمهور ترامپ روز پنجشنبه یک فرمان اجرایی امضا کرد که ایالتها را از اجرای قوانین جداگانهٔ هوش مصنوعی باز میدارد و بهجای آن هدف ایجاد «چارچوب ملی یکپارچه» برای هوش مصنوعی را دنبال میکند. رهبران سیلیکون ولی، از جمله سِم آلتمن، مدیرعامل OpenAI، استدلال میکنند که پخشپذیری قوانین ایالتی میتواند نوآوری را کاهش دهد و رقابتپذیری آمریکا را در مسابقهٔ جهانی هوش مصنوعی مقابل چین تضعیف کند؛ این امر میتواند پیامدهای اقتصادی و امنیتی جدی داشته باشد. منتقدان با این حال نگرانند که این حرکت به سمت حذفتنظیمات، به شرکتهای هوش مصنوعی اجازه دهد تا در صورت آسیبرسانی به مصرفکنندگان، از مسئولیتپذیری فرار کنند.
دریافت “۵ نکته” در صندوق ورودی شما
اگر روز شما تا وقتی که با جدیدترین عناوین خبر بهروز نشده آغاز نمیشود، اجازه دهید منبع صبحگاهی مورد علاقهتان را به شما معرفی کنیم. برای دریافت خبرنامه «۵ نکته» اینجا ثبتنام کنید.
مرور صبحانه
ویدئو: نجات خوششانس آسماننورد
چتر یک آسماننورد استرالیایی در ارتفاع ۱۵٬۰۰۰ فوت در هوا به دمبال یک هواپیما گیر کرد. ببینید چگونه از یک فاجعه بهنزدیکترین حالت جلوگیری شد.
ترامپ قواعد سکههای آمریکا را بازنویسی میکند
کشتن پنی تنها آغاز بود. تغییرات اساسی بیشتری در سکههای آمریکا در سال آینده در راه است.
مغول کریپتو به ۱۵ سال زندان محکوم شد
مغول سابق ارزهای دیجیتال دو کوون بهدلیل طرح تقلبی بهارزش ۴۰ میلیارد دلار، به ۱۵ سال حبس محکوم شد.
مدیرعامل لولولهمون استعفا میدهد
شرکت لولولهمون آثلتیكا اعلام کرد که مدیرعامل آن، کالوین مکدونالد، بهدلیل مواجهه با محیط مصرفکنندهٔ دشوار، از سمت خود استعفا میدهد.
قطعی برق در برزیل
صدها پرواز در روز پنجشنبه پس از وقوع قطعی برق در برزیل که بیش از ۱٫۴ میلیون نفر را بدون برق رها کرد، لغو شدند.
زمان پرسش
کدام کشور اخیراً استفادهٔ نوجوانان جوان از شبکههای اجتماعی را ممنوع کرده است؟ A. کانادا B. استرالیا C. روسیه D. هند
مرا به آزمون ببر!
آب هوا
🌤️ پیشبینی هوای محلی خود را بررسی کنید تا ببینید چه انتظاری میتوانید داشته باشید.
و در نهایت…
اینجا میتوانید ببینید هنگام که یک پیمانگر تنها در گلخاک گیر کرد، چه اتفاقی رخ داد. ۰:۳۸ – منبع: CNN
▶️ نجات از گلخاک
یک پیمانگر باتجربه هنگام کوهپیمایی در پارک ملی آرچس یوتا، به گلخاک فرو رفت. لحظهای که او نجات یافت را ببینید.
نسخهٔ امروز برنامه «۵ نکته» صبحگاهی توسط اندرو تورگان از سیانان ویرایش و تولید شد.
سؤال: من ایمیلهای کلاهبرداری دریافت میکنم که به راحتی میتوانم حذفشان کنم، چون کارت اعتباری که شرکتش فرضاً میخواهد با من تماس بگیرد، در دسترس من نیست. اما یک ایمیل ادعایی از کارت اعتباریام دریافت کردم و آن را باز کردم. واو! ظاهرش بینقص بود؛ دقیقاً همان لوگو و فونتٔ فاکتورم. با این حال روی لینک کلیک نکردم. چون کارتام در دسترس نبود، نام شرکت را در گوگل جستجو کردم و وبسایتی که پیدا شد، کاملاً درست به نظر میرسید. خلاصه ماجرا این است که این سایت تقلبی بود! … لطفاً به مردم یادآوری کنید که فقط به وبسایتی که روی کارت یا فاکتور واقعیشان درج شده مراجعه کنند یا با شماره تلفن آن تماس بگیرند.
پاسخ: طبق گزارش افبیآی، تقلب انواع دست‑به‑دستگیری حساب (Account takeover) در حال افزایش است، از جمله نوعی که شما را تحت تأثیر قرار میدهد — ایمیل فیشینگ و سمزدن سئو. سمزدن سئو به این معناست که جرایم سایبری تبلیغات آنلاین را خریداری میکنند و بهعنوان کسبوکارهای واقعی تظاهر میکنند تا سایتهای فیشینگ خود را تقویت کنند و مشتریانی که از موتور جستجو برای یافتن وبسایت یک شرکت استفاده میکنند فریب دهند. افبیآی در اخطاریهای که ماه گذشته منتشر کرد گفت: «زمانی که کاربران روی تبلیغ تقلبی موتور جستجو کلیک میکنند، به یک سایت فیشینگ پیشرفته هدایت میشوند که وبسایت واقعی را شبیهسازی میکند و کاربران را به ارائه اطلاعات ورودشان فریب میدهد.» نکات این آژانس برای جلوگیری از تقلب دست‑به‑دستگیری حساب شامل موارد زیر است:
>> هنگام به اشتراکگذاری اطلاعات شخصی در اینترنت یا شبکههای اجتماعی احتیاط کنید. با آشکارا گذاشتن نام حیوان خانگیتان، مدارس پیشینتان، تاریخ تولد یا جزئیات دربارهٔ اعضای خانواده، ممکن است به کلاهبرداران کمک کنید تا رمز عبور یا پاسخ به سوالات امنیتیتان را حدس بزنند.
>> بهطور منظم حسابهای مالی خود را بررسی کنید، حتی آنهایی که بهندرت استفاده میکنید، و تمام ویژگیهای امنیتی را فعال کنید. هرگونه ناهماهنگی را فوراً گزارش دهید.
>> از رمزهای عبور منحصر به فرد و پیچیده استفاده کنید. احراز هویت چندعاملی (MFA) را در هر حسابی که امکانپذیر است فعال کنید. افبیآی میگوید: «هرگز آن را غیرفعال نکنید.»
>> برای دسترسی به سایتهای ورود، از بوکمارک یا فهرست علاقهمندیها استفاده کنید. یا همانطور که خواننده اشاره کرد، وبسایت را در صورتحساب یا کارت اعتباری خود بررسی کنید. افبیآی میگوید: «از کلیک روی نتایج جستجوی اینترنتی یا تبلیغات خودداری کنید. احراز هویت چندعاملی (MFA) در صورتی که به صفحه ورود تقلبی برسید، شما را محافظت نمیکند.»
>> نسبت به هر تماس یا ایمیل ناخواستهای که بهدنبال دریافت اطلاعات مالی یا شخصی میگردد، محتاط باشید؛ شناسه تماس (Caller ID) را اعتماد نکنید. شرکتهای معتبر معمولاً برای درخواست نام کاربری، رمز عبور یا رمز یکبار مصرف با شما تماس نمیگیرند. اگر اعتقاد دارید که تماس واقعی است، از طریق روشی که خودتان تأیید کردهاید با شرکت تماس بگیرید و نه با استفاده از شماره تلفن، آدرس ایمیل یا پرتال آنلاین ارائهشده توسط کلاهبردار.
برای دریافت نکات بیشتر از افبیآی، از جملهٔ راهنماییهای مربوط به اقدام پس از حملهٔ دست‑به‑دستگیری حساب (ATO)، به مرکز شکایت جرایم اینترنتی (Internet Crime Complaint Center) به آدرس ic3.gov/ مراجعه کنید.
هوش مصنوعی جرم سایبری را شتاب داده است، اما برخی چیزها هرگز تغییر نمیکنند: کلاهبردارها اغلب حس اضطراری کاذبی ایجاد میکنند — پس لحظهای توقف کنید و فکر کنید — و پیشنهادی که بیش از حد خوب به نظر میرسد، احتمالاً تقلب است.
انجمن پیشگیری از تقلب
کلاهبردارها در تمام طول سال فعال هستند، اما مصرفکنندگان در فصل شلوغ تعطیلات ممکن است بیشتر تحت تأثیر قرار گیرند. AARP Hawai‘i یک نشست تلفنی (town hall) را شنبه صبح برگزار میکند تا به مردم در جلوگیری از جدیدترین تقلبهای تعطیلاتی کمک کند؛ مانا موریارتی، مدیر اجرایی دفتر حمایت از مصرفکنندگان هوآی، و جنی یوکیموتو از اتحادیه اعتباری فدرال ایالات متحده هوآی، در خط تماس برای پاسخ به سوالات حضور دارند، طبق یک اطلاعیه خبری. «اگر پیش از این در یک نشست تلفنی AARP شرکت کردهاید، در روز 13 دسامبر ساعت 9 صبح یک تماس به تلفن ثابتتان میرسد تا بپرسد آیا میخواهید در تماس شرکت کنید. دیگران میتوانند با شماره 866‑654‑9490 بدون هزینه تماس بگیرند»، این اطلاعیه میگوید. یا میتوانید در صفحه فیسبوک AARP Hawaii دنبال کنید و سوالات خود را در نظرات بپرسید. این انجمن برای افراد تمامی سنین باز است و نیازی به عضویت در AARP ندارید.
تشکر
یک تشکر دیرهنگام به آنجل داگلاس که در یافتن خودرویم در Costco هوآی کای به من کمک کرد. آن روز پارکینگ شلوغ بود و در ناحیهای که معمولاً پارک میکنم هیچ جای خالی نیافتم؛ بنابراين به اطراف مناطق دیگر گشتم. وقتی از Costco بیرون آمدم، نتوانستم به یاد بیاورم خودرو را کجا پارک کردهام. با کلید خود سعی کردم صدای خودرو را بشنوم، اما بینتیجه ماند. داگلاس در حال قرار دادن خرید خود در ماشینش بود و از او پرسیدم آیا میتواند مرا برای یافتن خودرویم بگرداند. او موافقت کرد و بهزودی خودرویم را پیدا کردم. من واقعاً از مهربانی او قدر دانی میکنم. — گییل ی.
به Kokua Line در Honolulu Star‑Advertiser، 500 Ala Moana Blvd., Suite 2‑200, Honolulu, HI 96813 بنویسید؛ با شماره 808‑529‑4773 تماس بگیرید؛ یا ایمیل kokualine@staradvertiser.com را بزنید.
الا پرنِل نقش لوسی را در نمایش پربازدید آمازون بر پایه سری بازی ویدئویی فالآوت ایفا میکند
آمازون ویدئوی خلاصهای که با هوش مصنوعی ساخته شده بود را از سریال موفق خود، فالآوت، حذف کرد، پس از اینکه کاربران اعلام کردند این خلاصه چندین حقیقت دربارهٔ این سریال را نادرست بیان کرده است.
این شرکت در نوامبر گفت که در ایالات متحده ابزار «اولین از نوع خود» را آزمایش میکند تا به بینندگان کمک کند برخی از برنامههای خود را در سرویس پخش آنلاین Prime Video، از جمله فالآوت که اقتباسی از مجموعهٔ محبوب بازیهای ویدئویی است، دنبال کنند.
اما از آن زمان این خلاصه از سایت حذف شده است؛ زیرا کاربران اشتباهات موجود در ویدئوی خلاصهساز رویدادهای فصل اول فالآوت را برجسته کردند، از جمله ادعای اینکه یک صحنه بیش از صد سال پیش از زمان واقعی تنظیم شده بود.
شبکه بیبیسی برای دریافت اظهارنظر از آمازون تماس گرفته است.
اقدامی که بهنظر میرسد آمازون خلاصههای مبتنی بر هوش مصنوعی خود را متوقف کرده است، نخست توسط نشریهٔ فناوری The Verge گزارش شد.
آمازون در نوامبر اعلام کرد که این خلاصهها بهعنوان یک ویژگی آزمایشی برای کاربران در دسترس خواهد بود و فقط «برای برخی سریالهای اصلی انگلیسیزبان Prime در ایالات متحده» قابل استفاده است.
“خلاصههای ویدئویی با هوش مصنوعی نکات کلیدیترین بخشهای داستان را خلاصه میکند و یک ویدئوی با کیفیت تئاتری شامل روایت، دیالوگ و موسیقی ارائه میدهد”، این شرکت گفت.
با این حال، طرفداران مشتاق که انتظار انتشار سری جدید فالآوت را در تاریخ ۱۷ دسامبر داشتند، خطاهای موجود در خلاصهٔ ویدئویی برای سری اول را برجسته کردند.
کاربران در Reddit گفتند که کلیپی که گول — یکی از شخصیتهای مرکزی سری، با بازی والتون گوگینز — را نشان میدهد، بهنادرست در روایت هوش مصنوعی به عنوان یک «یادآوری دههٔ ۱۹۵۰» توصیف شده است.
اگرچه ظاهر این کلیپ حس نوستالژیک دارد، اما در واقع یک صحنه در سال ۲۰۷۷ را نشان میدهد — امری که طرفداران سری به سرعت میفهمند.
طرفداران همچنین بیان کردند که خلاصه بهدرستی صحنهای بین گول و شخصیت اصلی، لوسی مکلین که توسط الا پرنِل بازی میشود، را خلاصه نکرده و دینامیک آنها را بهگونهای تغییر داده است که برای بینندگان جدید گیجکننده باشد.
این مورد به فهرست بلندی از خطاهایی میپیوندد که هنگام استفاده از ابزارهای هوش مصنوعی تولیدی برای تهیه خلاصههای محتوا به وجود میآیند.
در اوایل سال ۲۰۲۵، اپل ویژگی هوش مصنوعی برای خلاصهکردن اعلانها را متوقف کرد، پس از آنکه شکایتهای متعدد دربارهٔ اشتباهات مکرر در خلاصهبرداری عناوین خبری دریافت کرد.
شبکه بیبیسی نیز از جمله گروههای شکایتکننده از این ویژگی بود، پس از آنکه هشداری که توسط هوش مصنوعی اپل تولید شده بود، بهنادرست به برخی خوانندگان اطلاع داد که لوئیجی مانژونه—که در ایالات متحده به قتل مدیرعامل UnitedHealthcare برایان تامپسون متهم شده است—خودکشی کرده است.
«خلاصههای هوش مصنوعی» گوگل که هدفشان ارائهٔ خلاصههای مختصر از نتایج جستجو است، نیز به دلیل خطاها تحت انتقاد و تمسخر قرار گرفته است.
آیا نفرین جلد مجله که بهاینصورت شناخته میشود، دوباره ظاهر میشود؟
آیا «نفرین جلد مجله» اکنون برای تجارت هوش مصنوعی میآید؟ تصویر: جلدهای جایگزین شماره شخص سال مجله تایم. عکس: مجله تایم
در حدود یک ماه گذشته، سهام شرکتهای متمرکز بر رونق هوش مصنوعی، با یک صدای ثابت از ترس، عدماطمینان و تردید مواجه شدهاند. در روز پنجشنبه، سرمایهگذاران مسألهای دیگر برای نگرانی یافتند: احتمال وقوع یک «نفرین جلد مجله».
پیش از زنگ شروع معاملات در والاستریت، مجله تایم انتخاب خود را برای شخص سال اعلام کرد. برای سال ۲۰۲۵، این جایزه را به گروهی از افراد اعطا کرد، همانطور که گاهی انجام میدهد: «معماران هوش مصنوعی».
یک تصویر جلد شامل گروهی از مدیران اجرایی کلیدی هوش مصنوعی بود. نامزدهای این افتخار عبارتند از:
• مارک زاکربرگ، مدیر عامل شرکت Meta Platforms Inc. (META)
• لیسا سو، مدیر عامل شرکت Advanced Micro Devices Inc. (AMD)
• ایلون ماسک، بنیانگذار xAI، بهعلاوه نقشهای او در تسلا و SpaceX و سایر حوزهها
• جنسَن هوانگ، مدیر عامل شرکت Nvidia Corp. (NVDA)
• سم آلتمن، مدیر عامل OpenAI
• دیمیس هاسابیس، مدیر عامل DeepMind، زیرمجموعه Alphabet Inc. (GOOG, GOOGL)
• داریو آمودی، مدیر عامل Anthropic
• فی‑فی لی از مؤسسه هوش مصنوعی استنفورد
نیاز به دانستن: بزوس و ماسک هوش مصنوعی را از طریق فضا هدف میگیرند. این سهامهای زمینی میتوانند سود ببرند.
زمان انتشار این شماره مناسب نبود. سهام Oracle Corp. (ORCL) در روز پنجشنبه تقریباً ۱۱٪ سقوط کرد، پس از آنکه آخرین گزارش سودی آن، سرمایهگذاران را ناامید کرد. سهام سایر شرکتهای هوش مصنوعی به دلیل همدردی نیز به سمت پایین کشیده شد. تا پایان جلسه پنجشنبه، شاخص ترکیبی فناوریمحور Nasdaq (COMP) زیر سطوح رکوردی اکتبر باقی مانده بود، پس از یک فروش گسترده ماه گذشته که باعث شد این شاخص پس از هفت ماه پیروزی متوالی، قطع شود.
ببینید: اوراکل باعث کاهش Nvidia و سایر سهامهای هوش مصنوعی میشود، همانطور که ترس از حباب بهشدت رو به افزایش است.
در همین حین، شاخص صنعتی بلو‑چیپ Dow (DJIA) و شاخص مرجع بازار سهام S&P 500 (SPX) به بالاترین سطوح بسته شدن تاریخ خود دست یافتند.
اکنون برخی افراد در حال فکر کردن به این هستند که آیا زمان فروش سهام این شرکتهای متمرکز بر هوش مصنوعی رسیده است — یا حتی شرطبندی علیه آنها. جیم بیانکو، رئیس Bianco Research، دقیقاً این سؤال را در یک پست در شبکه X مطرح کرد و اشاره کرد که «شخص سال» مجله تایم «سابقهای طولانی در بودن بهعنوان یک شاخص مخالف عالی دارد».
برنت دونلی، رئیس Spectra Markets، اعداد را تجزیه و تحلیل کرد و دریافت که سابقه «شخص سال» بهعنوان یک شاخص مخالف در واقع بسیار شگفتانگیز است. اگرچه تعداد نمونهها کوچک است، اما برآورد دونلی نشان میدهد تا کنون تنها نه مورد (از جمله امسال) وجود داشته که جلد مجله تایم نمایانگر یک فرد، شرکت یا دستهٔ قابل سرمایهگذاری باشد — و این نتیجه بهطور شگفتانگیزی مؤثر بوده است.
بر اساس اطلاعات دونلی، سرمایهگذاریها، چه در شرکتها و چه در روندها، که مرتبط با انتخاب «شخص سال» بودند، یکسال پس از آن تنها در ۱۳٪ موارد رشد نشان دادند. پس از دو سال این رقم به ۲۵٪ رسید.
تنها نمونهای که در سال پس از آن دچار فروش نشد، شرکت اینتل (Intel Corp.) بود؛ مؤسس مشترک و سپس رئیسجمهور آن، اندی گروو، در سال ۱۹۹۷ بهعنوان «شخص سال» انتخاب شد. چند سال پس از آن، سهام اینتل (INTC) در زمان فروپاشی حباب دات‑کام بهشدت سقوط کرد.
دونلی به MarketWatch گفت: «این قطعاً سؤالبرانگیز است». «این یک قطعه دیگر از پازل است که نشان میدهد تم هوش مصنوعی بهعنوان دانش عمومی شناخته شده است و به همین دلیل درک اینکه هنوز میتوان در چیزی مانند موقعیت طولانی در Nvidia، بازده (آلفا) باقیمانده داشته باشد، دشوار است».
او دادههای خود را با MarketWatch به اشتراک گذاشت و در جدول زیر ارائه کرد:
عملکرد سرمایهگذاری پس از اینکه پوشش شخص سال مجله تایم نمایانگر یک رهبر شرکت یا صنعت خاص باشد
سال
شخص سال
شرکت
تغییر قیمت سهام (سال پوشش)
تغییر قیمت سهام (سال پس از پوشش)
تغییر قیمت سهام (۲ سال پس از پوشش)
1928
Walter Chrysler
Chrysler
127.60%
-49.20%
-58.30%
1929
Owen D. Young
RCA
-32.30%
-59.10%
-81.80%
1955
Harlow Curtice
General Motors Co. GM
41.60%
-3.80%
-21.10%
1982
The Computer
IBM Corp. IBM, HP , Apple Inc. AAPL, Texas Instruments TXN., Tandy, Commodore
61.50%
-4.10%
-20.10%
1991
Ted Turner
Turner Broadcasting System Inc.
70.90%
-7.60%
17.80%
1997
Andrew Grove
Intel Corp.
7.00%
68.80%
134.40%
1999
Jeff Bezos
Amazon.com Inc. AMZN
35.20%
-85.80%
-75.20%
2021
Elon Musk
Tesla Inc. TSLA
40.40%
-65.00%
-29.50%
2025
معماران هوش مصنوعی
Nvidia Corp., Tesla, Meta Platforms Inc., Advanced Micro Devices Inc., Alphabet Inc.
?
?
?
متوسط
44.00%
-25.70%
-16.70%
میانه
40.40%
-7.60%
-21.10%
% افزایش
88%
13%
25%
منبع: Spectra Markets
اد یاردنی، رئیس Yardeni Research، به MarketWatch گفت که احساس میکند «نفرین جلد مجله» میتواند دوباره رخ دهد. او اضافه کرد: «قطعا یک نفرین بالقوه است».
بعداً، یاردنی توضیح داد که چرا احساساتش نسبت به سهامهای فناوری بهتازگی تغییر کرده است. او در اوایل این هفته توصیهٔ پرتفوی خود برای وزن‑بالای سهامهای بخش فناوری و خدمات ارتباطی را پس از پانزده سال حذف کرد. این دو بخش بهشدت در معرض هوش مصنوعی هستند.
مدلهای جدید هوش مصنوعی که گوگل ماه گذشته عرضه کرد، بهنظر میرسد باعث بهوجود آمدن تقابل در این تجارت شدهاند؛ بهطوری که سهامهای مرتبط با «تیم گوگل» — شامل شرکت مادرش Alphabet و شریک تجاریاش Broadcom Inc. (AVGO) — بهسرعت صعود کردند، در حالی که سهامهای مرتبط با «تیم OpenAI» با مشکل مواجه شدند. این گروه شامل Nvidia و Microsoft Corp. (MSFT) بود.
یاردنی در توضیحنویسی خود گفت: «تجارت هوش مصنوعی در حال تبدیل شدن به یک «بازی تاج و تخت» است. در گذشته، هفت شگفتانگیز هر کدام قلمروهای خود را داشتند که توسط خندقهای بزرگ احاطه شده بود. هر یک از آنها انحصارهای منحصربهفرد خود را داشتند. اما اکنون در مسابقهٔ هوش مصنوعی، با یکدیگر رقابت میکنند و یکدیگر را تهدید میسازند.»
شاخص پوشش چیست؟
این شاخص توسط تحلیلگر پل مکرِی مانتگومری در خبرنامه «Universal Economics» ابداع شد و بهعنوان «شاخص جلد مجله تایم» — که بهطور کلی به عنوان «شاخص جلد مجله» نیز شناخته میشود — بر این باور است که اگر یک تم سرمایهگذاری محبوب به جلد یک نشریه عمومی مثل مجله تایم برسد، احتمال پایان نزدیک است.
مونتگومری بیش از یک دهه پیش درگذشت و مجلات چاپی سالها برای حفظ مخاطبان خود با مشکل مواجه بودهاند. اگرچه دسترسی به نسخههای اصلی کار او دشوار است، نتایج او توسط افرادی نظیر باری ریثولت، همبنیانگذار Ritholtz Wealth Management، که سالها پیش گفتوگوهای متعددی با مونتگومری داشتهاند، حفظ شده است. ریثولت سه معیار که بهنظر وی برای اعمال این شاخص لازم است را بیان کرد.
اولاً، این شاخص تنها زمانی کار میکند که جلد موردنظر متعلق به یک نشریهٔ عمومی و غیرتجاری باشد. ثانیاً، مفهوم یا تم باید بهطور گسترده در میان عموم شناخته شده باشد. نهایتاً، باید رشد قابلتوجهی در قیمت داراییها رخ داده باشد. حداقل اینها قوانین اصلی بودند که توسط مونتگومری تدوین شده بود.
ریثولت درباره منطق این شاخص اینگونه گفت: تا زمانی که یک روند سرمایهگذاری برای سردبیری یک نشریهٔ عمومی بزرگ مانند مجله تایم اهمیت پیدا میکند، اکثر پولها قبلاً بهدست آمدهاند.
دیگران در والاستریت این ایدهٔ شاخص جلد مجله را پذیرفته و آن را گسترش دادهاند. چند سال پیش، دونلی از Spectra مطالعهٔ جامعی از جلدهای مجلات ارائه کرد تا ببینند آنها بهعنوان سیگنالهای سرمایهگذاری چه عملکردی داشتهاند. او دریافت که جلدهای مجله «اکانومیست» بهویژه شاخصهای مخالف قدرتمندی هستند.
گوگل در روز پنجشنبه نسخهای «بازطراحیشده» از نماینده تحقیقاتی Gemini Deep Research خود را که بر پایه مدل پایهای پیشرفته و پر سر و صدا Gemini 3 Pro ساخته شده است، منتشر کرد.
این نماینده جدید تنها برای تولید گزارشهای تحقیقاتی طراحی نشده است — اگرچه هنوز قادر به انجام این کار است. اکنون به توسعهدهندگان امکان میدهد تا قابلیتهای تحقیقاتی مدل SATA گوگل را در برنامههای خود ادغام کنند. این قابلیت از طریق API جدید Interthings گوگل فراهم میشود که برای دادن کنترل بیشتر به توسعهدهندگان در عصر هوش مصنوعی عاملمحور آینده طراحی شده است.
ابزار جدید Gemini Deep Research یک نماینده است که توانایی ترکیب انبوهی از اطلاعات و پردازش حجم بزرگی از زمینه (context) را در فرمان (prompt) دارد. گوگل میگوید مشتریان از آن برای وظایفی از بررسی دقیق (due diligence) تا تحقیق در زمینه ایمنی سمّیت داروها استفاده میکنند.
گوگل همچنین اعلام کرد که بهزودی این نماینده تحقیق عمیق جدید را در سرویسهایی مانند جستجوی گوگل، گوگل فاینانس، برنامه Gemini و NotebookLM محبوب خود ادغام خواهد کرد. این گامی دیگر به سمت آمادگی برای دنیایی است که در آن انسانها دیگر چیزی را گوگل نمیکنند — بلکه نمایندگان هوش مصنوعی آنها این کار را انجام میدهند.
این غول فناوری میگوید که Deep Research از وضعیت مدل Gemini 3 Pro بهعنوان «دقیقترین» مدل خود بهره میبرد؛ مدلی که برای کاهش توهمات (hallucinations) در وظایف پیچیده آموزش دیده است.
توهمات هوش مصنوعی — جایی که مدل زبان بزرگ (LLM) بهصورت خودسرانه اطلاعاتی را اختراع میکند — مسألهای بهویژه مهم برای وظایف طولانیمدت و استدلالی عمیق عاملمحور است که در آن تصمیمات خودمختار فراوانی در طول دقیقهها، ساعتها یا بیش از آن اتخاذ میشود. هر چه تعداد گزینههای یک LLM بیشتر باشد، احتمال اینکه حتی یک گزینه توهمی کل خروجی را نامعتبر سازد، بیشتر میشود.
برای اثبات ادعاهای پیشرفت خود، گوگل همچنین معیاری دیگر (گویا دنیای هوش مصنوعی به معیار دیگری نیاز دارد) ایجاد کرده است. این معیار جدید با نام بیخلاقیت DeepSearchQA شناخته میشود و برای آزمون نمایندگان در وظایف جستجوی اطلاعاتی چندمرحلهای و پیچیده طراحی شده است. گوگل این معیار را بهصورت منبع باز منتشر کرده است.
همچنین Deep Research را بر روی «آزمون نهایی بشریت» (Humanity’s Last Exam)، یک معیار مستقل با نام جذابتر که شامل مجموعهای از وظایف خاص و نایاب در حوزه دانش عمومی است، و همچنین بر روی BrowserComp، معیاری برای وظایف عاملمحور مبتنی بر مرورگر، آزمایش کرد.
همانطور که میتوانید انتظار داشته باشید، نماینده جدید گوگل در معیار خودش و در آزمون نهایی بشریت برتری پیدا کرد. با این حال، ChatGPT 5 Pro شرکت اوپن ایآی بهصورت شگفتانگیزی دوم نزدیک شد و در مقایسه با گوگل، در BrowserComp کمی پیشی گرفت.
اما این مقایسههای معیار تقریباً به محض انتشار توسط گوگل منسوخ شدند. چون در همان روز، اوپن ایآی نسخه مورد انتظار GPT 5.2 را با نام رمزی «سیر» (Garlic) معرفی کرد. اوپن ایآی میگوید مدل جدیدشان رقبای خود — بهویژه گوگل — را در مجموعهای از معیارهای معمول، از جمله معیار داخلی اوپن ایآی، پیشی میگیرد.
شاید جذابترین بخش این اعلامیه زمانبندی آن بود. با دانستن اینکه جهان منتظر عرضه سیر (Garlic) بود، گوگل خبرهای هوش مصنوعی خود را همزمان اعلام کرد.
رئیسجمهور دونالد ترامپ در حال امضای یک فرمان اجرایی درباره هوش مصنوعی در دفتر بیضی در واشنگتن، دیسی، در تاریخ ۱۱ دسامبر ۲۰۲۵. ال دراگو/رویترز
دونالد ترامپ روز پنجشنبه فرمان اجراییای را امضا کرد که ایالات را از اجرای مقررات خود در زمینه هوش مصنوعی منع میکند و بهجای آن هدف ایجاد یک «چارچوب ملی واحد» برای هوش مصنوعی را دنبال مینماید.
«این یک فرمان اجرایی است که به بخشهای مختلف دولت شما دستور میدهد تا اقدام قاطعی انجام دهند تا تضمین شود هوش مصنوعی در این کشور میتواند در چارچوب ملی واحد فعالیت کند، نه اینکه تحت مقررات ایالتی قرار گیرد که میتواند صنعت را بهطور بالقوه بهسختی بگیرد»، ویل شارف، دستیار کاخ سفید، درباره این فرمان اجرایی در دفتر بیضی گفت.
این فرمان میتواند تأثیرات گستردهای بر تلاشهای آمریکا برای تسلط بر این فناوری نوظهور داشته باشد؛ فناوریای که پیش از این بخش مهمی از اقتصاد و بازار بورس شده است، اما هنوز از بسیاری جهات بهدرستی آزمایش نشده است.
دیوید ساکس، وزیر ارشد رمزارزها و هوش مصنوعی در کاخ سفید، در طول مراسم امضاء گفت که این فرمان اجرایی دولت را وادار میکند تا همراه با کنگره یک «چارچوب فدرالی» برای هوش مصنوعی ایجاد کند.
«در این فاصله، این فرمان اجرایی ابزارهایی به دولت شما میدهد تا در برابر سختگیرانهترین و بیش از حد محدودکنندهترین مقررات ایالتی مقاومت کند»، ساکس گفت. بهطور قابلتوجهی، ساکس تأکید کرد که دولت در مقابل مقررات ایالتی درباره ایمنی کودکان و هوش مصنوعی مقاومت نخواهد کرد. او بعدها در یک پست در شبکههای اجتماعی نوشت که این فرمان اجرایی «به این معنی نیست که دولت قصد دارد هر قانون هوش مصنوعی ایالتی را به چالش بکشد».
کنگره، در ماه ژوئیه، تلاش قبلی جمهوریخواهان برای جلوگیری از تنظیم هوش مصنوعی توسط ایالات را ناکام گذاشت. سنا ایالات متحده بهطور تقریباً همهجانبه رأی داد تا تعلیق ۱۰ سالهای که بر اجرای مقررات هوش مصنوعی ایالتی اعمال شده بود، از لایحه سیاست داخلی جامع ترامپ پیش از تصویب آن حذف شود.
نمایندگان همچنین افزودن تعلیق درباره هوش مصنوعی به قانون مصوب ملی دفاع را رد کردند، علیرغم پیشنهاد ترامپ برای این کار.
رهبران در سیلیکونوالی، مانند سامی آلتمان، مدیرعامل OpenAI، استدلال کردهاند که عبور از قطعهقطعهای مقررات ایالتی میتواند نوآوری را کند کند و رقابتپذیری آمریکا در مسابقه جهانی هوش مصنوعی با چین را تحت تأثیر قرار دهد؛ امری که بهنظر آنها پیوندهای مهمی با اقتصاد و امنیت ملی دارد.
منتقدان نگرانند که فشار برای کاهش مقررات میتواند به شرکتهای هوش مصنوعی این امکان را بدهد که در صورت آسیب به مصرفکنندگان، از مسئولیتپذیری فرار کنند.
هوش مصنوعی در حال حاضر تحت نظارت کلی کمی قرار دارد، در حالی که به حوزههای بیشتری از زندگی آمریکایی گسترش مییابد — از ارتباطات و روابط شخصی تا مراقبتهای بهداشتی و پلیسداری.
در غیاب قانونگذاری فدرال گسترده، برخی ایالات قوانینی تصویب کردهاند تا استفادههای پرخطر و زیانبار هوش مصنوعی، از جمله ایجاد «دیپفیک»های گمراهکننده و تبعیض در استخدام، را مورد رسیدگی قرار دهند.
اما بحث درباره چگونگی تنظیم هوش مصنوعی باعث ایجاد شکافهایی نه تنها در صنعت، بلکه در داخل جنبش محافظهکار و حزب جمهوریخواه شده است.
از یکسو، افرادی مثل ساکس و معاون رئیسجمهور جیدی وانس در دولت حضور دارند که از چارچوب نظارتی سبکتری حمایت میکنند. از سوی دیگر، شخصیتهایی همچون فرماندار فلوریدا رون دسنتیس و استراتژیست پیشین کاخ سفید استیو بانون، که بهصراحت از حمایت از مقررات ایالتی حمایت مینمایند و استدلال میکنند این موانع برای فناوری که بهسرعت در حال پیشرفت است، ضروری هستند.
برد کارسون، رئیس سازمان آمریکاییان برای نوآوری مسئولانه و یکی از رهبران سوپراستیک حمایتگر مقررات هوش مصنوعی Public First، در بیانیهای گفت که این فرمان اجرایی «در دادگاهها به دیوار آجری میخورد».
کارسون افزود که این فرمان «مستقیماً به محافظتهای تصویبشده توسط ایالتها که در طول سال گذشته حمایت عمومی شدیدی برایشان دیدهایم، حمله میکند، بدون اینکه هیچ جایگزینی در سطح فدرال ارائه شود».
در مقابل، کولین مککون، رئیس امور دولتی در شرکت سرمایهگذاری خطرپذیر Andreessen Horowitz، این فرمان را «گامی بسیار مهم و اساسی» توصیف کرد، اما از کنگره خواست تا خلاهای نظارتی را پر کند.
«ایالتها نقش مهمی در رفع ضررها و حفاظت از مردم ایفا میکنند، اما نمیتوانند وضوح بلندمدت یا جهتگیری ملی که تنها کنگره میتواند ارائه دهد، فراهم آورند»، او در پلتفرم X نوشت.
این استارتاپ ۳۰۰ نفره امیدوار است که با جذب طراحان، برتری خود را در بازاری که بهتدریج رقابتی میشود، بهدست آورد.
عکس: گبی جونز؛ Getty Images
کرسر، استارتاپ پرطرفدار کدنویسی هوش مصنوعی، یک ویژگی جدید را معرفی میکند که به افراد امکان میدهد ظاهر و احساس برنامههای وب را با هوش مصنوعی طراحی کنند. این ابزار، Visual Editor، در واقع یک محصول vibe‑coding برای طراحان است که به آنها دسترسی به همان کنترلهای دقیق میدهد که از نرمافزارهای طراحی حرفهای انتظار میرود. اما علاوه بر اعمال تغییرات بهصورت دستی، این ابزار به آنها اجازه میدهد تا با استفاده از زبان طبیعی، ویرایشها را از عامل هوش مصنوعی کرسر درخواست کنند.
کرسر بیشتر به دلیل بستر کدنویسی هوش مصنوعیاش شناخته میشود، اما با Visual Editor استارتاپ میخواهد بخشهای دیگری از فرآیند ایجاد نرمافزار را نیز در بر بگیرد. ریو لو، سرپرست طراحی کرسر، در مصاحبهای با WIRED میگوید: «هستهای که برایم مهم است، توسعهدهندگان حرفهای، هرگز تغییر نمیکند. اما در واقع، توسعهدهندگان به تنهایی نیستند؛ آنها با افراد زیادی کار میکنند و هر کسی که نرمافزار میسازد، باید بتواند از کرسر چیزی مفید پیدا کند.»
کرسر یکی از سریعترین استارتاپهای هوش مصنوعی در تاریخ است. از زمان عرضهاش در سال ۲۰۲۳، این شرکت اعلام کرده است که درآمد سالانه مکرّر خود را به بیش از یک میلیارد دلار ارتقا داده و دارای دهها هزار شرکت مشتری، از جمله Nvidia، Salesforce و PwC، میباشد. در نوامبر، این استارتاپ یک دور سرمایهگذاری بهارزش ۲٫۳ میلیارد دلار به پایان رساند که ارزشگذاری آن را به حدود ۳۰ میلیارد دلار رساند.
کرسر در ابتدای بازار کدنویسی هوش مصنوعی پیشرو بود، اما اکنون تحت فشار بیشتری از سوی رقبای بزرگتری مانند OpenAI، Anthropic و Google قرار دارد. این استارتاپ بهطور تاریخی مدلهای هوش مصنوعی را از این شرکتها مجوز میگرفت، اما اکنون رقبای آن بهطور چشمگیر در محصولات کدنویسی هوش مصنوعی خود سرمایهگذاری میکنند. بهعنوان مثال Claude Code از Anthropic حتی سریعتر از کرسر رشد کرد و فقط شش ماه پس از راهاندازی به درآمد سالانه مکرّر یک میلیارد دلار دست یافت. در پاسخ، کرسر توسعه و استقرار مدلهای هوش مصنوعی خود را آغاز کرده است.
بهطور سنتی، ساخت برنامههای نرمافزاری نیازمند همکاری تیمهای گوناگون در مجموعهای گسترده از محصولات و ابزارهاست. با یکپارچهسازی قابلیتهای طراحی مستقیماً در محیط کدنویسی خود، کرسر میخواهد نشان دهد که میتواند این عملکردها را در یک پلتفرم واحد جمعآوری کند.
«قبلاً طراحان در دنیای خودشان از پیکسلها و فریمها زندگی میکردند و اینها بهطور مستقیم به کد ترجمه نمیشدند. بنابراین تیمها مجبور بودند فرایندهایی برای انتقال کارها بین توسعهدهندگان و طراحان ایجاد کنند، اما این کار با اصطکاک زیادی همراه بود»، میگوید لو. «ما دنیای طراحی و دنیای کدنویسی را ترکیب کرده و در یک رابط کاربری با یک عامل هوش مصنوعی واحد گرد هم آوردیم.»
طراحی وب با هوش مصنوعی
در یک دموی برگزار شده در مرکز اصلی WIRED در سانفرانسیسکو، سرپرست مهندسی محصول کرسر، جیسون گینسبرگ، نحوهٔ تغییر زیباییشناسی یک صفحه وب توسط Visual Editor را به نمایش گذاشت.
یک پنل طراحی سنتی در سمت راست به کاربران امکان میدهد قلمها را تنظیم کنند، دکمهها اضافه کنند، منوها ایجاد کنند یا پسزمینهها را تغییر دهند. در سمت چپ، یک رابط چت درخواستهای زبان طبیعی را میپذیرد، برای مثال «پسزمینهٔ این دکمه را قرمز کنید». سپس عامل کرسر این تغییرات را مستقیماً در پایگاه کد اعمال میکند.
اوایل سال جاری، کرسر مرورگر وب خود را عرضه کرد که مستقیماً در محیط کدنویسیاش کار میکند. شرکت ادعا میکند این مرورگر حلقه بازخورد بهتری را در هنگام توسعه محصولات فراهم میکند و به مهندسان و طراحان امکان میدهد درخواستهای کاربران واقعی را مشاهده کرده و به ابزارهای توسعهگر مشابه Chrome دسترسی داشته باشند.
چون Visual Editor بر روی مرورگر کرسر قرار دارد، کاربران میتوانند این ابزار را به هر سایت زندهای—نه فقط سایت خودشان—اشاره کنند و همانند اینکه داخل پایه کد آن سایت هستند، آن را بررسی کنند. در یک مقطع، از گینسبرگ درخواست کردم صفحهٔ نخست WIRED را بارگذاری کند.
در همان لحظه، کرسر سیستم طراحی انتشارات ما را نمایش داد: تمام خانوادههای قلم، توکنهای رنگی و متغیرهای فاصلهگذاری تعریفشده در صفحه را بیرون آورد. گینسبرگ میتوانست تایپوگرافی سرفصل را تنظیم کند، رنگهای پسزمینه را روشنتر کند یا بهصورت زنده یک گرادیان اعمال کند، با استفاده از همان کنترلهایی که کرسر برای برنامههای در دستساخت ارائه میدهد. گینسبرگ میگوید: «همه اینها در وب تعریف شدهاند. ما میتوانیم دقیقاً نشان دهیم که سایت با چه موادی ساخته شده است.»
گینسبرگ استدلال میکند که کرسر سعی دارد «زبان طراحی» شرکتهای مختلف را محترم شمارد. بسیاری از طراحان وب، بهنظر او، نسبت به نرمافزارهای vibe‑coding موجود در بازار امروز شک دارند، زیرا این نرمافزارها معمولاً وبسایتهای کلینمایی تولید میکنند که زیبایی منحصربهفرد یک برند را در نظر نمیگیرند. برای مثال، یک میم رایج این است که اگر وبسایت شما دارای یک گرادیان بنفش باشد، احتمالاً توسط هوش مصنوعی ساخته شده است.
کنترلهای دقیق طراحی در استدلال Visual Editor کرسر نقش محوری دارد. کاربران میتوانند شعاع گوشهها را بهصورت دقیق تنظیم کنند، فاصلهگذاری حروف را اصلاح کنند یا جهت باز شدن منو (به چپ یا راست) را تعیین نمایند. بر خلاف ابزارهای طراحی سنتی که بر پایهٔ انتزاعات خود عمل میکنند، لو میگوید هر کنترل به CSS واقعی—زبانی که مرورگرها برای رندر کردن عناصر بصری یک صفحه استفاده میکنند—متصل است. این به این معناست که طراحان دیگر در یک تقریب نمادین از رابط کاربری کار نمیکنند، بلکه در داخل سیستمی واقعی کار میکنند که به کاربران نهایی تحویل داده میشود.
رویاهای بزرگ
وقتی دربارهٔ مقایسه Visual Editor کرسر با سایر برنامههای vibe‑coding مانند Replit و Lovable پرسیده شد، لو بهطور کامل این چارچوب را رد کرد. او استدلال میکند که این شرکتها عمدتاً کاربران را هدف میگیرند که میخواهند دموی سریع بسازند، نه حرفهایهایی که در پایههای بزرگ کد کار میکنند. به همین دلیل، کرسر رقبای خود را بهعنوان ارائهدهندگان بزرگتری از نرمافزار میپذیرد.
«ما به افرادی که سازندهٔ نرمافزار هستند، نظرات قوی دارند، سلیقهٔ خاصی دارند و نظرات محکمی دربارهٔ نحوهٔ انجام کارها دارند، اهمیت میدهیم و ابزارهایی فراهم میکنیم تا این چشمانداز را به واقعیت تبدیل کنند»، میگوید رومن اُگارته، سرپرست رشد کرسر. «ممکن است در آینده برای مدیران محصول کاری مشابه انجام دهیم. ممکن است در آینده برای نقشهای دیگر هم برنامهریزی کنیم، اما فکر میکنم تم اصلی، بلندپروازی است—بالا بردن سقف تواناییهای افراد، نه صرفاً تسهیل کارها.»
تقاضا برای ابزارهای طراحی کرسر بهصورت ارگانیک در حال شکلگیری است، میگوید مارتین کاسادو، شریک عمومی Andreessen Horowitz که سرمایهگذاری این استارتاپ را رهبری کرده است. کاسادو میگوید طراحان در Shopify، بهعنوان مثال، هماکنون از ابزارهای کرسر استفاده میکنند.
پیشنهاد جدید کرسر میتواند چالشی برای شرکتهای مانند Adobe یا Figma باشد، اما کاسادو میگوید بازار به اندازه کافی بزرگ است تا چندین رویکرد مختلف را در بر بگیرد، زیرا ایجاد نرمافزار برای افراد در نقشهای متنوعتری قابل دسترسی میشود.
«کرسر واقعاً بر طراحی تمرکز دارد، زیرا بهصورت مستقیم به پایهٔ کد متصل است»، میگوید او. «با تمام این تغییرات پلتفرمی، رفتارهای جدیدی بهوجود میآیند. برخی از این رفتارها تکامل رفتارهای قبلی خواهند بود و برخی دیگر بهطور کامل نوظهور خواهند شد.»
و این برای بهینهسازی موتورهای مولد (GEO) چه معنایی دارد
نگاه کردن به ابزار جستجو بهعنوان یک فرآیند دو بخشی، کشف و سپس بازیابی | تمام تصاویر توسط نویسنده
زمانی که از ChatGPT یا Claude میپرسید «وب را جستجو کن»، فقط از دادههای آموزشی خود پاسخ نمیدهد؛ بلکه یک سیستم جستجوی جداگانه را فراخوانی میکند.
بخش اول این برای اکثر مردم شناختهشده است.
اما واضح نیست که چقدر موتورهای جستجوی سنتی اهمیت دارند و چه میزان بر پایهٔ آنها ساخته شده است.
تمام این موارد بهطور کامل عمومی نیستند؛ بنابراین من اینجا به استنتاج ذهنی میپردازم. اما میتوانیم با مشاهدهٔ سرنخهای مختلف از سیستمهای بزرگتر، یک مدل ذهنی مفید بسازیم.
ما به بهینهسازی پرسوجو، نحوه استفاده از موتورهای جستجو برای کشف، تقسیم محتوا، بازیابی «بهصورت زنده»، و چگونگی مهندسی معکوس این سیستم برای ساخت یک «سیستم امتیازدهی GEO (بهینهسازی موتور مولد)» میپردازیم.
اگر با RAG آشنایی دارید، بخشی از این مطالب تکراری خواهد بود، اما همچنان مفید است که ببینید سیستمهای بزرگتر چگونه خط لوله را به فاز کشف و فاز بازیابی تقسیم میکنند (اگر برایتان جدید است).
اگر زمان کمی دارید، میتوانید خلاصهٔ TL;DR را بخوانید.
خلاصه
جستجوی وب در این چتباتهای هوش مصنوعی احتمالاً یک فرآیند دو بخشی است. بخش اول متکی بر موتورهای جستجوی سنتی برای یافتن و رتبهبندی اسناد کاندید است. در بخش دوم، محتوا را از آن URLها واکشی میکند و پاراگرافهای مرتبطترین را با استفاده از بازیابی سطح پاراگراف استخراج میکند.
تغییر بزرگ (نسبت به سئو سنتی) بازنویسی پرسوجو و تقسیم محتوا به سطح پاراگراف است؛ که این امکان را میدهد تا صفحات با رتبه پایینتر، اگر پاراگرافهای خاصشان به سؤال بهتر پاسخ دهند، از صفحات با رتبه بالاتر پیشی بگیرند.
فرآیند فنی
شرکتهای پشت Claude و ChatGPT در مورد نحوه کارکرد سیستمهای جستجوی وب خود در رابط کاربری چت بهطور کامل شفاف نیستند، اما میتوانیم با ترکیب اطلاعات، نکات زیادی استنتاج کنیم.
ما میدانیم که برای یافتن کاندیدها به موتورهای جستجو متکی هستند؛ در این مقیاس، این کار غیرمنطقی است. همچنین میدانیم که مدل زبانی بزرگ (LLM) در هنگام پایهگذاری پاسخ خود فقط قطعاتی از متن (بخشها یا پاراگرافها) میبیند.
این نکته بهدقت نشان میدهد که بازیابی مبتنی بر تعبیه (embedding) بر روی این قطعات انجام میشود نه بر روی کل صفحات.
این فرآیند چندین بخش دارد، بنابراین گام به گام آن را بررسی میکنیم.
بازنویسی پرسوجو و گسترش
در ابتدا، نگاهی میاندازیم به اینکه چگونه سیستم پرسشهای انسانی را پاکسازی و گسترش میدهد. گام بازنویسی، گام گسترش (fan‑out) و دلیل اهمیت آن برای سئو را بررسی میکنیم.
ابتدا با بازنویسی پرسوجو شروع میکنیم — نمایش کل خط لولهای که پیش میرویم
فکر میکنم این بخش شاید شفافترین باشد و بیشترین توافق آنلاین را داشته باشد.
مرحله بهینهسازی پرسوجو دربارهٔ تبدیل یک پرسوجوی انسانی به چیزی دقیقتر است. برای مثال «لطفاً آن کفشهای قرمز که قبلاً دربارهٔ آن صحبت کردیم را جستجو کن» به «کفش ورزشی نایک قهوهای‑قرمز» تبدیل میشود.
از سوی دیگر، مرحله گسترش (fan‑out) به تولید بازنویسیهای اضافی میپردازد. بنابراین اگر کاربری دربارهٔ مسیرهای پیادهروی نزدیک به خود بپرسد، سیستم ممکن است عبارات زیر را امتحان کند: «پیادهروی مبتدی نزدیک استکهلم»، «پیادهروی یکروزه با حملونقل عمومی در استکهلم» یا «مسیرهای مناسب خانواده در استکهلم».
این با صرفاً استفاده از مترادفها متفاوت است؛ جستجوگرهای سنتی قبلاً برای این بهینهسازی شدهاند.
اگر برای اولین بار این مفهوم را میشنوید و قانع نشدهاید، مستندات خود گوگل دربارهٔ fan‑out پرسوجو هوش مصنوعی را ببینید یا کمی دربارهٔ بازنویسی پرسوجو تحقیق کنید.
تا چه حد این کار در عمل مؤثر است، نمیدانیم. ممکن است آنها بهطور گسترده این کار را انجام ندهند و فقط با یک پرسوجو کار کنند، سپس اگر نتایج ضعیف باشند، پرسوجوهای دیگری به خط لوله اضافه کنند.
آنچه میتوانیم بگوییم این است که احتمالاً یک مدل بزرگ این بخش را انجام نمیدهد. اگر به پژوهشها نگاه کنید، Ye و همکاران بهصراحت از یک LLM برای تولید بازنویسیهای قوی استفاده میکنند، سپس آن را به یک بازنویسگر کوچکتر تبدیل میکنند تا از تأخیر و هزینههای اضافه جلوگیری شود.
از نظر مهندسی، این بخش صرفاً به این معناست که میخواهید پرسوجوهای نامنظم انسانها را تمیز کنید و به چیزی تبدیل کنید که درصد موفقیت بالاتری دارد.
برای افراد تجاری و سئو، به این معناست که آن پرسوجوهای انسانی که بهینهسازی میکردید، به پرسوجوهای روباتیکتر و شکلدار برای اسناد تبدیل میشوند.
درک من از سئو این است که قبلاً به مطابقت دقیق عبارات طولانی در عناوین و سرفصلها اهمیت زیادی میداد. اگر کسی به «بهترین کفش دویدن برای زانوهای دردناک» بپردازد، دقیقاً این رشته را استفاده میکردید.
اکنون باید به موجودیتها، ویژگیها و روابط نیز توجه کنید.
بنابراین، اگر کاربری بپرسد «چیزی برای پوست خشک»، بازنویسیها میتوانند شامل «مرطوبکننده»، «غیرفشارنده»، «رطوبترسان»، «سراومیدها»، «بدون عطر»، «اجتناب از الکلها» باشند و نه صرفاً «چگونه یک محصول خوب برای پوست خشک پیدا کنم».
اما برای واضح بودن و جلوگیری از ابهام: ما نمیتوانیم بازنویسیهای داخلی را ببینیم؛ بنابراین اینها صرفاً مثال هستند.
اگر به این بخش علاقه دارید میتوانید عمیقتر بررسی کنید. فکر میکنم مقالههای فراوانی دربارهٔ چگونگی انجام این کار بهخوبی وجود دارد.
حال به سمت استفاده واقعی از این پرسوجوهای بهینهسازیشده پیش میرویم.
استفاده از موتورهای جستجو (برای کشف سطح سند)
امروزه این دانستهٔ عمومی است که برای دریافت پاسخهای بهروز، اکثر رباتهای هوش مصنوعی به موتورهای جستجوی سنتی متکی هستند. این تمام داستان نیست، اما وب را به مجموعهای کوچکتر برای کار کردن کاهش میدهد.
مرحلهٔ بعدی کشف اسناد — نمایش کل خط لولهای که پیش میرویم
من فرض میکنم که کل وب برای یک خط لوله LLM برای استخراج مستقیم محتوا بیش از حد بزرگ، پرنویز و سریعال تغییر است. بنابراین با استفاده از موتورهای جستجوی پیشتأسیس، میتوانید دامنهٔ کار را محدود کنید.
اگر به خط لولههای بزرگ RAG که با میلیونها سند کار میکنند نگاه کنید، کاری مشابه انجام میدهند؛ یعنی با استفاده از فیلتر برای تصمیمگیری دربارهٔ اینکه کدام اسناد مهم و ارزش پردازش بیشتری دارند.
برای این بخش، شواهدی داریم.
هر دو OpenAI و Anthropic اعلام کردهاند که از موتورهای جستجوی شخص ثالثی مانند Bing و Brave بههمراه خزندههای خودشان استفاده میکنند.
ممکن است Perplexity این بخش را بهصورت مستقل توسعه داده باشد، اما در ابتدا همان کار را انجام میدادند.
همچنین باید در نظر بگیریم که موتورهای جستجوی سنتی مانند Google و Bing قبلاً سختترین مشکلات را حل کردهاند. اینها تکنولوژیهای مستحکمی هستند که مواردی نظیر تشخیص زبان، امتیاز اعتبار، اعتماد دامنه، فیلتر هرزنامه و … را مدیریت میکنند.
دورانداز تمام این موارد برای تعبیهٔ کل وب بهصورت خودکار بهنظر نامعقول میآید.
اگرچه نمیدانیم برای هر پرسوجو چه تعداد نتایج بهدست میآورند؛ آیا فقط ۲۰ یا ۳۰ برتر است؟ یک مقالهٔ غیررسمی مقایسهٔ استنادات ChatGPT و Bing را انجام داد، ترتیب رتبهبندی را بررسی کرد و دریافت که برخی استنادات از رتبهٔ ۲۲ بهپایین آمدهاند.
اگر این درست باشد، نشان میدهد که باید برای دیده شدن در حدود top‑20 هدفگذاری کنید.
علاوهبر این، هنوز نمیدانیم چه معیارهای دیگری برای تصمیمگیری دربارهٔ نتایج برتر استفاده میشود. این مقاله استدلال میکند که موتورهای هوش مصنوعی بهصورت فراوان به محتواهای کسبشده (earned media) بهجای سایتهای رسمی یا شبکههای اجتماعی ترجیح میدهند.
در هر صورت، وظیفهٔ موتور جستجو (چه کاملاً شخص ثالث باشد چه ترکیبی) کشف است. آن URLها را بر پایهٔ اعتبار و کلمات کلیدی رتبهبندی میکند.
ممکن است یک نکتهٔ کوتاه از اطلاعات را شامل شود، اما این بهتنهایی برای پاسخ به سؤال کافی نیست؛ مگر اینکه سؤال بسیار سادهای مانند «مدیرعامل X کیست؟» باشد.
اما برای سؤالات عمیقتر، اگر مدل فقط به نکتهٔ کوتاه، عنوان و URL تکیه کند، احتمالاً جزئیات را بهصورت غلط (hallucination) ارائه میدهد؛ زیرا زمینه کافی نیست.
به همین دلیل ما را به سمت معماری دو مرحلهای میبرد، که در آن مرحلهٔ بازیابی تعبیه شده است (بهزودی به آن میپردازیم).
این در حوزهٔ سئو چه معنایی دارد؟
این به این معناست که شما هنوز باید در موتورهای جستجوی سنتی رتبه بالایی داشته باشید تا در دستهٔ اولیهٔ اسناد پردازششده قرار بگیرید؛ پس بلی، سئو کلاسیک همچنان مهم است.
اما ممکن است همچنین نیاز باشد به معیارهای جدیدی که ممکن است برای رتبهبندی نتایج استفاده کنند، فکر کنید.
این مرحله تماماً دربارهٔ محدود کردن دامنه به چند صفحهای است که ارزش کاوش دارند، با استفاده از فناوریهای جستجوی تثبیتشده بههمراه تنظیمات داخلی. بقیه (بخش «بازگرداندن پاراگرافهای اطلاعاتی») پس از این گام، با استفاده از تکنیکهای بازیابی استاندارد انجام میشود.
خزیدن، تکهگذاری و بازیابی
حال به سراغ آنچه اتفاق میافتد وقتی سیستم چند URL جالب را شناسایی کرد، میرویم.
پس از عبور یک مجموعهٔ کوچک از URLها از فیلتر اول، خط لوله نسبتاً ساده است: صفحه را میخزد، به قطعات تقسیم میکند، این قطعات را تعبیه میکند، قطعاتی که با پرسوجو همخوانی دارند را بازیابی میکند و سپس آنها را دوباره رتبهبندی میکند.
این همان چیزی است که «بازیابی» (retrieval) نامیده میشود.
مرحلهٔ بعدی تکهگذاری، بازیابی — نمایش کل خط لولهای که پیش میرویم
من این را «بهلحظه» مینامم، چون سیستم فقط زمانی که URL بهعنوان کاندید میشود، قطعات را تعبیه میکند و سپس این تعبیهها را برای استفادهٔ مجدد ذخیره میکند. اگر با بازیابی آشنایی دارید، این بخش ممکن است جدید به نظر برسد.
برای خزیدن صفحه، بهنظر میرسد آنها از خزندههای خودشان استفاده میکنند. برای OpenAI، این OAI‑SearchBot است که سپس HTML خام را دریافت میکند تا بتواند پردازش شود.
خزندهها عموماً JavaScript را اجرا نمیکنند؛ احتمالاً بر HTML تولیدشده از سمت سرور تکیه دارند؛ بنابراین قوانین سئو همانندارد: محتوا باید در دسترس باشد.
پس از دریافت HTML، محتوا باید به چیزی تبدیل شود که قابل جستجو باشد.
اگر تازهکار باشید، ممکن است فکر کنید هوش مصنوعی «سند را اسکن میکند»، اما اینگونه نیست. اسکن کل صفحات برای هر پرسوجو بسیار کند و پرهزینه است.
در عوض، صفحات به پاراگرافها تقسیم میشوند که معمولاً بر پایهٔ ساختار HTML مانند سرنویسها، پاراگرافها، فهرستها، تقسیمبندی بخشها و … انجام میشود. اینها در زمینهٔ بازیابی بهعنوان «قطعات» (chunks) شناخته میشوند.
هر قطعه یک واحد کوچک و خودکفا میشود. از نظر توکن، میتوانید در استنادات UI Perplexity ببینید که قطعات حدود چند ده توکن، شاید حدود ۱۵۰ توکن، نه هزار توکن، هستند.
یعنی حدود ۱۱۰ تا ۱۲۰ واژه.
پس از تکهگذاری، این واحدها با استفاده از بردارهای پراکنده (sparse) و چگال (dense) تعبیه میشوند. این امکان را میدهد که سیستم جستجوی ترکیبی (hybrid) را اجرا کند و پرسوجو را هم معنایی و هم کلمهکلیدی تطبیق دهد.
اگر تازهکار به جستجوی معنایی هستید، بهطور خلاصه، به این معناست که سیستم بهدنبال معنا میگردد نه کلمات دقیق؛ بنابراین پرسوجویی مانند «علائم کمبود آهن» و «نشانههای بدن کم آهن» همچنان در فضای تعبیه بهیکدیگر نزدیک خواهند بود.
اگر مایلید بیشتر دربارهٔ تعبیهها بدانید، میتوانید مطالب بیشتری در این باره بخوانید.
پس از تکهگذاری و تعبیه یک صفحهٔ پرطرفدار، این تعبیهها احتمالاً ذخیرهسازی میشوند. هیچکس یک پاسخ StackOverflow را هزاران بار در روز دوباره تعبیه نمیکند.
این همان دلیل واضحی است که سیستم اینچنین سریع بهنظر میرسد؛ احتمالاً ۹۵ تا ۹۸ درصد از وبی که واقعا استناد میشود، قبلاً تعبیه و بهطور پرسرعت کشیده میشود.
اگرچه دقیقاً نمیدانیم تا چه حد و چقدر آنها پیشتعبیه میکنند تا اطمینان حاصل شود که سیستم برای پرسوجوهای پرطرفدار بهسرعت کار میکند.
حالا سیستم باید تصمیم بگیرد کدام قطعات مهم هستند. برای این کار از تعبیههای هر قطعه متن برای محاسبهٔ امتیاز هم تطبیق معنایی و هم کلمهکلیدی استفاده میکند.
قطعاتی با بالاترین امتیازها انتخاب میشوند؛ این میتواند بین ۱۰ تا ۵۰ قطعهٔ برتر باشد.
از اینجا، اکثر سیستمهای پیشرفته از یک رتبهسنج (re‑ranker) (cross‑encoder) برای پردازش مجدد این قطعات برتر استفاده میکنند؛ این مرحله «اصلاح آشفتگی بازیابی» نام دارد، زیرا متأسفانه بازیابی همیشه بهدلیل دلایل مختلف کاملاً قابلاعتماد نیست.
اگرچه آنها دربارهٔ استفاده از cross‑encoder چیزی نمیگویند، اما Perplexity یکی از معدودهایی است که فرآیند بازیابی خود را بهصورت باز مستند میکند.
API جستجوی آنها میگوید که «اسناد را به واحدهای جزئی تقسیم میکند» و این واحدها را بهصورت جداگانه امتیاز میدهد تا «پاراگرافهای مرتبطترین که قبلاً رتبهبندی شدهاند را برگرداند».
این همه برای سئو چه معنایی دارد؟ اگر سیستم بازیابی را بهاین شکل انجام میدهد، صفحهٔ شما بهعنوان یک بلوک بزرگ در نظر گرفته نمیشود.
صفحه به قطعات (اغلب در سطح پاراگراف یا سرنویس) تقسیم میشود و این قطعات همانند امتیازدهی میشوند. کل صفحه در زمان کشف مهم است، اما پس از شروع بازیابی، فقط قطعات مهم میشوند.
یعنی هر قطعه باید به سؤال کاربر پاسخ دهد.
همچنین به این معناست که اگر اطلاعات مهم شما در یک قطعهٔ واحد جمع نشده باشد، سیستم ممکن است زمینه را از دست بدهد. بازیابی جادوی خاصی نیست؛ مدل هرگز صفحهٔ کامل شما را نمیبیند.
در اینجا مرحلهٔ بازیابی را پوشش دادیم: سیستمی که صفحات را میخزد، به واحدها تقسیم میکند، این واحدها را تعبیه میکند و سپس با استفاده از جستجوی ترکیبی و رتبهبندی مجدد، تنها پاراگرافهایی را استخراج میکند که میتوانند به سؤال کاربر پاسخ دهند.
انجام یک دور دیگر و تحویل قطعات به LLM
حالا به سراغ اتفاقاتی میرویم که پس از بخش بازیابی رخ میدهد، شامل ویژگی «ادامهٔ جستجو» و تحویل این قطعات به LLM اصلی.
مرحلهٔ بعدی بررسی محتوا + تحویل آن به LLM
پس از شناسایی چند قطعهٔ با رتبه بالا، سیستم باید تصمیم بگیرد که آیا این قطعات بهحد کافی خوب هستند یا نیاز به ادامهٔ جستجو دارد. این تصمیم بهاحتمال زیاد توسط یک مدل کنترلکنندهٔ کوچک اتخاذ میشود، نه توسط LLM اصلی.
حدس میزنم، اما اگر مطالب کمبود یا بیارتباط بهنظر برسند، ممکن است یک دور دیگر بازیابی انجام شود. اگر محتوای قوی بهنظر برسد، میتواند این قطعات را به LLM تحویل دهد.
در نقطهای این انتقال رخ میدهد؛ پاراگرافهای انتخابشده بههمراه برخی متادیتا به LLM اصلی منتقل میشوند.
مدل تمام قطعات ارائهشده را میخواند و آنرا انتخاب میکند که بهترین پشتیبانی را برای پاسخی که میخواهد تولید کند، فراهم میکند.
این مدل بهصورت مکانیکی ترتیب بازیاب را دنبال نمیکند؛ بنابراین تضمینی نیست که LLM از «قطعهٔ برتر» استفاده کند. ممکن است پاساژی با رتبهٔ پایینتر را ترجیح دهد چون واضحتر، خودکفا یا نزدیکتر به نوشتار مورد نیاز برای پاسخ باشد.
بنابراین درست مانند ما، تصمیم میگیرد چه چیزهایی را بگیرد و چه چیزهایی را نادیده بگیرد. حتی اگر قطعهٔ شما بالاترین امتیاز را داشته باشد، تضمینی نیست که اولینبار ذکر شود.
مواردی که باید در نظر بگیرید
این سیستم در واقع جعبهٔ سیاهی نیست؛ سیستمی است که افراد ساختهاند تا اطلاعات مناسب را به LLMها بدهند تا به سؤال کاربر پاسخ دهند.
اگر استنتاج من صحیح باشد، سیستم کاندیدها را پیدا میکند، اسناد را به واحدها تقسیم میکند، این واحدها را جستجو و رتبهبندی میکند و سپس آنها را برای خلاصهسازی به یک LLM میسپارد.
از این میتوانیم متوجه شویم که هنگام تولید محتوا برای این سیستم به چه نکاتی باید فکر کنیم.
سئوی سنتی همچنان اهمیت زیادی دارد، زیرا این سیستم بر سئو سنتی تکیه دارد. مواردی مانند داشتن نقشهٔ سایت مناسب، محتوای بهراحتی رندرشدنی، سرنویسهای مناسب، اعتبار دامنه و برچسبهای تاریخ آخرین تغییر دقیق، برای مرتبسازی صحیح محتوای شما ضروری هستند.
همانطور که اشاره کردم، ممکن است آنها موتورهای جستجو را با فناوری خود ترکیب کنند تا تصمیم بگیرند کدام URLها انتخاب میشوند؛ این نکتهای است که باید در ذهن داشته باشید.
اما اگر بازیابی بر روی آن انجام شود، مرتبط بودن در سطح پاراگراف نقطهٔ قدرت جدید خواهد شد.
بنابراین طراحی «پاسخ در یک قطعه» حاکم خواهد شد. (فقط اینرا بهطرزی انجام ندهید که عجیبه؛ شاید یک TL;DR مفید باشد.) و بهخاطر داشته باشید که از واژگان صحیح استفاده کنید: موجودیتها، ویژگیها، روابط، همانطور که در بخش بهینهسازی پرسوجو اشاره کردیم.
چگونه یک «سیستم امتیازدهی GEO» (برای سرگرمی) بسازیم
برای فهمیدن اینکه محتوای شما چه عملکردی خواهد داشت، باید محیط دشوار موجودیت محتوای شما را شبیهسازی کنیم؛ پس سعی میکنیم این خط لوله را بهصورت معکوس مهندسی کنیم.
توجه داشته باشید، این کار ساده نیست، زیرا ما معیارهای داخلی آنها را نمیدانیم و این سیستم بهطور کامل عمومی نیست؛ بنابراین این را بهعنوان یک طرح کلی در نظر بگیرید.
ایده این است که خط لولهای بسازیم که بتواند بازنویسی پرسوجو، کشف، بازیابی، رتبهبندی مجدد و قاضی LLM را انجام دهد و سپس ببینیم در مقایسه با رقبای خود در موضوعات مختلف کجا قرار میگیرید.
طرح اولیهٔ خط لوله برای بررسی اینکه در مقایسه با رقبای خود چه امتیازی میگیرید
میتوانید با چند موضوع مانند «بازیابی ترکیبی برای RAG سازمانی» یا «ارزیابی LLM با LLM‑as‑judge» شروع کنید و سپس سیستمی بسازید که پرسوجوهای طبیعی حول این موضوعات تولید کند.
سپس این پرسوجوها را از طریق مرحله بازنویسی LLM عبور میدهید، زیرا این سیستمها اغلب پیش از بازیابی، پرسش کاربر را بازنویسی میکنند. این بازنویسیها همانطور که میخواهید از طریق خط لوله عبور میکنند.
اولین بررسی، قابلیت دیده شدن است. برای هر پرسوجو، نتایج ۲۰ تا ۳۰ برتر را در Brave، Google و Bing بررسی کنید؛ ببینید صفحهٔ شما ظاهر میشود یا نه و نسبت به رقبای خود در چه رتبهای قرار دارد.
اگر صفحهٔ شما در این نتایج اولیه ظاهر شد، به مرحلهٔ بازیابی میروید.
صفحهٔ خود و صفحات رقبای خود را واکشی کنید، HTML را پاکسازی کنید، به قطعات تقسیم کنید، این قطعات را تعبیه کنید و یک تنظیم بازیابی ترکیبی کوچک بسازید که ترکیبی از مطابقت معنایی و کلمهکلیدی باشد. یک مرحلهٔ رتبهبندی مجدد اضافه کنید.
پس از دریافت قطعات برتر، لایهٔ نهایی را اضافه میکنید: یک LLM‑as‑a‑judge. حضور در پنج برتر تضمین استناد نیست، بنابراین مرحلهٔ آخر را شبیهسازی میکنید؛ چند قطعهٔ با بالاترین امتیاز (بههمراه متادیتا) را به LLM میدهید و میبینید کدامیک را ابتدا استناد میکند.
وقتی این کار را برای صفحات خود و رقیبان انجام میدهید، میبینید در چه زمینهای برنده یا بازنده هستید: لایهٔ جستجو، لایهٔ بازیابی یا لایهٔ LLM.
بهخاطر داشته باشید که این هنوز یک طرح کلی است؛ نمیتوانیم امتیازهای دقیق اعتبار را که آنها استفاده میکنند، بدانیم، اما اگر بخواهید سیستمی مشابه بسازید، این یک نقطهٔ شروع برای شماست.
این مقاله بیشتر بر مکانیکها تمرکز داشته و کمتر بر استراتژی سئو/GEO؛ میدانم که این برای همه مناسب نیست.
هدف این بود که جریان از پرسوجوی کاربر تا پاسخ نهایی را نقشهکشی کنیم و نشان دهیم ابزار جستجوی هوش مصنوعی نیروی مبهمی نیست.
حتی اگر بخشهایی از سیستم عمومی نباشند، میتوانیم یک طرح منطقی از آنچه در حال رخ دادن است استنتاج کنیم؛ تا بهحال واضح است که جستجوی وب هوش مصنوعی جایگزین موتورهای جستجوی سنتی نمیشود.
فقط یک لایهٔ بازیابی بر روی آنها افزودنی میشود.
هنوز موارد بیشتری برای کشف وجود دارد پیش از اینکه بگوییم چه چیزی در عمل مهم است. در اینجا بیشتر بهصورت فنی خط لوله را مرور کردم، اما اگر این مطالب برای شما جدید است، امیدوارم بهخوبی توضیح داده باشد.
امیدوارم خواندن آن آسان بوده باشد. اگر از آن لذت بردید، میتوانید آن را بهاشتراک بگذارید یا از طریق LinkedIn، Medium یا وبسایتم با من در تماس باشید.