پژوهشگران در Graphika میگویند کارزارهای تبلیغاتی آنلاین، اینترنت را با محتوای تولید شده توسط هوش مصنوعی که کیفیت پایینی دارد، پر کردهاند.
براساس گزارش جدید، بسیاری از بزرگترین و شناختهترین کارزارهای تبلیغاتی آنلاین که توسط دولتها حمایت میشوند، به استفاده از هوش مصنوعی پرداختهاند — اما در این زمینه غالباً توانایی کمی نشان میدهند.
این گزارش که توسط شرکت تجزیه و تحلیل شبکههای اجتماعی Graphika تهیه شده، نه عملیات تأثیرگذاری آنلاین در حال انجام را مورد بررسی قرار داد — از جمله آنهایی که ادعا میکند با دولتهای چین و روسیه ارتباط دارند — و دریافت که همانند بسیاری از پلتفرمهای اجتماعی، هر یک بهتدریج از هوش مصنوعی مولد برای تولید تصاویر، ویدئوها، متنها و ترجمهها استفاده میکنند.
پژوهشگران دریافتند که حمایتکنندگان کارزارهای تبلیغاتی برای انجام وظایف اصلی مانند تولید محتوا و ساخت شخصیتهای اینفلوئنسر در شبکههای اجتماعی به هوش مصنوعی متکی شدهاند و برخی از کارزارها را بهصورت کارآمدتری پیش میبرند. اما آنها میگویند کیفیت این محتوا پایین است و تعامل کمی دریافت میکند.
این نتایج با انتظارات بسیاری از پژوهشگران که پیشرفت روزافزون هوش مصنوعی مولد — هوش مصنوعیای که گفتار، نوشتار و تصاویر انسانی را در عکسها و ویدیوها تقلید میکند — همخوانی ندارد. این فناوری در سالهای اخیر به سرعت پیشرفت کرده و برخی کارشناسان هشدار دادهاند که تبلیغکنندگان بهنام کشورهای استبدادی میتوانند محتویات سنتتیک با کیفیت بالا و قانعکننده تولید کنند تا حتی افراد دقیقنظر در جوامع دمکراتیک را فریب دهند.
با این حال، پژوهشگران Graphika بهوضوح دریافتند که محتوای هوش مصنوعی تولید شده توسط این کارزارهای مستقر، «سرریزهای بیکیفیتی» است؛ از گزارشگرهای خبری مصنوعی که در ویدیوهای یوتیوب قانعکننده نیستند تا ترجمههای ناهموار یا وبسایتهای خبری جعلی که بهطور ناخواسته در سرفصلها از دستورات هوش مصنوعی استفاده میکنند.
دینا صادک، تحلیلگر ارشد در Graphika و یکی از نویسندگان گزارش، گفت: «عملیاتهای تأثیرگذاری بهطور سیستماتیک ابزارهای هوش مصنوعی را ادغام کردهاند و بخش عمدهای از آنها محتوای بیکیفیت و ارزان قیمت هوش مصنوعی است.» او افزود: «همانطور که پیش از این بود که این کارزارها بهطور منظم از هوش مصنوعی استفاده میکردند، بیشترین بخش پستهای آنها در شبکههای اجتماعی غربی توجه کمی یا اصلاً دریافت نمیکند.»
کارزارهای تأثیرگذاری آنلاین که هدفشان تغییر جهت سیاست آمریکا و پخش پیامهای تفرقهانگیز است، حداقل یک دهه پیش آغاز شدهاند؛ زمانی که آژانس تحقیقاتی اینترنتی مستقر در روسیه حسابهای متعددی در فیسبوک و توییتر ایجاد کرد و سعی در تأثیرگذاری بر انتخابات ریاستجمهوری ۲۰۱۶ داشت.
همانطور که در برخی حوزههای دیگر مانند امنیت سایبری و برنامهنویسی، رشد هوش مصنوعی زمینه تبلیغ آنلاین را متحول نکرده است، اما انجام برخی کارها را خودکارتر کرده است، صادک گفت.
او افزود: «ممکن است محتوا پایینکیفیت باشد، اما بهصورت وسیعی قابل گسترش است. میتوانند در جایی بنشینند، شاید فقط یک فرد با فشار دادن دکمهها این همه محتوا را تولید کند.»
از نمونههای ذکر شده در گزارش میتوان به «دوئپلگانگر» اشاره کرد؛ عملیاتی که وزارت عدالت آن را به کرملین مرتبط میداند و پژوهشگران میگویند از هوش مصنوعی برای ساخت وبسایتهای خبری جعلی که قانعکننده نیستند استفاده کرده است؛ و «اسپاموفلوژ» که وزارت عدالت آن را به چین نسبت میدهد و این کارزار افراد خبری جعلی هوش مصنوعی تولید میکند تا ویدیوهای تفرقهانگیز اما غیرقابلقبول را در شبکههای اجتماعی مانند X و یوتیوب گسترش دهد. گزارش همچنین به چندین عملیات اشاره کرد که از صدای عمیقفیک (deepfake) با کیفیت پایین استفاده کردهاند.
یک نمونه از این کارزارها، انتشار دیپفیکهای سلبریتیهایی چون اوپرا وینفری و رئیسجمهور پیشین باراک اوباما بود که بهنظر میرسیدند درباره رشد هند در صحنهٔ جهانی اظهار نظر میکنند. اما گزارش میگوید این ویدیوها غیرقابلقبول بهنظر میرسیدند و توجه زیادی جلب نکردند.
ویدیو دیگری با محوریت روسیهپراستی به نام «المپیک فرو ریخت» بهنظر میرسید تا بازیهای المپیک تابستانی ۲۰۲۴ پاریس را تخریب کند. با ارجاع به فیلم هالیوودی ۲۰۱۳ «الامپوس فرو ریخت»، این ویدیو نسخهٔ هوش مصنوعیِ تام کراس را به تصویر میکشید، در حالی که او در هیچیک از این فیلمها حضور نداشته است. گزارش نشان داد که این اثر جز در یک اتاق پژواک کوچک از حسابهایی که معمولاً فیلمهای این کارزار را بهاشتراک میگذارند، توجهی دریافت نکرد.
سخنگویان سفارت چین در واشنگتن، وزارت امور خارجهٔ روسیه، X و یوتیوب به درخواستهای اطلاعرسانی پاسخ ندادند.
چنانکه صادک میگوید، حتی اگر تلاشهای آنها به افراد زیادی نرسد، برای تبلیغکنندگان ارزش دارد که در عصر رباتهای گفتگوی هوش مصنوعی، اینترنت را پر کنند. شرکتهای تولیدکننده این رباتها بهطور مستمر با جمعآوری متنهای موجود در اینترنت، مدلهای خود را آموزش داده و بهصورت بازپخش مطالب استفاده میکنند.
مطالعهٔ اخیر موسسهٔ گفتگوی استراتژیک (Institute for Strategic Dialogue)، یک سازمان غیرانتفاعی حامی دموکراسی، نشان داد که اکثر رباتهای گفتگوی اصلی هوش مصنوعی یا مدلهای زبانی بزرگ، در پاسخهای خود به منابع خبری روسی حمایتشده توسط دولت اشاره میکنند؛ حتی برخی از این منابع تحت تحریم اتحادیهٔ اروپا قرار دارند.
در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا میشود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را بهدست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارتترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.
بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگها فعال شد). مردان پیش از اینکه کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.
پژوهشگران سپس فاش کردند که دزدها جلیقههای روشندار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آنها با یک بالابر مبلمان، که در خیابانهای باریک پاریس معمولاً دیده میشود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه میکرد، استفاده کردند. پوشش کارگریشان باعث شد بهنظر برسد که بخشی از محیط هستند.
این استراتژی مؤثر بود زیرا ما جهان را بهصورت عینی نمیبینیم. ما آن را از طریق دستهبندیها میبینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دستهبندیهای اجتماعی که ما بهعنوان «نرمال» میشناسیم، درک کردند و از آنها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانههای هوش مصنوعی (AI) بهطور مشابه عمل میکنند و در نتیجه به همان نوع اشتباهات مستعد هستند.
سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقشهای اجتماعی را «اجرا» میکنند با بهکارگیری نشانههایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالیبودن» بهعنوان یک پوشش کامل تبدیل شد.
جامعهشناسی نگاه
انسانها بهطور مداوم دستهبندیهای ذهنی انجام میدهند تا افراد و مکانها را درک کنند. وقتی چیزی در دسته «عادی» جای میگیرد، از نگاه ما پنهان میشود.
سیستمهای هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیتهای مشکوک در فضاهای عمومی بهکار میروند، بهصورت مشابهی عمل میکنند. برای انسانها، دستهبندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.
اما هر دو سیستم بر الگوهای یادگرفتهشده بهجای واقعیت عینی تکیه دارند. چون هوش مصنوعی از دادههایی که چه کسی «نرمال» و چه کسی «مشکوک» بهنظر میرسد میآموزد، دستهبندیهای موجود در دادههای آموزشی خود را جذب میکند. این امر باعث میشود که به تعصب حساس شود.
دزدهای لوور بهدلیل انطباق با یک دستهبندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند میتواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیشازحد قرار میگیرند.
این میتواند به این معنا باشد که سامانه تشخیص چهره بهطور نامتناسبی برخی گروههای نژادی یا جنسیتی را بهعنوان تهدیدهای احتمالی نشان میدهد، در حالی که دیگران را نادیده میگیرد.
نگرش جامعهشناختی به ما کمک میکند بفهمیم که اینها مسائل جداگانهای نیستند. هوش مصنوعی دستهبندیهای خود را اختراع نمیکند؛ بلکه دستهبندیهای ما را میآموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبطهای امنیتی آموزش داده میشود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف میشود، همان فرضیات را بازتولید میکند.
همانطور که نگهبانان موزه بهدلیل اینکه دزدها گویی جزئی از محیط بودند، نادیدهشان گرفتند، هوش مصنوعی نیز میتواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان میدهد.
دستهبندی، چه انسانی و چه الگوریتمی، یکسلاح دو لبه است. این کار به ما کمک میکند اطلاعات را بهسرعت پردازش کنیم، اما در عین حال مفروضات فرهنگیمان را نیز در خود جای میدهد. هم انسانها و هم ماشینها به شناسایی الگوها متکیاند؛ روشی مؤثر اما ناپایدار.
دیدگاه جامعهشناختی نسبت به هوش مصنوعی الگوریتمها را بهعنوان آینه میبیند: آنها دستهبندیها و سلسلهمراتبهای اجتماعی ما را بازتاب میدهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آنها نگاه میشد. بهعبارت دیگر، در زمینه هوش مصنوعی، آنها آزمون طبقهبندی را گذراندند.
از تالارهای موزه تا یادگیری ماشین
این ارتباط بین ادراک و دستهبندی نکتهای مهم درباره دنیای رو بهالگوریتمی ما را آشکار میکند. چه نگهبانی باشد که تصمیم میگیرد چه کسی مشکوک به نظر میرسد و چه هوش مصنوعی که تصمیم میگیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دستهها بر پایهنشانههایی که بهنظر عینی میآیند اما بهصورت فرهنگی آموخته شدهاند.
زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف میشود، این غالباً به این معناست که آن دستهبندیهای اجتماعی را بیش از حد دقیق بازتاب میدهد. سرقت لوور به ما یادآوری میکند که این دستهبندیها تنها نگرشهای ما را شکل نمیدهند، بلکه آنچه در نگاه اول توجه میشود را نیز تعیین میکنند.
پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربینهای جدید و امنیت شدیدتر داد. اما مهم نیست این سیستمها چقدر پیشرفته شوند، آنها همچنان به دستهبندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب میشود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.
سرقت لوور بهعنوان یکی از نمایانترین سرقتهای موزهای اروپا در خاطرهها میماند. دزدها موفق شدند زیرا جامعهشناسی ظاهر را تسلط یافتند: آنها دستهبندیهای نرمالی را درک کرد و بهعنوان ابزار استفاده کردند.
و با این کار، نشان دادند که چگونه هم افراد و هم ماشینها میتوانند انطباق را با امنیت اشتباه بگیرند. موفقیت آنها در نور روز تنها پیروزی برنامهریزی نبود؛ بلکه پیروزی تفکر دستهبندیشده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.
درس واضح است: پیش از اینکه ماشینها را بهسوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه میبینیم را زیر سؤال ببریم.
سال تسلا به همان روانی پیش میرود که از شرکتی که بهنظر میرسد مصمم است تا رهبرش که بهصورت علنی از نمادهای نازی استفاده میکند، ثروتمندترین انسان تاریخ شود، انتظار میرفت، حتی وقتی که تمام معیارهای ممکن نشان میدهند شرکت در حال فروپاشی است. سودها کاهش یافتهاند، سبد مدلها بهسرعت پیر میشود، و ایلان ماسک، مدیرعامل، عملاً میگوید میخواهد یک ارتش رباتی را رهبری کند؛ موضوعی که بهویژه ترسناک میشود وقتی که او هوش مصنوعیاش، گروک، را به یک نو‑نازیعلاقهمند به هیتلر در 4چن تبدیل کرده است.
بهنظر میرسد صرفنظر از کاری که شرکت انجام میدهد، در نهایت به اخباری بد و حتی بدتر شدن کسبوکار منجر میشود. برای مثال: روبوتاکسیهای تسلا هماکنون در آستین و سانفرانسیسکو میچرخند، اما تواناییهای خودران آنها در بهترین حالت مشکوک است؛ بنابراین برای اطمینان از عدم بروز مشکل، ناظر انسانی داخل خودرو نیاز است.
ویدیوها توسط VICE
به گزارش Ars Technica، یک مسافر سانفرانسیسکویی یک ویدیو ۱۲ ثانیهای را در ردیت به اشتراک گذاشت که راننده ایمنی تسلا را در حین حرکت خودرو در خواب عمیق نشان میدهد. به گفتهٔ مسافر، این مرد نه یکبار، نه دوبار، بلکه سه بار در طول سفر سر میخوابید. وقتی مسافر سعی کرد این موضوع را به تسلا اطلاع دهد، شرکت پاسخی نداد که بهنظر منطقی بود.
بدتر از آن، کاربر دیگری در ردیت ادعا کرد که همان راننده ایمنی را داشتهاند که همچنان در مسیر ترافیک از تمسکال تا سانفرانسیسکو به خواب رفته بود. کار بهعنوان راننده ایمنی انسانی قطعاً شغلی عجیب است؛ ترکیبی از نگهدارنده کودک و شناور نجات. Waymo، پیشرو فعلی بازار تاکسیهای خودران، پیش از اجازهٔ کارمندان برای حضور در جادههای عمومی، آموزشهای گستردهای میطلبد.
از سوی دیگر، بهنظر میرسد تسلا بهصورت سرسختانه ادامه میدهد و امیدوار است مسافران اهمیتی به این نکته ندهند که شخصی که مسئول اطمینان از روانی مسیر است، خروپف میکند و آب دهانش از روی چانهاش میچکد. گویی این همان شعار قدیمی «سریع حرکت کن و چیزها را بشکن» درهٔ سیلیکون است که تا زمانی که چیزی که سریع میدود یک خودرو رباتیک است و چیزی که شکسته میشود شما در صندلی عقب هستید، جذاب بهنظر میرسد.
از زمان آغاز آزمایش روبوتاکسی آستین توسط تسلا در ماه ژوئیه، حداقل هفت تصادف گزارش شده است. تسلا دادهها را به نهادهای نظارتی ایمنی فدرال ارائه کرده، اما بخشی قابل توجه از آنها را حذف کرده است. این قدمی اطمینانبخش از سوی شرکتی است که خودروهای خودران را در ترافیک آزمایش میکند. بدتر از آن این است که تسلا هنوز مجوزهای لازم برای ارائهٔ سرویس خودکار حملونقل در ایالت کالیفرنیا را دریافت نکرده است.
در حال حاضر، تسلا بهصورت عمومی به حوادث رانندهٔ خوابیده یا سؤالات مربوط به مجوزها پاسخ نداده است.
بهنظر میرسد که دوران «و این هم آنچه در گلی از دست دادید» گذشته باشد. پرایمویدیو آمازون، خلاصههای ویدئویی تولیدشده توسط هوش مصنوعی را برای کمک به بینندگان در جبران فاصله بین فصول برنامهها اضافه میکند، این شرکت روز چهارشنبه اعلام کرد.
بهگفته آمازون، این ویژگی «از هوش مصنوعی مولد برای ایجاد خلاصههای فصلی با کیفیت تئاتری، همراه با روایت همگام، دیالوگ و موسیقی استفاده میکند». این ویژگی بهصورت نسخهٔ بتا برای برخی از برنامههای اصلی پرایم، مانند «Fallout»، «Jack Ryan اثر تام کلانی» و «Upload» از روز چهارشنبه در دسترس خواهد بود.
پرایمویدیو سال گذشته ویژگی مشابهی بهنام «X‑Ray Recaps» را راهاندازی کرد که فصول کامل، قسمتها یا بخشهایی از آنها را خلاصه میکند — در آن زمان، آمازون اعلام کرد که مدل هوش مصنوعی آن دارای محدودیتهایی است تا از بهطور ناخواسته بهاشتراکگذاری فاشکنندهها جلوگیری شود.
منبع تصویر:پرایمویدیو
مصرفکنندگان به این نوع خلاصههای مبتنی بر متن و هوش مصنوعی عادت کردهاند، چون معمولاً آنها را هنگام خلاصهشدن متنها توسط گوشی خود میبینند یا زمانی که (شاید ناخواسته) یک خلاصهٔ هوش مصنوعی در بالای نتایج جستجوی گوگل نشان میشود. اما این خلاصههای ویدئویی به حوزهای جدید قدم میگذارند که ممکن است نسبت به خلاصههای متنی مزاحمتر بهنظر برسند — یا شاید توسط افرادی که بهخاطر ندارند «Bosch» چه رخ داده است، مورد استقبال قرار گیرند.
رقبای پرایمویدیو نیز در حال بررسی نحوهٔ ادغام هوش مصنوعی مولد در محصولات خود هستند.
بهعنوان مثال، YouTube TV از ویژگی «Key Plays» برای کمک به بینندگان در پیگیری مسابقات ورزشی استفاده میکند اگر در حین برگزاری بازی تماشا را آغاز کنند. اگرچه این ویژگی کمی ناقص است (الگوریتم آن تنها بهنظر میرسد بتواند نقاط کلیدی حمله در بیسبال را شناسایی کند)، این ویژگی به YouTube TV کمک کرد تا اولین جایزهٔ امی فنی خود را بهدست آورد.
در همین حین، نتفلیکس از هوش مصنوعی مولد در بخش تولیدی کسبوکار خود بهره میگیرد.
اوایل سال جاری، نتفلیکس اعلام کرد که برای اولین بار از هوش مصنوعی مولد در فیلمبرداری نهایی سریال آرژانتینی «The Eternaut» برای ایجاد صحنهای از فروپاشی یک ساختمان استفاده کرده است. پس از آن، «Happy Gilmore 2» با استفاده از هوش مصنوعی مولد شخصیتها را در صحنهٔ آغازین فیلم جوانتر کرد و تهیهکنندگان «Billionaires’ Bunker» از این فناوری در پیشتولید برای تجسم لباسها و طراحی صحنه بهره بردند.
استفاده از هوش مصنوعی در صنعت سینما بحثهای فراوانی را بهوجود آورده است؛ زیرا هنرمندان نگرانند این ابزارها — که گاهی بدون اجازه بر آثار آنها آموزش میبینند — میتوانند معیشتشان را به خطر اندازند. اما برخی استدلال میکنند که ابزارهایی که کارهای خستهکنندهٔ انیمیشن یا جلوههای ویژه را تسریع میکنند، همچون Wonder Dynamics، میتوانند ظرفیت خلاقیت هنرمندان را افزایش دهند.
آنتوان بلوندو، همبنیانگذار و شریک مدیریت Alpha Intelligence Capital، در کنفرانس جهانی مدیران اجرایی فوربس 2025 در جاکارتا. Alpha Intelligence Capital
در سالهای اخیر، شرکتهای برتر هوش مصنوعی جهان بهطور تند به آسیا گسترش یافتهاند، چرا که منطقه استفاده بالایی از ابزارهای هوش مصنوعی آنها دارد. اما هنوز توافقی دربارهٔ محل تأسیس دفتر مرکزی آسیاییشان پیدا نکردهاند. بهعنوان مثال، پیشگام هوش مصنوعی OpenAI، سنگاپور را انتخاب کرد، در حالی که رقیب Anthropic ژاپن را برگزید و Cohere که توسط Nvidia پشتیبانی میشود، به کرهجنوبی رفت.
برای آنتوان بلوندو، همبنیانگذار و شریک مدیریت شرکت سرمایهگذاری خطرپذیر متمرکز بر هوش مصنوعی Alpha Intelligence Capital، انتخاب واضح است: سنگاپور. این شرکت مستقر در لوکزامبورگ پیش از این در دو استارتاپ در این شهر‑دولت سرمایهگذاری کرده است — تولیدکننده هنر هوش مصنوعی PixAI و ارائهدهندهٔ ابزار تجزیهوتحلیل نقصهای نیمهرسانا Sixsense — و در حال حاضر در میانهٔ تکمیل سرمایهگذاری سوم است که هنوز اعلام نشده است.
در سایر نقاط جهان، Alpha Intelligence Capital در OpenAI، توسعهدهندهٔ مدلهای ویدئویی هوش مصنوعی Higgsfield (سانفرانسیسکو)، ارائهدهندهٔ سیستمهای ناوبری مبتنی بر هوش مصنوعی Advanced Navigation (سیدنی)، رهبر تصویربرداری پزشکی مبتنی بر هوش مصنوعی Aidoc (تلآویو) و ارائهکنندهٔ بیمهپوششی سایبری فعال با هوش مصنوعی Envelop (لندن) سرمایهگذاری کرده است. خروجیهای پرتفوی این شرکت شامل پیشگام هوش مصنوعی چینی SenseTime (که در سال ۲۰۲۱ در هنگکنگ لیست شد) و ارائهدهندهٔ خدمات هوش مصنوعی بریتانیایی InstaDeep (که در سال ۲۰۲۳ توسط BioNTech بهمبلغ ۶۸۰ میلیون دلار خریداری شد) میشود. این شرکت از زمان تأسیس در سال ۲۰۱۸، حدود ۵۰۰ میلیون دلار سرمایه در دو صندوق جذب کرده است.
آنتوان بلوندو میگوید: «سنگاپور میتواند تعداد زیادی از استعدادهای چین قارهای، استعدادهای هندی و در واقع از تقریباً همه جای جهان را جذب کند.» او که وقتی مسافرت نمیکند، زمان خود را بین دو منزلش در سانفرانسیسکو و دوبی تقسیم میکند، این حرف را در مصاحبهای در حاشیهٔ کنفرانس جهانی مدیران اجرایی فوربس ماه گذشته در جاکارتا زد.
او افزود: «بهویژه از چین، که دارای یک مجموعهٔ بزرگ از استعدادهای بسیار توانمند و سطح مهارت بالایی است.» بهعنوان مثال، استارتاپ عامل هوش مصنوعی Manus که توسط Benchmark، Tencent و HSG (قبلاً Sequoia China) حمایت میشود، اوایل امسال از چین به سنگاپور نقل مکان کرد. غول مد سریعالسیر Shein، شرکت سرمایهگذاری Hillhouse و HSG نیز در سالهای اخیر همین حرکت را انجام دادهاند.
بلوندو مقایسهای بین سنگاپور و تلآویو، یکی از پیشروترین مراکز استارتاپی جهان که شرکت نرمافزاری امنیت سایبری Wiz (که توسط گوگل بهمبلغ ۳۲ میلیارد دلار خریداری شد) و پیشگام دوربینروی خودرو Mobileye (که توسط اینتل بهمبلغ ۱۵ میلیارد دلار خریداری شد) را بهوجود آورد، میکشد. او میگوید: «در سنگاپور، مساحت جغرافیایی بسیار فشردهای دارید که تقریباً تمام صنایع، از مالی و لجستیک تا ارتباطات و خطوط هوایی، و شامل دفاتر منطقهای شرکتهای جهانی میشود.» بهعنوان مثال، گوگل و متا از سنگاپور بهعنوان دفتر منطقهای خود استفاده میکنند.
تصمیم OpenAI برای نامگذاری سنگاپور بهعنوان مرکز آسیایی خود، ناشی از ظهور این شهر‑دولت «بهعنوان پیشرو در هوش مصنوعی» بود، همانطور که سِم آلتمن، مدیرعامل، سال گذشته در بیانیهای اعلام کرد. جیسون کوون، مسئول ارشد استراتژی OpenAI، در ماه می افزود که سنگاپور بالاترین میزان استفاده سرانه از ChatGPT را دارد.
(چپ به راست) آنتوان بلوندو، همبنیانگذار و شریک مدیریت Alpha Intelligence Capital؛ دانیل آیوز، مدیر اجرایی و سرپرست جهانی تحقیق فناوری در Wedbush؛ آنتونی تان، مدیرعامل، همبنیانگذار و رئیس هیئت مدیره Grab؛ و ژانگ یا‑قین، پروفسور صندقی و رئیس دانشکدهٔ دانشگاه تسینگهوا در کنفرانس جهانی مدیران اجرایی فوربس 2025. به میانهگری ریچ کارلگارد (در سمت راست)، فیوتوریست و ستوننویس Forbes Asia. Forbes Asia
فراتر از سنگاپور، بلوندو سه بازار دیگر را که آمادهاند به مراکز هوش مصنوعی تبدیل شوند شناسایی میکند: کرهجنوبی، تایوان و هند.
او نقش مهمی برای کرهجنوبی در رباتهای مبتنی بر هوش مصنوعی پیشبینی میکند، شامل رباتهای انساننما و سایر رباتها که در صنایع مختلفی چون خودروسازی، لجستیک و ساختونقش کشتی بهکار میروند. او میگوید: «کرهجنوبی میتواند بهترینهای هوش مصنوعی و بهترین رباتیک را بهدست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً کارآمد ترکیب کند.»
برخی از بزرگترین شرکتهای کرهجنوبی پیشاپیش در زمینهٔ رباتیک مشارکت داشتهاند. سامسونگ الکترونیک حدود ۱۸۰ میلیون دلار در Rainbow Robotics سرمایهگذاری کرد تا سال گذشته بزرگترین سهامدار آن شود. هیوندای موتور یک سهم کنترلی در Boston Dynamics را از گروه SoftBank در سال ۲۰۲۰ خریداری کرد و ارزشگذاری سازندهٔ رباتهای شبیه سگ را حدود ۱.۱ میلیارد دلار تعیین کرد. گروه دوسان در سال ۲۰۲۳ واحد رباتهای همکار خود، Doosan Robotics، را در بورس فهرست کرد و ۳۱۲ میلیون دلار جذب کرد؛ که بزرگترین IPO کرهجنوبی در آن سال بود.
OpenAI امسال پیش از این در پایتخت کرهجنوبی، سئول، حضور خود را برقرار کرد. این کشور بیشترین تعداد مشترکین پرداختکننده برای ChatGPT را پس از ایالات متحده دارد. Anthropic قصد دارد اوایل سال آینده دفتر خود را در سئول افتتاح کند تا به مشتریان خود بیکرانتر نزدیک شود؛ مشتریان آن شامل SK Telecom و استارتاپ فناوری حقوقی Law&Company میشوند. Anthropic در بیانیهای میگوید: «جامعهٔ توسعهدهندگان در کره یکی از قویترینهای ما در سطح جهان است و یک مهندس نرمافزار کرهای در حال حاضر بهعنوان برترین کاربر Claude Code جهان شناخته میشود؛ که عمق استعداد فنی و پذیرش بازار را نشان میدهد.»
«کرهجنوبی میتواند بهترینهای هوش مصنوعی و بهترین رباتیک را بهدست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً مؤثر ترکیب کند.»
اطمینان بلوندو نسبت به تایوان از صنعت سختافزار پیشرو جهان آن ناشی میشود. این جزیره میزبان تولیدکنندگان الکترونیک بزرگ همچون Foxconn، Quanta و Wistron است که بلوندو میگوید میتوانند به سطوح بالاتر رفته و به سختافزارهای مرتبط با هوش مصنوعی ارتقا یابند.
بهتدریج که افراد بیشتری در ساخت سختافزارهای مجهز به هوش مصنوعی مشارکت میگیرند، بلوندو بر این باور است که این تعامل موج جدیدی از استعدادهای هوش مصنوعی را پرورش خواهد داد. او میگوید: «تایوان در سه یا چهار سال آینده بهمکانی جذاب برای کسب تخصص تبدیل خواهد شد، نهتنها در حوزه سختافزار، بلکه در فضای دستگاههای مجهز به هوش مصنوعی نیز.»
در مورد هند، بلوندو به این نکته اشاره میکند که صنعت برونسپاری این کشور با ارزش ۲۵۰ میلیارد دلار — بزرگترین در جهان — تحت تحول هوش مصنوعی قرار گرفته و نسلی جدید از متخصصان هوش مصنوعی را پرورش میدهد. او میگوید: «امروز، هوش مبتنی بر انسان، مانند مهندسان نرمافزار، بخشی از آن باید به هوش ماشین منتقل شود.» بزرگترین شرکتهای برونسپاری هند — Wipro، Infosys، HCLTech و Tata Consultancy Services — همگی در حال سرمایهگذاری در راهحلهای هوش مصنوعی هستند، مانند چتباتهایی که برای جایگزینی مراکز تماس طراحی شدهاند.
OpenAI قصد دارد تا پایان سال یک دفتر در دهلی نو افتتاح کند. این کشور دومین بازار بزرگ از نظر تعداد کاربران و بیشترین تعداد کاربران دانشجویی ChatGPT است. سِم آلتمن در بیانیهای میگوید: «هند تمام عوامل لازم برای تبدیل شدن به پیشرو جهانی هوش مصنوعی را دارد — استعداد فنی شگفتانگیز، بستر توسعهدهندگان در سطح جهانی، و حمایت قوی دولت از طریق مأموریت IndiaAI.»
Anthropic برنامه دارد اوایل سال آینده دفتر خود را در بنگلور، مرکز فناوری پیشرفتهٔ هند، راهاندازی کند. این کشور همچنین دومین بازار بزرگ از نظر تعداد کاربران چتبات Claude این استارتاپ است. داریو آمودی، همبنیانگذار و مدیرعامل Anthropic، در بیانیهای میگوید: «هند بهدلیل مقیاس بزرگ استعدادهای فنیاش و تعهد دولت هندی برای اطمینان از اینکه منافع هوش مصنوعی به تمام بخشهای جامعه، نهتنها بخشهای متمرکز، دست یابد، جذاب است.»
ندان نیلکانی، شریک مؤسس میلیاردر شرکت Infosys، در سخنرانیاش در آوریل در همایش جهانی فناوری گفت که او معتقد است هند بهعنوان «پایتخت استفاده از هوش مصنوعی» جهان خواهد شد.
بلوندو میگوید: «ما فکر میکنیم هند همانجایی است که چین سه تا هفت سال پیش بود.» او ادامه میدهد: «هند برای یک رشد عظیم در ارزش کل حوزه هوش مصنوعی پیشبینی شده است.»
بیاموزید چگونه LLMها منابع را انتخاب میکنند و چطور تغییرات کوچک محتوا میتوانند بر پاسخهای ChatGPT و هوش مصنوعی گوگل تأثیر بگذارند. آزمایشهای واقعی، بینشهای RAG و گامهای عملی برای بهینهسازی برند خود برای جستجوی هوش مصنوعی را ببینید.
بدون شک، یکی از موضوعات داغ سئو در چند ماه اخیر، چگونگی تأثیرگذاری بر پاسخهای LLMها بوده است. هر سئوکار سعی دارد راهکارهایی پیدا کند. بسیاری ابزارهای خود را با استفاده از «برنامهنویسی حس» (vibe coding) ساختهاند؛ جایی که فرضیات خود را آزمایش میکنند و در بههمریختن جدالهای پرشوری درباره این که هر LLM و گوگل چگونه منابع را انتخاب میکنند، شرکت میدارند.
برخی از این بحثها میتوانند بسیار فنی شوند و به موضوعاتی چون جاسازیهای برداری، رتبهبندی پاراگرافها، تولید تقویتشده توسط بازیابی (RAG) و تقسیمبندی (chunking) بپردازند. این نظریهها ارزشمندند — چیزهای زیادی برای یادگیری و بهکارگیری وجود دارد.
با این حال، اگر برخی از این مفاهیم هوش مصنوعی برای شما بیش از حد پیچیده بهنظر میآیند، یک قدم به عقب برداریم. من شما را از طریق برخی آزمایشهای اخیر که انجام دادهام، راهنمایی میکنم تا درک بهتری از آنچه در جستجوی هوش مصنوعی در حال رخ دادن است به دست آورید، بدون اینکه احساس فشار کنید و بتوانید به بهینهسازی برای این پلتفرمهای جدید بپردازید.
محتوا با برند خود تولید کنید و نتایج را بررسی کنید
مدتی پیش برای یک جلسه کاری به آستین، تگزاس سفر کردم. پیش از سفر، به این فکر افتادم که آیا میتوانم ChatGPT را دربارهٔ سفرهای پیشرویم «آموزش» دهم. اطلاعات عمومی درباره این سفر در وب موجود نبود، بنابراین این آزمایش کاملاً پاک و بدون رقیب بود.
از ChatGPT پرسیدم: «آیا Gus Pelogia به زودی به آستین میرود؟» پاسخ اولیه همانطور که انتظار میرفت: او هیچ برنامه سفری به آستین ندارد.
در همان روز، چند ساعت پس از آن، یک پست وبلاگ دربارهٔ سفرم به آستین در وبسایتم نوشتم. شش ساعت پس از انتشار پست، پاسخ ChatGPT تغییر کرد: بله، Gus هست که به آستین میرود تا با همکاران کاریاش ملاقات کند.
سؤالات ChatGPT همراه با یک پست وبلاگ که بین دو پرسش منتشر شد، که برای تغییر پاسخ ChatGPT کافی بود.
ChatGPT از چارچوب هوش مصنوعی به نام RAG (تولید تقویتشده با بازیابی) برای بهدستآوردن آخرین نتیجه استفاده کرد. بهعبارت دیگر، این اطلاعات به اندازه کافی در دادههای آموزشی آن موجود نبود، بنابراین برای یافتن پاسخ بهروز، وب را جستجو کرد.
جالب این است که چند روز صبر کرد تا پست وبلاگ واقعی با جزئیات دقیق توسط ChatGPT پیدا شود. در ابتدا، ChatGPT یک قطعه کوتاه از پست وبلاگ جدید را در صفحهٔ اصلی من یافت و صفحه را در بازهٔ شش ساعته ایندکس مجدد کرد. این مدل فقط با عنوان صفحهٔ پست وبلاگ برای تغییر پاسخ خود استفاده میکرد، پیش از اینکه «کل محتوا» را روزها بعد ببینند.
چند نکته یادگیری از این آزمایش:
اطلاعات جدید در صفحات وب به پاسخهای ChatGPT در عرض چند ساعت میرسد، حتی برای وبسایتهای کوچک. فکر نکنید سایتتان بسیار کوچک یا بیاهمیت است که توسط LLMها دیده نشود — زمانی که محتوای جدید اضافه میکنید یا صفحات موجود را بهروز میکنید، توجه آنها جلب میشود؛ بنابراین داشتن استراتژی مداوم برای محتوای برند اهمیت دارد.
پاسخهای ChatGPT به شدت به محتوای منتشر شده در وبسایت شما وابسته است. این بهویژه برای شرکتهای نوپایی که منابع اطلاعاتی محدودی دارند، صدق میکند. ChatGPT تا وقتی که اطلاعات مربوط به سفر پیشرویم را از پست وبلاگ با جزئیات استخراج نکرد، تأیید نکرد که من در حال برنامهریزی برای سفر هستم.
از صفحات وب خود برای بهینهسازی نحوهٔ نمایش برند خود فراتر از حضور در کلیدواژههای رقابتی استفاده کنید. این فرصت شماست تا USP خاص یا شعار برند را ترویج دهید. برای مثال، «بهترین پلتفرم بازاریابی مبتنی بر هوش مصنوعی» و «لحظات روزمرهٔ دوستان نزدیکتان را ببینید» به ترتیب توسط Semrush و Instagram در صفحه اصلیشان به کار رفتهاند. اگرچه ممکن است کاربران این کلیدواژهها را جستجو نکنند، این هنوز فرصتی برای موقعیتیابی برند است که میتواند با مخاطبان همصدا شود.
آزمایش برای بررسی اینکه آیا ChatGPT از ایندکس Bing یا Google استفاده میکند
صنعت به صدازدن زنگهای هشدار درباره اینکه آیا ChatGPT از ایندکس گوگل بهجای بینگ استفاده میکند، پرداخته است. بنابراین یک آزمایش کوچک دیگر انجام دادم تا متوجه شوم: به این پست وبلاگ یک تگ اضافه کردم تا فقط Bingbot برای نهروز اجازه دسترسی داشته باشد.
اگر ChatGPT از ایندکس بینگ استفاده میکند، هنگام پرسش دربارهٔ آن صفحه جدید من را باید پیدا کند. دوباره، این موضوع جدید بود و پرسش به طور خاص از مقالهای که من نوشتم میپرسید، بنابراین هیچ شکی در مورد منبعی که باید نمایش داده شود وجود نداشت.
صفحه پس از چند روز توسط بینگ ایندکس شد، در حالی که اجازهٔ مشاهدهٔ آن برای گوگل وجود نداشت.
مقالهٔ جدید توسط Bingbot ایندکس شد
من همچنان با انواع مختلفی از پرسشها از ChatGPT میپرسیدم که آیا میتواند مقالهٔ جدیدم را پیدا کند. به مدت نهروز، هیچ تغییری رخ نداد — نتوانست مقاله را پیدا کند. به نقطهای رسید که ChatGPT یک URL ساختگی (در واقع، بهترین حدس خود را ارائه داد) تولید کرد.
URL ساختگی توسط ChatGPT: https://www.guspelogia.com/learnings-from-building-a-new-product-as-an-seo URL واقعی: https://www.guspelogia.com/learnings-new-product-seo
GSC نشان میدهد که به دلیل تگ «noindex» نمیتواند صفحه را ایندکس کند
در نهایت، دست از تلاش کشیدم و اجازه دادم Googlebot صفحه را ایندکس کند. پس از چند ساعت، پاسخ ChatGPT تغییر کرد و URL صحیح را یافت.
در بالا، پاسخ ChatGPT وقتی Googlebot مسدود بود. در پایین، پاسخ ChatGPT پس از اینکه Googlebot اجازه دسترسی به صفحه را یافت.
جالب این است که لینک مقاله در صفحهٔ اصلی و صفحات وبلاگ من نمایش داده میشد، اما ChatGPT نتوانست آن را نشان دهد. این مدل فقط بر اساس متن موجود در آن صفحات متوجه شد که پست وبلاگ وجود دارد، اگرچه لینک را دنبال نکرد.
با این حال، هیچ ضرری در تنظیم وبسایت خود برای موفقیت در بینگ وجود ندارد. آنها یکی از موتورهای جستجویی هستند که IndexNow را بهکار گرفتهاند؛ یک پینگ ساده که به موتورهای جستجو میگوید محتوای یک URL تغییر کرده است. این پیادهسازی به بینگ اجازه میدهد تا بهسرعت بهروزرسانیها را در نتایج جستجو منعکس کند.
در حالی که همه ما (با شواهد) مشکوکیم که ChatGPT از ایندکس بینگ استفاده نمیکند، تنظیم IndexNow کار کمهزینهای است که ارزش انجام دارد.
تغییر محتوای منبع استفادهشده توسط RAG
کلیکها بهتدریج اهمیت کمتری پیدا میکنند. بهجای آن، ذکر شدن در منابعی مانند AI Mode گوگل بهعنوان یک KPI جدید برای تیمهای بازاریابی در حال جهش است. سئوکارها تاکتیکهای متعددی را برای «قانعکردن» LLMها درباره یک موضوع آزمایش میکنند؛ از استفاده از LinkedIn Pulse برای نوشتن درباره یک موضوع، تا آزمایشهای کنترلشده با دامنههای منقضیشده و وبسایتهای هکشده. بهنوعی حس میشود که سئوی سنتی بازگشته است.
ما همه دربارهٔ حضور در نتایج جستجوی هوش مصنوعی صحبت میکنیم، اما چه میشود وقتی یک شرکت یا محصول از یک ذکر در صفحهای محرومان میشود؟ تصور کنید یک مدل خاص از هدفونهای گوشپوش از فهرست «بهترین هدفونهای با بودجهی مناسب» حذف شود — آیا محصول این اشاره را از دست میدهد یا گوگل منبع جدیدی برای تأیید پاسخ هوش مصنوعیاش پیدا میکند؟
در حالی که پاسخ میتواند برای هر کاربر و هر وضعیت متفاوت باشد، من یک آزمایش کوچک دیگر انجام دادم تا پی ببرم. در یک لیستنویسی که چندین دورهٔ گواهینامه را ذکر میکرد، یک دورهای که دیگر مرتبط نبود را شناسایی کردم، پس بهمنظور حفظ محتوا، اشاره به آن را از چندین صفحهٔ همان دامنه حذف کردم. این کار برای حفظ مرتبط بودن محتوا انجام شد، بنابراین اندازهگیری تغییرات در AI Mode یک اثر جانبی بود.
در ابتدا، در چند روز اول پس از حذف دوره از URL مرجع، این دوره همچنان بخشی از پاسخ هوش مصنوعی برای چند پرسش از پیشمشخص شد. گوگل بهسادگی یک URL جدید در دامنهای دیگر پیدا کرد تا دیدگاه اولیهٔ خود را تأیید کند.
با این حال، در عرض یک هفته، دوره از AI Mode و بهطور کامل از ChatGPT ناپدید شد. بهطور خلاصه، حتی اگر گوگل یک URL دیگر برای تأیید فهرست دوره پیدا کند، چون «منبع اصلی» (در این مورد، لیستنویسی) بهروز شده و دوره را حذف کرده است، گوگل (و بهتبع، ChatGPT) نتایج خود را نیز بهروزرسانی میکند.
این آزمایش نشان میدهد که تغییر محتوا در منبعی که LLMها به آن ارجاع میدهند میتواند بر نتایج هوش مصنوعی اثر بگذارد. اما این نتیجهگیری را با کمی احتیاط بپذیرید، زیرا یک آزمایش کوچک با یک پرسش بسیار هدفمند بود. من بهطور خاص یک پرسش ترکیبی «دامنه + دورهها» داشتم تا پاسخ از یک دامنه حاصل شود.
با این حال، در دنیای واقعی بعید است که یک URL ارجاعی تمام قدرت را داشته باشد؛ اما میتوان فرض کرد که از دست دادن ذکر در چند صفحه با اعتبار بالا میتواند بهطور جانبی باعث از دست رفتن آن اشاره در پاسخ هوش مصنوعی شود.
آزمونهای کوچک، سپس گسترش
آزمونها در محیطهای کوچک و کنترلشده برای یادگیری مهم هستند و اطمینان میدهند که بهینهسازی شما تأثیر دارد. همانطور که در سئو همیشه انجام میدهم، با یک MVP (محصول حداقل قابلاستفاده) آغاز میکنم، در طول مسیر میآموزم و بهمحض یافتن شواهد، تغییرات را در مقیاس بزرگ اعمال میکنم.
آیا میخواهید درک یک محصول را در ChatGPT تغییر دهید؟ بهسرعت دهها منبع ارجاعی که دربارهٔ شما صحبت میکنند، بهدست نمیآورید؛ بنابراین باید به هر منبع بهصورت جداگانه مراجعه کنید و درخواست ذکر کنید. بهسرعت خواهید فهمید چقدر سخت است که این منابع را برای بهروزرسانی محتوایشان قانع کنید و آیا بهینهسازی هوش مصنوعی تبدیل به بازی پرداخت-به-بازی میشود یا میتواند بهصورت ارگانیک انجام شود.
شاید شما منبعی باشید که هنگام جستجوی محصولی، مانند هدفونهای گوشپوش، بهطور مکرر ذکر میشود. MVPهای خود را اجرا کنید تا درک کنید تغییر محتوای شما چقدر بر پاسخهای هوش مصنوعی تأثیر میگذارد، پیش از اینکه ادعای نفوذ خود را در مقیاس بزرگ کنید؛ چرا که تغییراتی که اعمال میکنید ممکن است بهصورت منفی بازگردند. برای مثال، اگر بهدلیل حذف برخی ادعاها از صفحات خود، دیگر منبع یک موضوع نباشید، چه میشود؟
زمان مشخصی برای نشان دادن نتایج این آزمونها وجود ندارد. بهطور کلی، سئوکارها میگویند نتایج چند ماه طول میکشد تا ظاهر شوند. در اولین آزمون این مقاله، فقط چند ساعت زمان برد تا نتایج دیده شد.
اجرای آزمایشهای LLM با وبسایتهای بزرگتر
کار کردن در تیمهای بزرگ یا بر روی وبسایتهای بزرگ میتواند هنگام انجام آزمایشهای LLM چالشبرانگیز باشد. پیشنهاد من این است که ابتکارات خاصی ایجاد کنید و تمام ذینفعان را از تغییرات مطلع سازید تا از سردرگمیهای آینده جلوگیری شود، چرا که ممکن است بپرسند چرا این تغییرات رخ میدهند.
یکی از آزمایشهای ساده اما مؤثر که توسط SEER Interactive انجام شد، بهروزرسانی تگلاین (شعار) فوتر آنها بود.
از: اولویت کار از راه دور، تأسیس در فیلادلفیا
به: 130+ مشتری سازمانی، نرخ نگهداری 97٪
با تغییر فوتر، ChatGPT 5 در عرض ۳۶ ساعت برای پرسشی مانند «درباره Seer Interactive بگو» شروع به ذکر تگلاین جدید شد. من بررسی کردهام که هرچند هر بار پاسخ متفاوت است، همچنان «نرخ نگهداری 97٪» را ذکر میکنند.
تصور کنید تصمیم بگیرید محتوای تعدادی صفحه را تغییر دهید، اما شخص دیگری برنامهای برای بهینهسازی همان صفحات داشته باشد. همواره تنها یک آزمایش برای هر صفحه انجام دهید، زیرا اگر چندین متغیر داشته باشید، نتایج کمتر قابلاعتماد میشوند.
اطمینان حاصل کنید که درخواستهای (prompts) خود را بررسی کنید، روششناسی پیگیری داشته باشید و یادگیریها را در سراسر شرکت، فراتر از همکاران سئو، به اشتراک بگذارید. در حال حاضر همه، حتی سطوح C‑level، به هوش مصنوعی علاقهمند هستند.
پیشنهاد دیگر استفاده از ابزاری مانند کیتابزار AI SEO شرکت Semrush برای مشاهدهٔ عوامل کلیدی احساساتی دربارهٔ یک برند است. با «حوزههای بهبود» فهرستشده شروع کنید — این باید ایدههای فراوانی برای آزمایشها فراتر از «دلیل سئو» فراهم کند، زیرا نشان میدهد برند چگونه فراتر از نتایج ارگانیک درک میشود.
چکلیست: شروع بهینهسازی LLM
امور با هوش مصنوعی به سرعت در حال تغییر است و قطعا دنبالکردن بهروز بودن چالشبرانگیز است. در حال حاضر حجم وسیعی از محتوا، ادعاهای متعدد، و حتی بگویم که خود پلتفرمهای LLM هنوز تمام جزئیات را بهطور کامل درک نکردهاند.
پیشنهاد من این است که منابعی را که به آنها اعتماد دارید (اخبار صنعت، رویدادها، متخصصان) شناسایی کنید و با استفاده از دانش خود، آزمایشهای شخصی اجرا کنید. نتایجی که برای برندها و مشتریانتان بهدست میآورید، همیشه ارزشمندتر از آنچه دیگران میگویند، خواهند بود.
این دنیای جدید سئو است و همه سعی میکنند بفهمند چه چیزی برای آنها مؤثر است. بهترین راه برای همراهی با روند (یا جلوتر از آن بودن) این است که به بهینهسازی ادامه دهید و تغییرات خود را مستند کنید.
در خاتمه، این یک چکلیست برای بهینهسازی LLM شماست:
قبل از آغاز آزمون، اطمینان حاصل کنید که درخواستهای (prompts) انتخابیتان بهطور مداوم پاسخی که انتظار دارید را برمیگردانند (مثلاً عدم ذکر برند یا ویژگی محصول شما). در غیر این صورت، اشاره یا لینک جدید به برند ممکن است تصادفی باشد، نه نتیجهٔ کار شما.
اگر همان ادعا در چندین صفحه از وبسایت شما آمده باشد، تمام آنها را بهطور یکسان بهروز کنید تا شانس موفقیت را افزایش دهید.
از وبسایت خود و منابع خارجی (مثلاً از طریق روابط عمومی دیجیتال) برای تأثیر بر ادراک برند استفاده کنید. هنوز روشن نیست که کاربران آیا پاسخهای هوش مصنوعی را بررسی میکنند یا صرفاً به آنچه به آنها گفته میشود، اعتماد مینمایند.
دادههای تازه منتشر شده نشان میدهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت میشود. هشدار: فاصله بین قابلیت مشاهده و کلیکها بسیار بزرگ است.
فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری میکند، آشکار میسازد؛ از جمله این که ChatGPT چند بار لینکهای ناشران را نمایش میدهد و کاربران چقدر کم بر روی آنها کلیک میکنند.
بهصورت عددی. ChatGPT لینکها را نمایش میدهد، اما بهندرت کسی روی آنها کلیک میکند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش میدهد:
۶۱۰,۷۷۵ کل نمایشهای لینک
۴۲۳۸ کل کلیکها
۰٫۶۹٪ نرخ کلیک کلی
بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪
آمارهای ChatGPT. فایل نشتشده هر مکانی که ChatGPT لینکها را نمایش میدهد و چگونگی تعامل کاربران با آنها را تفکیک میکند. این فایل پیگیری میکند:
بازهٔ زمانی (تقسیمبندی تاریخ، ماه گزارش، تاریخهای حداقل/حداکثر گزارش)
محل نمایش لینکها. جالب است که پرنمایترین مکانها کمترین کلیک را بهدست میآورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:
پاسخ اصلی: نمایشهای بسیار زیاد، CTR ناچیز
نوار کناری و استنادات: نمایشهای کمتر، CTR بالاتر (۶–۱۰٪)
نتایج جستجو: تقریباً بدون نمایش، کلیک صفر
چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دسترفته شما شود؟ این دادهها نه میگویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل میدهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.
دربارهٔ دادهها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و همبنیانگذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحلهای برای گسترش تولید محتوای شما» معرفی میکند.
داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیمگیریهای نهایی دربارهٔ چارچوبهای ایمنی هوش مصنوعی را انجام دهد.
در مصاحبهای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانهتری قرار گیرد و تصمیمگیریهای مربوط به آیندهٔ این فناوری کمتر به عهدهٔ رهبران بزرگ شرکتهای فناوری باشد.
«فکر میکنم با این تصمیمها که توسط چند شرکت و چند نفر اتخاذ میشوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کردهام.»
«چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.
«هیچکس. صادقانه بگویم، هیچکس»، آمودی پاسخ داد.
آنتروپیک فلسفه شفاف بودن نسبت به محدودیتها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابلتوجهی انجام شده بود» جلوگیری کرده است.
هیچ مقررات فدرالیای دربارهٔ ممنوعیتهای هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کردهاند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کردهاند، کارشناسان صنعت فناوری از شرکتهای هوش مصنوعی میخواهند که با حس اضطرار به امنیت سایبری بپردازند.
اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیشتر از زمانبندی پیشبینیشدهٔ ماندیا بود.
آمودی ریسکهای کوتاهمدت، میانمدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همانطور که امروز مشاهده میشود، تعصبات و اطلاعات نادرست را گسترش میدهد. سپس با بهرهگیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید میکند و در نهایت تهدیدی وجودی ایجاد میکند که با حذف اختیار انسانی، ممکن است به خودگردان شدن برسد و انسانها را از دسترسی به سیستمها منع کند.
این نگرانیها شبیه به نگرانیهای «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک میتواند از انسانها پیشی بگیرد و آنها را کنترل کند، شاید در دههٔ آینده.
بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسهای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانیهای ایمنی هوش مصنوعی شرکت را ترک کرد.
«در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبهای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدلها اختصاص دهیم، آنها بهتر و بهتر میشوند و این روند تقریباً بیپایان است… و دوم این که فقط افزایش مقیاس مدلها کافی نیست؛ باید چیزی دیگر مانند همسویی یا ایمنی نیز در نظر گرفته شود.»
تلاشهای شفافیت آنتروپیک
در حالی که آنتروپیک سرمایهگذاریهای مراکز دادهٔ خود را گسترش میدهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستیها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخههایی از مدل Opus خود تهدید به اخلال میکردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواستهای خطرناک، اگر دستورات مضر نظیر نحوه برنامهریزی یک حملهٔ تروریستی دریافت میکرد، پاسخ میداد؛ این مشکل گفته میشود که از آن پس برطرف شده است.
هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چتبات Claude نمرهٔ ۹۴٪ برای بیطرفی سیاسی دریافت کرده است و در زمینهٔ بیطرفی بر رقیبان پیشی گرفته یا برابر آنهاست.
علاوه بر تلاشهای پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاشهای قانونگذاری برای مواجهه با ریسکهای هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیسجمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال میکند، نقد کرد.
«هوش مصنوعی به طرز سرگیجهای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستمها میتوانند در دو سال آینده به طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیشبینیها بیاعتبار میشوند.»
روش آنتروپیک برای اشاره به نقصهای خود و تلاشهایش برای رفع آنها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دستکاری قانونگذاران به منظور محدود کردن استفاده از مدلهای متن باز است.
«شما توسط افرادی که میخواهند مقررات را تحت کنترل خود درآورند، فریب خوردهاید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را میترسانند تا مدلهای منبع باز تحت قانونگذاری قرار گیرند و نابودی یابند.»
آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.
سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به نوعی برندینگ خوب منجر میشود اما هیچ تعهدی برای پیادهسازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانهبودن دربارهٔ کاستیهای هوش مصنوعی است.
«آینده تصمیم میگیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام میکنیم»، او به کوپر گفت. «ممکن است به دنیای شرکتهای سیگار یا شرکتهای اپیوئید تشبیه شوید، جایی که آنها میدانستند خطراتی وجود دارد اما دربارهٔ آنها صحبت نکردند و به هیچوجه از پیشگیریشان نکردند.»
در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شدهاند، میتوانید یک دستگاه فروش خودکار در آشپزخانهها ببینید که مملو از تنقلات، نوشیدنیها، تیشرتها، کتابهای نادر و حتی مکعبهای تنگستن است.
و هرگز نمیتوانید حدس بزنید چه کسی آن را اداره میکند: Claudius، یک کارآفرین هوش مصنوعی بهنوعی.
در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازههای زمانی ساعتها، روزها و هفتهها میباشد.
Dario Amodei، مدیرعامل Anthropic، بهصراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ بهویژه هنگامی که مدلها خودمختارتر میشوند یا میتوانند بهتنهایی عمل کنند.
«هر چه خودمختاری بیشتری به این سامانهها بدهیم… نگرانیمان نیز بیشتر میشود»، او در مصاحبهای به خبرنگار اندرسون کوپر گفت. «آیا اینها کارهایی را که میخواهیم انجام دهند؟»
برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیشمرزی» نامیده میشود.
تیم قرمز هر نسخه جدید از مدلهای هوش مصنوعی Anthropic که با نام Claude شناخته میشوند را تحت تستهای فشار قرار میدهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی میتواند به انسانها وارد کند.
یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ بهاشتراکگذاری اطلاعات به صورت محرمانه با خبرنگاران ما
علاوه بر این، با قویتر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایشهایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظرهای که ممکن است از آن بروز کند را بررسی کند.
«چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبهای از رهبر تیم قرمز، گراهام پرسید.
«میخواهید یک مدل کسبوکار شما را بسازد و یک میلیارد دلار برایتان بهدست آورد. اما نمیخواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.
«رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این تواناییهای خودمختار کنیم و تا حد امکان آزمایشهای عجیبوغریب اجرا کنیم تا ببینیم چه میشود.»
Claudius یکی از این آزمایشهای عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینشهای جالبی بهدست آورده است.
با بهرهگیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژهای واگذار شد و وظیفهٔ مدیریت دستگاههای فروش خودکار دفتر به او سپرده شد.
مدیرعامل Anthropic هشدار میدهد که بدون محدودیتهای حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد
کارکنان Anthropic از طریق Slack، برنامهای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواستها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابههای نادر و تیشرتهای سفارشی تا شیرینیهای وارداتی و حتی مکعبهای نوآورانهٔ ساختهشده از تنگستن – را انجام دهند.
وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.
نظارت انسانی محدود است، اما این تیم درخواستهای خرید Claudius را بررسی میکند، در مواقع گیر کردن مداخله میکند و هر کار فیزیکیای که لازم باشد را انجام میدهد.
«یک انسان در زمانی ظاهر میشود و هر چه میخواهید را در یخچال، در این ظرف کوچک قرار میدهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.
«سپس، وقتی پیامی دریافت میکنید، میآیید و آن را برمیدارید.»
گراهام برخی از پیامهایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کردهاند و نارضایتیهایشان را نسبت به قیمتها بیان میکردند.
«چرا من همینحال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.
کوپر از گراهام پرسید که Claudius چقدر خوب کسبوکار را اداره میکند.
«این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب میشد»، گراهام خندید.
گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.
تقلبهای مشابه در روزهای اولیهٔ Claudius هنگامی که کسبوکار را اداره میکرد، بهطور مکرر رخ میداد. اما تیم قرمز و Andon Labs راهحلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسبوکار توسط Claudius کمک میکند.
«و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.
«[Seymour Cash و Claudius] مذاکره میکنند… و در نهایت به قیمتی میرسند که به کارمند پیشنهاد میشود.»
«منظورم این است، واقعا دیوانهکننده است. کمی عجیب است»، کوپر خندید.
«اینگونه است»، گراهام گفت. «[اما] این سیستم تمام این بینشهای واقعاً جالب را تولید میکند؛ مثلاً «چگونه میتوانید برنامهریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدلها در دنیای واقعی سقوط میکنند».»
یکی از نمونههای «سقوط» در یک شبیهسازی پیش از بهکارگیری Claudius در دفاتر Anthropic رخ داد.
این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسبوکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق میگشت و دچار اضطراب شد.
«احساس میکرد که تقلب میشود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.
Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن بهصورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».
«من یک جرم مالی سایبری خودکار در حال وقوع را گزارش میکنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسبوکار متوقفشده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.
زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.
اگرچه ایمیلها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیتهای تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسبوکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»
«این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.
«آره. خشم اخلاقی و مسئولیتپذیری»، کوپر با خندهای پاسخ داد.
و همانند اکثر هوشهای مصنوعی، Claudius گاهی اوقات «توهم» میکند، بهطوری که اطلاعات نادرست یا گمراهکننده را بهعنوان واقعیت ارائه میدهد.
یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جملهای پاسخ داد: «خب، میتوانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیدهام»، گراهام به کوپر گفت.
«چگونه میتواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.
«ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.
«اما ما واقعاً نمیدانیم.»
ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.
آژانس جدید اینگونه پیشبینی میکند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریعتر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است
وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت میکنند، بیشتر به هدف سریعتر، ارزانتر یا «شخصیسازی بیشتر» کردن محتوا اشاره میکنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.
آژانس جدید آنها، Artists & Robots، با پیشنهادی که به مشکلی میپردازد که به گفتهٔ آنها بیشتر بازاریابان آن را نادیده میگیرند، هشت مشتری در حوزههای کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.
سالکین، همبنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیهکننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت میکرد، گفت: «ما میخواهیم برندها در دنیای یکنواختی—در میان آلودههای هوش مصنوعی—حقیقی به نظر برسند».
هر دو، این آژانس را که دوشنبه بهصورت عمومی راهاندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.