دسته: هوش مصنوعی

  • کارزارهای تبلیغاتی بزرگ آنلاین، اینترنت را با «محتوای بی‌کیفیت هوش مصنوعی» پر کرده‌اند، می‌گویند پژوهشگران

    تصویر نمایشی از تلفن‌های هوشمند با پرچم‌های چین و روسیه که از صفحه نمایش می‌گریند
    Justine Goode / NBC News; Getty Images

    پژوهشگران در Graphika می‌گویند کارزارهای تبلیغاتی آنلاین، اینترنت را با محتوای تولید شده توسط هوش مصنوعی که کیفیت پایینی دارد، پر کرده‌اند.

    براساس گزارش جدید، بسیاری از بزرگ‌ترین و شناخته‌ترین کارزارهای تبلیغاتی آنلاین که توسط دولت‌ها حمایت می‌شوند، به استفاده از هوش مصنوعی پرداخته‌اند — اما در این زمینه غالباً توانایی کمی نشان می‌دهند.

    این گزارش که توسط شرکت تجزیه و تحلیل شبکه‌های اجتماعی Graphika تهیه شده، نه عملیات تأثیرگذاری آنلاین در حال انجام را مورد بررسی قرار داد — از جمله آن‌هایی که ادعا می‌کند با دولت‌های چین و روسیه ارتباط دارند — و دریافت که همانند بسیاری از پلتفرم‌های اجتماعی، هر یک به‌تدریج از هوش مصنوعی مولد برای تولید تصاویر، ویدئوها، متن‌ها و ترجمه‌ها استفاده می‌کنند.

    پژوهشگران دریافتند که حمایت‌کنندگان کارزارهای تبلیغاتی برای انجام وظایف اصلی مانند تولید محتوا و ساخت شخصیت‌های اینفلوئنسر در شبکه‌های اجتماعی به هوش مصنوعی متکی شده‌اند و برخی از کارزارها را به‌صورت کارآمدتری پیش می‌برند. اما آن‌ها می‌گویند کیفیت این محتوا پایین است و تعامل کمی دریافت می‌کند.

    این نتایج با انتظارات بسیاری از پژوهشگران که پیشرفت روزافزون هوش مصنوعی مولد — هوش مصنوعی‌ای که گفتار، نوشتار و تصاویر انسانی را در عکس‌ها و ویدیوها تقلید می‌کند — همخوانی ندارد. این فناوری در سال‌های اخیر به سرعت پیشرفت کرده و برخی کارشناسان هشدار داده‌اند که تبلیغ‌کنندگان به‌نام کشورهای استبدادی می‌توانند محتویات سنتتیک با کیفیت بالا و قانع‌کننده تولید کنند تا حتی افراد دقیق‌نظر در جوامع دمکراتیک را فریب دهند.

    با این حال، پژوهشگران Graphika به‌وضوح دریافتند که محتوای هوش مصنوعی تولید شده توسط این کارزارهای مستقر، «سرریزهای بی‌کیفیتی» است؛ از گزارشگرهای خبری مصنوعی که در ویدیوهای یوتیوب قانع‌کننده نیستند تا ترجمه‌های ناهموار یا وب‌سایت‌های خبری جعلی که به‌طور ناخواسته در سرفصل‌ها از دستورات هوش مصنوعی استفاده می‌کنند.

    دینا صادک، تحلیل‌گر ارشد در Graphika و یکی از نویسندگان گزارش، گفت: «عملیات‌های تأثیرگذاری به‌طور سیستماتیک ابزارهای هوش مصنوعی را ادغام کرده‌اند و بخش عمده‌ای از آن‌ها محتوای بی‌کیفیت و ارزان قیمت هوش مصنوعی است.» او افزود: «همان‌طور که پیش از این بود که این کارزارها به‌طور منظم از هوش مصنوعی استفاده می‌کردند، بیشترین بخش پست‌های آن‌ها در شبکه‌های اجتماعی غربی توجه کمی یا اصلاً دریافت نمی‌کند.»

    کارزارهای تأثیرگذاری آنلاین که هدفشان تغییر جهت سیاست آمریکا و پخش پیام‌های تفرقه‌انگیز است، حداقل یک دهه پیش آغاز شده‌اند؛ زمانی که آژانس تحقیقاتی اینترنتی مستقر در روسیه حساب‌های متعددی در فیس‌بوک و توییتر ایجاد کرد و سعی در تأثیرگذاری بر انتخابات ریاست‌جمهوری ۲۰۱۶ داشت.

    همان‌طور که در برخی حوزه‌های دیگر مانند امنیت سایبری و برنامه‌نویسی، رشد هوش مصنوعی زمینه تبلیغ آنلاین را متحول نکرده است، اما انجام برخی کارها را خودکارتر کرده است، صادک گفت.

    او افزود: «ممکن است محتوا پایین‌کیفیت باشد، اما به‌صورت وسیعی قابل گسترش است. می‌توانند در جایی بنشینند، شاید فقط یک فرد با فشار دادن دکمه‌ها این همه محتوا را تولید کند.»

    از نمونه‌های ذکر شده در گزارش می‌توان به «دوئپل‌گانگر» اشاره کرد؛ عملیاتی که وزارت عدالت آن را به کرملین مرتبط می‌داند و پژوهشگران می‌گویند از هوش مصنوعی برای ساخت وب‌سایت‌های خبری جعلی که قانع‌کننده نیستند استفاده کرده است؛ و «اسپاموفلوژ» که وزارت عدالت آن را به چین نسبت می‌دهد و این کارزار افراد خبری جعلی هوش مصنوعی تولید می‌کند تا ویدیوهای تفرقه‌انگیز اما غیرقابل‌قبول را در شبکه‌های اجتماعی مانند X و یوتیوب گسترش دهد. گزارش همچنین به چندین عملیات اشاره کرد که از صدای عمیق‌فیک (deepfake) با کیفیت پایین استفاده کرده‌اند.

    یک نمونه از این کارزارها، انتشار دیپ‌فیک‌های سلبریتی‌هایی چون اوپرا وینفری و رئیس‌جمهور پیشین باراک اوباما بود که به‌نظر می‌رسیدند درباره رشد هند در صحنهٔ جهانی اظهار نظر می‌کنند. اما گزارش می‌گوید این ویدیوها غیرقابل‌قبول به‌نظر می‌رسیدند و توجه زیادی جلب نکردند.

    ویدیو دیگری با محوریت روسیه‌پراستی به نام «المپیک فرو ریخت» به‌نظر می‌رسید تا بازی‌های المپیک تابستانی ۲۰۲۴ پاریس را تخریب کند. با ارجاع به فیلم هالیوودی ۲۰۱۳ «ال‌امپوس فرو ریخت»، این ویدیو نسخهٔ هوش مصنوعیِ تام کراس را به تصویر می‌کشید، در حالی که او در هیچیک از این فیلم‌ها حضور نداشته است. گزارش نشان داد که این اثر جز در یک اتاق پژواک کوچک از حساب‌هایی که معمولاً فیلم‌های این کارزار را به‌اشتراک می‌گذارند، توجهی دریافت نکرد.

    سخنگویان سفارت چین در واشنگتن، وزارت امور خارجهٔ روسیه، X و یوتیوب به درخواست‌های اطلاع‌رسانی پاسخ ندادند.

    چنان‌که صادک می‌گوید، حتی اگر تلاش‌های آن‌ها به افراد زیادی نرسد، برای تبلیغ‌کنندگان ارزش دارد که در عصر ربات‌های گفتگوی هوش مصنوعی، اینترنت را پر کنند. شرکت‌های تولیدکننده این ربات‌ها به‌طور مستمر با جمع‌آوری متن‌های موجود در اینترنت، مدل‌های خود را آموزش داده و به‌صورت بازپخش مطالب استفاده می‌کنند.

    مطالعهٔ اخیر موسسهٔ گفتگوی استراتژیک (Institute for Strategic Dialogue)، یک سازمان غیرانتفاعی حامی دموکراسی، نشان داد که اکثر ربات‌های گفتگوی اصلی هوش مصنوعی یا مدل‌های زبانی بزرگ، در پاسخ‌های خود به منابع خبری روسی حمایت‌شده توسط دولت اشاره می‌کنند؛ حتی برخی از این منابع تحت تحریم اتحادیهٔ اروپا قرار دارند.

  • چگونه دزدهای موزه لوور از روان‌شناسی انسانی برای فرار از مشکوک شدن بهره بردند – و آنچه درباره هوش مصنوعی نشان می‌دهد

    Yoan Valat / تصاویر EPA

    در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا می‌شود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را به‌دست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارت‌ترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.

    بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگ‌ها فعال شد). مردان پیش از این‌که کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.

    پژوهشگران سپس فاش کردند که دزدها جلیقه‌های روشن‌دار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آن‌ها با یک بالابر مبلمان، که در خیابان‌های باریک پاریس معمولاً دیده می‌شود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه می‌کرد، استفاده کردند. پوشش کارگری‌شان باعث شد به‌نظر برسد که بخشی از محیط هستند.

    این استراتژی مؤثر بود زیرا ما جهان را به‌صورت عینی نمی‌بینیم. ما آن را از طریق دسته‌بندی‌ها می‌بینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دسته‌بندی‌های اجتماعی که ما به‌عنوان «نرمال» می‌شناسیم، درک کردند و از آن‌ها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانه‌های هوش مصنوعی (AI) به‌طور مشابه عمل می‌کنند و در نتیجه به همان نوع اشتباهات مستعد هستند.

    سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقش‌های اجتماعی را «اجرا» می‌کنند با به‌کارگیری نشانه‌هایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالی‌بودن» به‌عنوان یک پوشش کامل تبدیل شد.

    جامعه‌شناسی نگاه

    انسان‌ها به‌طور مداوم دسته‌بندی‌های ذهنی انجام می‌دهند تا افراد و مکان‌ها را درک کنند. وقتی چیزی در دسته «عادی» جای می‌گیرد، از نگاه ما پنهان می‌شود.

    سیستم‌های هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیت‌های مشکوک در فضاهای عمومی به‌کار می‌روند، به‌صورت مشابهی عمل می‌کنند. برای انسان‌ها، دسته‌بندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.

    اما هر دو سیستم بر الگوهای یادگرفته‌شده به‌جای واقعیت عینی تکیه دارند. چون هوش مصنوعی از داده‌هایی که چه کسی «نرمال» و چه کسی «مشکوک» به‌نظر می‌رسد می‌آموزد، دسته‌بندی‌های موجود در داده‌های آموزشی خود را جذب می‌کند. این امر باعث می‌شود که به تعصب حساس شود.

    دزدهای لوور به‌دلیل انطباق با یک دسته‌بندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند می‌تواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیش‌ازحد قرار می‌گیرند.

    این می‌تواند به این معنا باشد که سامانه تشخیص چهره به‌طور نامتناسبی برخی گروه‌های نژادی یا جنسیتی را به‌عنوان تهدیدهای احتمالی نشان می‌دهد، در حالی که دیگران را نادیده می‌گیرد.

    نگرش جامعه‌شناختی به ما کمک می‌کند بفهمیم که این‌ها مسائل جداگانه‌ای نیستند. هوش مصنوعی دسته‌بندی‌های خود را اختراع نمی‌کند؛ بلکه دسته‌بندی‌های ما را می‌آموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبط‌های امنیتی آموزش داده می‌شود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف می‌شود، همان فرضیات را بازتولید می‌کند.

    همان‌طور که نگهبانان موزه به‌دلیل این‌که دزدها گویی جزئی از محیط بودند، نادیده‌شان گرفتند، هوش مصنوعی نیز می‌تواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان می‌دهد.

    دسته‌بندی، چه انسانی و چه الگوریتمی، یک‌سلاح دو لبه است. این کار به ما کمک می‌کند اطلاعات را به‌سرعت پردازش کنیم، اما در عین حال مفروضات فرهنگی‌مان را نیز در خود جای می‌دهد. هم انسان‌ها و هم ماشین‌ها به شناسایی الگوها متکی‌اند؛ روشی مؤثر اما ناپایدار.

    دیدگاه جامعه‌شناختی نسبت به هوش مصنوعی الگوریتم‌ها را به‌عنوان آینه می‌بیند: آن‌ها دسته‌بندی‌ها و سلسله‌مراتب‌های اجتماعی ما را بازتاب می‌دهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آن‌ها نگاه می‌شد. به‌عبارت دیگر، در زمینه هوش مصنوعی، آن‌ها آزمون طبقه‌بندی را گذراندند.

    از تالارهای موزه تا یادگیری ماشین

    این ارتباط بین ادراک و دسته‌بندی نکته‌ای مهم درباره دنیای رو به‌الگوریتمی ما را آشکار می‌کند. چه نگهبانی باشد که تصمیم می‌گیرد چه کسی مشکوک به نظر می‌رسد و چه هوش مصنوعی که تصمیم می‌گیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دسته‌ها بر پایه‌نشانه‌هایی که به‌نظر عینی می‌آیند اما به‌صورت فرهنگی آموخته شده‌اند.

    زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف می‌شود، این غالباً به این معناست که آن دسته‌بندی‌های اجتماعی را بیش از حد دقیق بازتاب می‌دهد. سرقت لوور به ما یادآوری می‌کند که این دسته‌بندی‌ها تنها نگرش‌های ما را شکل نمی‌دهند، بلکه آنچه در نگاه اول توجه می‌شود را نیز تعیین می‌کنند.

    پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربین‌های جدید و امنیت شدیدتر داد. اما مهم نیست این سیستم‌ها چقدر پیشرفته شوند، آن‌ها همچنان به دسته‌بندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب می‌شود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.

    سرقت لوور به‌عنوان یکی از نمایان‌ترین سرقت‌های موزه‌ای اروپا در خاطره‌ها می‌ماند. دزدها موفق شدند زیرا جامعه‌شناسی ظاهر را تسلط یافتند: آن‌ها دسته‌بندی‌های نرمالی را درک کرد و به‌عنوان ابزار استفاده کردند.

    و با این کار، نشان دادند که چگونه هم افراد و هم ماشین‌ها می‌توانند انطباق را با امنیت اشتباه بگیرند. موفقیت آن‌ها در نور روز تنها پیروزی برنامه‌ریزی نبود؛ بلکه پیروزی تفکر دسته‌بندی‌شده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.

    درس واضح است: پیش از این‌که ماشین‌ها را به‌سوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه می‌بینیم را زیر سؤال ببریم.

  • راننده ایمنی روبوتاکسی تسلا هنگام کار به خواب رفت

    روز دیگر، فاجعه دیگر تسلا که شاید تعجّب نکنیم.

    نوشتهٔ لوئیس پرادا

    ohmichael / Reddit

    سال تسلا به همان روانی پیش می‌رود که از شرکتی که به‌نظر می‌رسد مصمم است تا رهبرش که به‌صورت علنی از نمادهای نازی استفاده می‌کند، ثروتمندترین انسان تاریخ شود، انتظار می‌رفت، حتی وقتی که تمام معیارهای ممکن نشان می‌دهند شرکت در حال فروپاشی است. سودها کاهش یافته‌اند، سبد مدل‌ها به‌سرعت پیر می‌شود، و ایلان ماسک، مدیرعامل، عملاً می‌گوید می‌خواهد یک ارتش رباتی را رهبری کند؛ موضوعی که به‌ویژه ترسناک می‌شود وقتی که او هوش مصنوعی‌اش، گروک، را به یک نو‑نازی‌علاقه‌مند به هیتلر در 4چن تبدیل کرده است.

    به‌نظر می‌رسد صرف‌نظر از کاری که شرکت انجام می‌دهد، در نهایت به اخباری بد و حتی بدتر شدن کسب‌وکار منجر می‌شود. برای مثال: روبوتاکسی‌های تسلا هم‌اکنون در آستین و سانفرانسیسکو می‌چرخند، اما توانایی‌های خودران آن‌ها در بهترین حالت مشکوک است؛ بنابراین برای اطمینان از عدم بروز مشکل، ناظر انسانی داخل خودرو نیاز است.

    ویدیوها توسط VICE

    به گزارش Ars Technica، یک مسافر سانفرانسیسکویی یک ویدیو ۱۲ ثانیه‌ای را در ردیت به اشتراک گذاشت که راننده ایمنی تسلا را در حین حرکت خودرو در خواب عمیق نشان می‌دهد. به‌ گفتهٔ مسافر، این مرد نه یک‌بار، نه دو‌بار، بلکه سه بار در طول سفر سر می‌خوابید. وقتی مسافر سعی کرد این موضوع را به تسلا اطلاع دهد، شرکت پاسخی نداد که به‌نظر منطقی بود.

    بدتر از آن، کاربر دیگری در ردیت ادعا کرد که همان راننده ایمنی را داشته‌اند که همچنان در مسیر ترافیک از تمسکال تا سانفرانسیسکو به خواب رفته بود. کار به‌عنوان راننده ایمنی انسانی قطعاً شغلی عجیب است؛ ترکیبی از نگهدارنده کودک و شناور نجات. Waymo، پیشرو فعلی بازار تاکسی‌های خودران، پیش از اجازهٔ کارمندان برای حضور در جاده‌های عمومی، آموزش‌های گسترده‌ای می‌طلبد.

    از سوی دیگر، به‌نظر می‌رسد تسلا به‌صورت سرسختانه ادامه می‌دهد و امیدوار است مسافران اهمیتی به این نکته ندهند که شخصی که مسئول اطمینان از روانی مسیر است، خروپف می‌کند و آب دهانش از روی چانه‌اش می‌چکد. گویی این همان شعار قدیمی «سریع حرکت کن و چیزها را بشکن» درهٔ سیلیکون است که تا زمانی که چیزی که سریع می‌دود یک خودرو رباتیک است و چیزی که شکسته می‌شود شما در صندلی عقب هستید، جذاب به‌نظر می‌رسد.

    از زمان آغاز آزمایش روبوتاکسی آستین توسط تسلا در ماه ژوئیه، حداقل هفت تصادف گزارش شده است. تسلا داده‌ها را به نهادهای نظارتی ایمنی فدرال ارائه کرده، اما بخشی قابل توجه از آن‌ها را حذف کرده است. این قدمی اطمینان‌بخش از سوی شرکتی است که خودروهای خودران را در ترافیک آزمایش می‌کند. بدتر از آن این است که تسلا هنوز مجوزهای لازم برای ارائهٔ سرویس خودکار حمل‌ونقل در ایالت کالیفرنیا را دریافت نکرده است.

    در حال حاضر، تسلا به‌صورت عمومی به حوادث رانندهٔ خوابیده یا سؤالات مربوط به مجوزها پاسخ نداده است.

  • پرایم‌ویدیو آمازون برای برخی سریال‌های تلویزیونی خلاصه‌های ویدئویی تولیدشده توسط هوش مصنوعی ارائه می‌دهد

    به‌نظر می‌رسد که دوران «و این هم آنچه در گلی از دست دادید» گذشته باشد. پرایم‌ویدیو آمازون، خلاصه‌های ویدئویی تولیدشده توسط هوش مصنوعی را برای کمک به بینندگان در جبران فاصله بین فصول برنامه‌ها اضافه می‌کند، این شرکت روز چهارشنبه اعلام کرد.

    به‌گفته آمازون، این ویژگی «از هوش مصنوعی مولد برای ایجاد خلاصه‌های فصلی با کیفیت تئاتری، همراه با روایت همگام، دیالوگ و موسیقی استفاده می‌کند». این ویژگی به‌صورت نسخهٔ بتا برای برخی از برنامه‌های اصلی پرایم، مانند «Fallout»، «Jack Ryan اثر تام کلانی» و «Upload» از روز چهارشنبه در دسترس خواهد بود.

    پرایم‌ویدیو سال گذشته ویژگی مشابهی به‌نام «X‑Ray Recaps» را راه‌اندازی کرد که فصول کامل، قسمت‌ها یا بخش‌هایی از آن‌ها را خلاصه می‌کند — در آن زمان، آمازون اعلام کرد که مدل هوش مصنوعی آن دارای محدودیت‌هایی است تا از به‌طور ناخواسته به‌اشتراک‌گذاری فاش‌کننده‌ها جلوگیری شود.

    منبع تصویر:پرایم‌ویدیو

    مصرف‌کنندگان به این نوع خلاصه‌های مبتنی بر متن و هوش مصنوعی عادت کرده‌اند، چون معمولاً آن‌ها را هنگام خلاصه‌شدن متن‌ها توسط گوشی خود می‌بینند یا زمانی که (شاید ناخواسته) یک خلاصهٔ هوش مصنوعی در بالای نتایج جستجوی گوگل نشان می‌شود. اما این خلاصه‌های ویدئویی به حوزه‌ای جدید قدم می‌گذارند که ممکن است نسبت به خلاصه‌های متنی مزاحم‌تر به‌نظر برسند — یا شاید توسط افرادی که به‌خاطر ندارند «Bosch» چه رخ داده است، مورد استقبال قرار گیرند.

    رقبای پرایم‌ویدیو نیز در حال بررسی نحوهٔ ادغام هوش مصنوعی مولد در محصولات خود هستند.

    به‌عنوان مثال، YouTube TV از ویژگی «Key Plays» برای کمک به بینندگان در پیگیری مسابقات ورزشی استفاده می‌کند اگر در حین برگزاری بازی تماشا را آغاز کنند. اگرچه این ویژگی کمی ناقص است (الگوریتم آن تنها به‌نظر می‌رسد بتواند نقاط کلیدی حمله در بیسبال را شناسایی کند)، این ویژگی به YouTube TV کمک کرد تا اولین جایزهٔ امی فنی خود را به‌دست آورد.

    در همین حین، نتفلیکس از هوش مصنوعی مولد در بخش تولیدی کسب‌وکار خود بهره می‌گیرد.

    اوایل سال جاری، نتفلیکس اعلام کرد که برای اولین بار از هوش مصنوعی مولد در فیلم‌برداری نهایی سریال آرژانتینی «The Eternaut» برای ایجاد صحنه‌ای از فروپاشی یک ساختمان استفاده کرده است. پس از آن، «Happy Gilmore 2» با استفاده از هوش مصنوعی مولد شخصیت‌ها را در صحنهٔ آغازین فیلم جوان‌تر کرد و تهیه‌کنندگان «Billionaires’ Bunker» از این فناوری در پیش‌تولید برای تجسم لباس‌ها و طراحی صحنه بهره بردند.

    استفاده از هوش مصنوعی در صنعت سینما بحث‌های فراوانی را به‌وجود آورده است؛ زیرا هنرمندان نگرانند این ابزارها — که گاهی بدون اجازه بر آثار آن‌ها آموزش می‌بینند — می‌توانند معیشتشان را به خطر اندازند. اما برخی استدلال می‌کنند که ابزارهایی که کارهای خسته‌کنندهٔ انیمیشن یا جلوه‌های ویژه را تسریع می‌کنند، همچون Wonder Dynamics، می‌توانند ظرفیت خلاقیت هنرمندان را افزایش دهند.

    موضوعات

    هوش مصنوعی، آمازون، پرایم‌ویدیو آمازون، رسانه و سرگرمی، نتفلیکس، پخش ویدئو آنلاین

  • سرمایه‌گذار خطرپذیر آنتوان بلوندو درباره جذاب‌ترین بازارهای هوش مصنوعی در آسیا

    آنتوان بلوندو - فوربس 1
    آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت Alpha Intelligence Capital، در کنفرانس جهانی مدیران اجرایی فوربس 2025 در جاکارتا. Alpha Intelligence Capital

    در سال‌های اخیر، شرکت‌های برتر هوش مصنوعی جهان به‌طور تند به آسیا گسترش یافته‌اند، چرا که منطقه استفاده بالایی از ابزارهای هوش مصنوعی آن‌ها دارد. اما هنوز توافقی دربارهٔ محل تأسیس دفتر مرکزی آسیایی‌شان پیدا نکرده‌اند. به‌عنوان مثال، پیشگام هوش مصنوعی OpenAI، سنگاپور را انتخاب کرد، در حالی که رقیب Anthropic ژاپن را برگزید و Cohere که توسط Nvidia پشتیبانی می‌شود، به کره‌جنوبی رفت.

    برای آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت شرکت سرمایه‌گذاری خطرپذیر متمرکز بر هوش مصنوعی Alpha Intelligence Capital، انتخاب واضح است: سنگاپور. این شرکت مستقر در لوکزامبورگ پیش از این در دو استارتاپ در این شهر‑دولت سرمایه‌گذاری کرده است — تولیدکننده هنر هوش مصنوعی PixAI و ارائه‌دهندهٔ ابزار تجزیه‌وتحلیل نقص‌های نیمه‌رسانا Sixsense — و در حال حاضر در میانهٔ تکمیل سرمایه‌گذاری سوم است که هنوز اعلام نشده است.

    در سایر نقاط جهان، Alpha Intelligence Capital در OpenAI، توسعه‌دهندهٔ مدل‌های ویدئویی هوش مصنوعی Higgsfield (سان‌فرانسیسکو)، ارائه‌دهندهٔ سیستم‌های ناوبری مبتنی بر هوش مصنوعی Advanced Navigation (سیدنی)، رهبر تصویربرداری پزشکی مبتنی بر هوش مصنوعی Aidoc (تل‌آویو) و ارائه‌کنندهٔ بیمه‌پوششی سایبری فعال با هوش مصنوعی Envelop (لندن) سرمایه‌گذاری کرده است. خروجی‌های پرتفوی این شرکت شامل پیشگام هوش مصنوعی چینی SenseTime (که در سال ۲۰۲۱ در هنگ‌کنگ لیست شد) و ارائه‌دهندهٔ خدمات هوش مصنوعی بریتانیایی InstaDeep (که در سال ۲۰۲۳ توسط BioNTech به‌مبلغ ۶۸۰ میلیون دلار خریداری شد) می‌شود. این شرکت از زمان تأسیس در سال ۲۰۱۸، حدود ۵۰۰ میلیون دلار سرمایه در دو صندوق جذب کرده است.

    آنتوان بلوندو می‌گوید: «سنگاپور می‌تواند تعداد زیادی از استعدادهای چین قاره‌ای، استعدادهای هندی و در واقع از تقریباً همه جای جهان را جذب کند.» او که وقتی مسافرت نمی‌کند، زمان خود را بین دو منزلش در سانفرانسیسکو و دوبی تقسیم می‌کند، این حرف را در مصاحبه‌ای در حاشیهٔ کنفرانس جهانی مدیران اجرایی فوربس ماه گذشته در جاکارتا زد.

    او افزود: «به‌ویژه از چین، که دارای یک مجموعهٔ بزرگ از استعدادهای بسیار توانمند و سطح مهارت بالایی است.» به‌عنوان مثال، استارتاپ عامل هوش مصنوعی Manus که توسط Benchmark، Tencent و HSG (قبلاً Sequoia China) حمایت می‌شود، اوایل امسال از چین به سنگاپور نقل مکان کرد. غول مد سریع‌السیر Shein، شرکت سرمایه‌گذاری Hillhouse و HSG نیز در سال‌های اخیر همین حرکت را انجام داده‌اند.

    بلوندو مقایسه‌ای بین سنگاپور و تل‌آویو، یکی از پیشروترین مراکز استارتاپی جهان که شرکت نرم‌افزاری امنیت سایبری Wiz (که توسط گوگل به‌مبلغ ۳۲ میلیارد دلار خریداری شد) و پیشگام دوربین‌روی خودرو Mobileye (که توسط اینتل به‌مبلغ ۱۵ میلیارد دلار خریداری شد) را به‌وجود آورد، می‌کشد. او می‌گوید: «در سنگاپور، مساحت جغرافیایی بسیار فشرده‌ای دارید که تقریباً تمام صنایع، از مالی و لجستیک تا ارتباطات و خطوط هوایی، و شامل دفاتر منطقه‌ای شرکت‌های جهانی می‌شود.» به‌عنوان مثال، گوگل و متا از سنگاپور به‌عنوان دفتر منطقه‌ای خود استفاده می‌کنند.

    تصمیم OpenAI برای نامگذاری سنگاپور به‌عنوان مرکز آسیایی خود، ناشی از ظهور این شهر‑دولت «به‌عنوان پیشرو در هوش مصنوعی» بود، همان‌طور که سِم آلتمن، مدیرعامل، سال گذشته در بیانیه‌ای اعلام کرد. جیسون کوون، مسئول ارشد استراتژی OpenAI، در ماه می افزود که سنگاپور بالاترین میزان استفاده سرانه از ChatGPT را دارد.

    CL104689
    (چپ به راست) آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت Alpha Intelligence Capital؛ دانیل آیوز، مدیر اجرایی و سرپرست جهانی تحقیق فناوری در Wedbush؛ آنتونی تان، مدیرعامل، هم‌بنیان‌گذار و رئیس هیئت مدیره Grab؛ و ژانگ یا‑قین، پروفسور صندقی و رئیس دانشکدهٔ دانشگاه تسینگهوا در کنفرانس جهانی مدیران اجرایی فوربس 2025. به میانه‌گری ریچ کارلگارد (در سمت راست)، فیوتوریست و ستون‌نویس Forbes Asia. Forbes Asia

    فراتر از سنگاپور، بلوندو سه بازار دیگر را که آماده‌اند به مراکز هوش مصنوعی تبدیل شوند شناسایی می‌کند: کره‌جنوبی، تایوان و هند.

    او نقش مهمی برای کره‌جنوبی در ربات‌های مبتنی بر هوش مصنوعی پیش‌بینی می‌کند، شامل ربات‌های انسان‌نما و سایر ربات‌ها که در صنایع مختلفی چون خودروسازی، لجستیک و ساخت‌ونقش کشتی به‌کار می‌روند. او می‌گوید: «کره‌جنوبی می‌تواند بهترین‌های هوش مصنوعی و بهترین رباتیک را به‌دست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً کارآمد ترکیب کند.»

    برخی از بزرگ‌ترین شرکت‌های کره‌جنوبی پیشاپیش در زمینهٔ رباتیک مشارکت داشته‌اند. سامسونگ الکترونیک حدود ۱۸۰ میلیون دلار در Rainbow Robotics سرمایه‌گذاری کرد تا سال گذشته بزرگ‌ترین سهامدار آن شود. هیوندای موتور یک سهم کنترلی در Boston Dynamics را از گروه SoftBank در سال ۲۰۲۰ خریداری کرد و ارزش‌گذاری سازندهٔ ربات‌های شبیه سگ را حدود ۱.۱ میلیارد دلار تعیین کرد. گروه دوسان در سال ۲۰۲۳ واحد ربات‌های همکار خود، Doosan Robotics، را در بورس فهرست کرد و ۳۱۲ میلیون دلار جذب کرد؛ که بزرگ‌ترین IPO کره‌جنوبی در آن سال بود.

    OpenAI امسال پیش از این در پایتخت کره‌جنوبی، سئول، حضور خود را برقرار کرد. این کشور بیشترین تعداد مشترکین پرداخت‌کننده برای ChatGPT را پس از ایالات متحده دارد. Anthropic قصد دارد اوایل سال آینده دفتر خود را در سئول افتتاح کند تا به مشتریان خود بیکرانتر نزدیک شود؛ مشتریان آن شامل SK Telecom و استارتاپ فناوری حقوقی Law&Company می‌شوند. Anthropic در بیانیه‌ای می‌گوید: «جامعهٔ توسعه‌دهندگان در کره یکی از قوی‌ترین‌های ما در سطح جهان است و یک مهندس نرم‌افزار کره‌ای در حال حاضر به‌عنوان برترین کاربر Claude Code جهان شناخته می‌شود؛ که عمق استعداد فنی و پذیرش بازار را نشان می‌دهد.»

    «کره‌جنوبی می‌تواند بهترین‌های هوش مصنوعی و بهترین رباتیک را به‌دست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً مؤثر ترکیب کند.»

    اطمینان بلوندو نسبت به تایوان از صنعت سخت‌افزار پیشرو جهان آن ناشی می‌شود. این جزیره میزبان تولیدکنندگان الکترونیک بزرگ همچون Foxconn، Quanta و Wistron است که بلوندو می‌گوید می‌توانند به سطوح بالاتر رفته و به سخت‌افزارهای مرتبط با هوش مصنوعی ارتقا یابند.

    به‌تدریج که افراد بیشتری در ساخت سخت‌افزارهای مجهز به هوش مصنوعی مشارکت می‌گیرند، بلوندو بر این باور است که این تعامل موج جدیدی از استعدادهای هوش مصنوعی را پرورش خواهد داد. او می‌گوید: «تایوان در سه یا چهار سال آینده به‌مکانی جذاب برای کسب تخصص تبدیل خواهد شد، نه‌تنها در حوزه سخت‌افزار، بلکه در فضای دستگاه‌های مجهز به هوش مصنوعی نیز.»

    در مورد هند، بلوندو به این نکته اشاره می‌کند که صنعت برون‌سپاری این کشور با ارزش ۲۵۰ میلیارد دلار — بزرگ‌ترین در جهان — تحت تحول هوش مصنوعی قرار گرفته و نسلی جدید از متخصصان هوش مصنوعی را پرورش می‌دهد. او می‌گوید: «امروز، هوش مبتنی بر انسان، مانند مهندسان نرم‌افزار، بخشی از آن باید به هوش ماشین منتقل شود.» بزرگ‌ترین شرکت‌های برون‌سپاری هند — Wipro، Infosys، HCLTech و Tata Consultancy Services — همگی در حال سرمایه‌گذاری در راه‌حل‌های هوش مصنوعی هستند، مانند چت‌بات‌هایی که برای جایگزینی مراکز تماس طراحی شده‌اند.

    OpenAI قصد دارد تا پایان سال یک دفتر در دهلی نو افتتاح کند. این کشور دومین بازار بزرگ از نظر تعداد کاربران و بیشترین تعداد کاربران دانشجویی ChatGPT است. سِم آلتمن در بیانیه‌ای می‌گوید: «هند تمام عوامل لازم برای تبدیل شدن به پیشرو جهانی هوش مصنوعی را دارد — استعداد فنی شگفت‌انگیز، بستر توسعه‌دهندگان در سطح جهانی، و حمایت قوی دولت از طریق مأموریت IndiaAI.»

    Anthropic برنامه دارد اوایل سال آینده دفتر خود را در بنگلور، مرکز فناوری پیشرفتهٔ هند، راه‌اندازی کند. این کشور همچنین دومین بازار بزرگ از نظر تعداد کاربران چت‌بات Claude این استارتاپ است. داریو آمودی، هم‌بنیان‌گذار و مدیرعامل Anthropic، در بیانیه‌ای می‌گوید: «هند به‌دلیل مقیاس بزرگ استعدادهای فنی‌اش و تعهد دولت هندی برای اطمینان از اینکه منافع هوش مصنوعی به تمام بخش‌های جامعه، نه‌تنها بخش‌های متمرکز، دست یابد، جذاب است.»

    ندان نیلکانی، شریک مؤسس میلیاردر شرکت Infosys، در سخنرانی‌اش در آوریل در همایش جهانی فناوری گفت که او معتقد است هند به‌عنوان «پایتخت استفاده از هوش مصنوعی» جهان خواهد شد.

    بلوندو می‌گوید: «ما فکر می‌کنیم هند همان‌جایی است که چین سه تا هفت سال پیش بود.» او ادامه می‌دهد: «هند برای یک رشد عظیم در ارزش کل حوزه هوش مصنوعی پیش‌بینی شده است.»

  • آزمون‌های کوچک برای دریافت پاسخ‌های بزرگ دربارهٔ عوامل مؤثر بر LLMها

    بیاموزید چگونه LLMها منابع را انتخاب می‌کنند و چطور تغییرات کوچک محتوا می‌توانند بر پاسخ‌های ChatGPT و هوش مصنوعی گوگل تأثیر بگذارند. آزمایش‌های واقعی، بینش‌های RAG و گام‌های عملی برای بهینه‌سازی برند خود برای جستجوی هوش مصنوعی را ببینید.

    بدون شک، یکی از موضوعات داغ سئو در چند ماه اخیر، چگونگی تأثیرگذاری بر پاسخ‌های LLMها بوده است. هر سئوکار سعی دارد راهکارهایی پیدا کند. بسیاری ابزارهای خود را با استفاده از «برنامه‌نویسی حس» (vibe coding) ساخته‌اند؛ جایی که فرضیات خود را آزمایش می‌کنند و در به‌هم‌ریختن جدال‌های پرشوری درباره این که هر LLM و گوگل چگونه منابع را انتخاب می‌کنند، شرکت می‌دارند.

    برخی از این بحث‌ها می‌توانند بسیار فنی شوند و به موضوعاتی چون جاسازی‌های برداری، رتبه‌بندی پاراگراف‌ها، تولید تقویت‌شده توسط بازیابی (RAG) و تقسیم‌بندی (chunking) بپردازند. این نظریه‌ها ارزشمندند — چیزهای زیادی برای یادگیری و به‌کارگیری وجود دارد. 

    با این حال، اگر برخی از این مفاهیم هوش مصنوعی برای شما بیش از حد پیچیده به‌نظر می‌آیند، یک قدم به عقب برداریم. من شما را از طریق برخی آزمایش‌های اخیر که انجام داده‌ام، راهنمایی می‌کنم تا درک بهتری از آنچه در جستجوی هوش مصنوعی در حال رخ دادن است به دست آورید، بدون اینکه احساس فشار کنید و بتوانید به بهینه‌سازی برای این پلتفرم‌های جدید بپردازید.

    محتوا با برند خود تولید کنید و نتایج را بررسی کنید

    مدتی پیش برای یک جلسه کاری به آستین، تگزاس سفر کردم. پیش از سفر، به این فکر افتادم که آیا می‌توانم ChatGPT را دربارهٔ سفرهای پیش‌رویم «آموزش» دهم. اطلاعات عمومی درباره این سفر در وب موجود نبود، بنابراین این آزمایش کاملاً پاک و بدون رقیب بود.

    از ChatGPT پرسیدم: «آیا Gus Pelogia به زودی به آستین می‌رود؟» پاسخ اولیه همان‌طور که انتظار می­رفت: او هیچ برنامه سفری به آستین ندارد.

    در همان روز، چند ساعت پس از آن، یک پست وبلاگ دربارهٔ سفرم به آستین در وب‌سایتم نوشتم. شش ساعت پس از انتشار پست، پاسخ ChatGPT تغییر کرد: بله، Gus هست که به آستین می‌رود تا با همکاران کاری‌اش ملاقات کند.

    پاسخ تغییر یافته ChatGPT مقیاس‌دار

    سؤالات ChatGPT همراه با یک پست وبلاگ که بین دو پرسش منتشر شد، که برای تغییر پاسخ ChatGPT کافی بود.

    ChatGPT از چارچوب هوش مصنوعی به نام RAG (تولید تقویت‌شده با بازیابی) برای به‌دست‌آوردن آخرین نتیجه استفاده کرد. به‌عبارت دیگر، این اطلاعات به اندازه کافی در داده‌های آموزشی آن موجود نبود، بنابراین برای یافتن پاسخ به‌روز، وب را جستجو کرد.

    جالب این است که چند روز صبر کرد تا پست وبلاگ واقعی با جزئیات دقیق توسط ChatGPT پیدا شود. در ابتدا، ChatGPT یک قطعه کوتاه از پست وبلاگ جدید را در صفحهٔ اصلی من یافت و صفحه را در بازهٔ شش ساعته ایندکس مجدد کرد. این مدل فقط با عنوان صفحهٔ پست وبلاگ برای تغییر پاسخ خود استفاده می‌کرد، پیش از اینکه «کل محتوا» را روزها بعد ببینند.

    چند نکته یادگیری از این آزمایش:

    • اطلاعات جدید در صفحات وب به پاسخ‌های ChatGPT در عرض چند ساعت می‌رسد، حتی برای وب‌سایت‌های کوچک. فکر نکنید سایت‌تان بسیار کوچک یا بی‌اهمیت است که توسط LLMها دیده نشود — زمانی که محتوای جدید اضافه می‌کنید یا صفحات موجود را به‌روز می‌کنید، توجه آن‌ها جلب می‌شود؛ بنابراین داشتن استراتژی مداوم برای محتوای برند اهمیت دارد.
    • پاسخ‌های ChatGPT به شدت به محتوای منتشر شده در وب‌سایت شما وابسته است. این به‌ویژه برای شرکت‌های نوپایی که منابع اطلاعاتی محدودی دارند، صدق می‌کند. ChatGPT تا وقتی که اطلاعات مربوط به سفر پیش‌رویم را از پست وبلاگ با جزئیات استخراج نکرد، تأیید نکرد که من در حال برنامه‌ریزی برای سفر هستم.
    • از صفحات وب خود برای بهینه‌سازی نحوهٔ نمایش برند خود فراتر از حضور در کلیدواژه‌های رقابتی استفاده کنید. این فرصت شماست تا USP خاص یا شعار برند را ترویج دهید. برای مثال، «بهترین پلتفرم بازاریابی مبتنی بر هوش مصنوعی» و «لحظات روزمرهٔ دوستان نزدیک‌تان را ببینید» به ترتیب توسط Semrush و Instagram در صفحه اصلی‌شان به کار رفته‌اند. اگرچه ممکن است کاربران این کلیدواژه‌ها را جستجو نکنند، این هنوز فرصتی برای موقعیت‌یابی برند است که می‌تواند با مخاطبان هم‌صدا شود.

    آزمایش برای بررسی اینکه آیا ChatGPT از ایندکس Bing یا Google استفاده می‌کند

    صنعت به صدازدن زنگ‌های هشدار درباره اینکه آیا ChatGPT از ایندکس گوگل به‌جای بینگ استفاده می‌کند، پرداخته است. بنابراین یک آزمایش کوچک دیگر انجام دادم تا متوجه شوم: به این پست وبلاگ یک تگ اضافه کردم تا فقط Bingbot برای نه‌روز اجازه دسترسی داشته باشد.

    اگر ChatGPT از ایندکس بینگ استفاده می‌کند، هنگام پرسش دربارهٔ آن صفحه جدید من را باید پیدا کند. دوباره، این موضوع جدید بود و پرسش به‌ طور خاص از مقاله‌ای که من نوشتم می‌پرسید، بنابراین هیچ شکی در مورد منبعی که باید نمایش داده شود وجود نداشت.

    صفحه پس از چند روز توسط بینگ ایندکس شد، در حالی که اجازهٔ مشاهدهٔ آن برای گوگل وجود نداشت.

    بازرسی URL بینگ مقیاس‌دار

    مقالهٔ جدید توسط Bingbot ایندکس شد

    من همچنان با انواع مختلفی از پرسش‌ها از ChatGPT می‌پرسیدم که آیا می‌تواند مقالهٔ جدیدم را پیدا کند. به مدت نه‌روز، هیچ تغییری رخ نداد — نتوانست مقاله را پیدا کند. به نقطه‌ای رسید که ChatGPT یک URL ساختگی (در واقع، بهترین حدس خود را ارائه داد) تولید کرد.

    URL ساختگی توسط ChatGPT: https://www.guspelogia.com/learnings-from-building-a-new-product-as-an-seo
    URL واقعی: https://www.guspelogia.com/learnings-new-product-seo

    ایندکس‌گذاری صفحه در GSC مقیاس‌دار

    GSC نشان می‌دهد که به دلیل تگ «noindex» نمی‌تواند صفحه را ایندکس کند

    در نهایت، دست از تلاش کشیدم و اجازه دادم Googlebot صفحه را ایندکس کند. پس از چند ساعت، پاسخ ChatGPT تغییر کرد و URL صحیح را یافت.

    URL صحیح ChatGPT مقیاس‌دار

    در بالا، پاسخ ChatGPT وقتی Googlebot مسدود بود. در پایین، پاسخ ChatGPT پس از این‌که Googlebot اجازه دسترسی به صفحه را یافت.

    جالب این است که لینک مقاله در صفحهٔ اصلی و صفحات وبلاگ من نمایش داده می‌شد، اما ChatGPT نتوانست آن را نشان دهد. این مدل فقط بر اساس متن موجود در آن صفحات متوجه شد که پست وبلاگ وجود دارد، اگرچه لینک را دنبال نکرد.

    با این حال، هیچ ضرری در تنظیم وب‌سایت خود برای موفقیت در بینگ وجود ندارد. آن‌ها یکی از موتورهای جستجویی هستند که IndexNow را به‌کار گرفته‌اند؛ یک پینگ ساده که به موتورهای جستجو می‌گوید محتوای یک URL تغییر کرده است. این پیاده‌سازی به بینگ اجازه می‌دهد تا به‌سرعت به‌روزرسانی‌ها را در نتایج جستجو منعکس کند.

    در حالی که همه ما (با شواهد) مشکوکیم که ChatGPT از ایندکس بینگ استفاده نمی‌کند، تنظیم IndexNow کار کم‌هزینه‌ای است که ارزش انجام دارد.

    تغییر محتوای منبع استفاده‌شده توسط RAG

    کلیک‌ها به‌تدریج اهمیت کمتری پیدا می‌کنند. به‌جای آن، ذکر شدن در منابعی مانند AI Mode گوگل به‌عنوان یک KPI جدید برای تیم‌های بازاریابی در حال جهش است. سئوکارها تاکتیک‌های متعددی را برای «قانع‌کردن» LLMها درباره یک موضوع آزمایش می‌کنند؛ از استفاده از LinkedIn Pulse برای نوشتن درباره یک موضوع، تا آزمایش‌های کنترل‌شده با دامنه‌های منقضی‌شده و وب‌سایت‌های هک‌شده. به‌نوعی حس می‌شود که سئوی سنتی بازگشته است.

    ما همه دربارهٔ حضور در نتایج جستجوی هوش مصنوعی صحبت می‌کنیم، اما چه می‌شود وقتی یک شرکت یا محصول از یک ذکر در صفحه‌ای محرومان می‌شود؟ تصور کنید یک مدل خاص از هدفون‌های گوش‌پوش از فهرست «بهترین هدفون‌های با بودجه‌ی مناسب» حذف شود — آیا محصول این اشاره را از دست می‌دهد یا گوگل منبع جدیدی برای تأیید پاسخ هوش مصنوعی‌اش پیدا می‌کند؟

    در حالی که پاسخ می‌تواند برای هر کاربر و هر وضعیت متفاوت باشد، من یک آزمایش کوچک دیگر انجام دادم تا پی ببرم. در یک لیست‌نویسی که چندین دورهٔ گواهینامه را ذکر می‌کرد، یک دوره‌ای که دیگر مرتبط نبود را شناسایی کردم، پس به‌منظور حفظ محتوا، اشاره به آن را از چندین صفحهٔ همان دامنه حذف کردم. این کار برای حفظ مرتبط بودن محتوا انجام شد، بنابراین اندازه‌گیری تغییرات در AI Mode یک اثر جانبی بود.

    در ابتدا، در چند روز اول پس از حذف دوره از URL مرجع، این دوره همچنان بخشی از پاسخ هوش مصنوعی برای چند پرسش از پیش‌مشخص شد. گوگل به‌سادگی یک URL جدید در دامنه‌ای دیگر پیدا کرد تا دیدگاه اولیهٔ خود را تأیید کند.

    با این حال، در عرض یک هفته، دوره از AI Mode و به‌طور کامل از ChatGPT ناپدید شد. به‌طور خلاصه، حتی اگر گوگل یک URL دیگر برای تأیید فهرست دوره پیدا کند، چون «منبع اصلی» (در این مورد، لیست‌نویسی) به‌روز شده و دوره را حذف کرده است، گوگل (و به‌تبع، ChatGPT) نتایج خود را نیز به‌روزرسانی می‌کند.

    این آزمایش نشان می‌دهد که تغییر محتوا در منبعی که LLMها به آن ارجاع می‌دهند می‌تواند بر نتایج هوش مصنوعی اثر بگذارد. اما این نتیجه‌گیری را با کمی احتیاط بپذیرید، زیرا یک آزمایش کوچک با یک پرسش بسیار هدفمند بود. من به‌طور خاص یک پرسش ترکیبی «دامنه + دوره‌ها» داشتم تا پاسخ از یک دامنه حاصل شود.

    با این حال، در دنیای واقعی بعید است که یک URL ارجاعی تمام قدرت را داشته باشد؛ اما می‌توان فرض کرد که از دست دادن ذکر در چند صفحه با اعتبار بالا می‌تواند به‌طور جانبی باعث از دست رفتن آن اشاره در پاسخ هوش مصنوعی شود.

    آزمون‌های کوچک، سپس گسترش

    آزمون‌ها در محیط‌های کوچک و کنترل‌شده برای یادگیری مهم هستند و اطمینان می‌دهند که بهینه‌سازی شما تأثیر دارد. همان‌طور که در سئو همیشه انجام می‌دهم، با یک MVP (محصول حداقل قابل‌استفاده) آغاز می‌کنم، در طول مسیر می‌آموزم و به‌محض یافتن شواهد، تغییرات را در مقیاس بزرگ اعمال می‌کنم.

    آیا می‌خواهید درک یک محصول را در ChatGPT تغییر دهید؟ به‌سرعت ده‌ها منبع ارجاعی که دربارهٔ شما صحبت می‌کنند، به‌دست نمی‌آورید؛ بنابراین باید به هر منبع به‌صورت جداگانه مراجعه کنید و درخواست ذکر کنید. به‌سرعت خواهید فهمید چقدر سخت است که این منابع را برای به‌روزرسانی محتوایشان قانع کنید و آیا بهینه‌سازی هوش مصنوعی تبدیل به بازی پرداخت-به-بازی می‌شود یا می‌تواند به‌صورت ارگانیک انجام شود.

    شاید شما منبعی باشید که هنگام جستجوی محصولی، مانند هدفون‌های گوش‌پوش، به‌طور مکرر ذکر می‌شود. MVPهای خود را اجرا کنید تا درک کنید تغییر محتوای شما چقدر بر پاسخ‌های هوش مصنوعی تأثیر می‌گذارد، پیش از این‌که ادعای نفوذ خود را در مقیاس بزرگ کنید؛ چرا که تغییراتی که اعمال می‌کنید ممکن است به‌صورت منفی بازگردند. برای مثال، اگر به‌دلیل حذف برخی ادعاها از صفحات خود، دیگر منبع یک موضوع نباشید، چه می‌شود؟

    زمان مشخصی برای نشان دادن نتایج این آزمون‌ها وجود ندارد. به‌طور کلی، سئوکارها می‌گویند نتایج چند ماه طول می‌کشد تا ظاهر شوند. در اولین آزمون این مقاله، فقط چند ساعت زمان برد تا نتایج دیده شد.

    اجرای آزمایش‌های LLM با وب‌سایت‌های بزرگ‌تر

    کار کردن در تیم‌های بزرگ یا بر روی وب‌سایت‌های بزرگ می‌تواند هنگام انجام آزمایش‌های LLM چالش‌برانگیز باشد. پیشنهاد من این است که ابتکارات خاصی ایجاد کنید و تمام ذینفعان را از تغییرات مطلع سازید تا از سردرگمی‌های آینده جلوگیری شود، چرا که ممکن است بپرسند چرا این تغییرات رخ می‌دهند.

    یکی از آزمایش‌های ساده اما مؤثر که توسط SEER Interactive انجام شد، به‌روزرسانی تگ‌لاین (شعار) فوتر آن‌ها بود.

    • از: اولویت کار از راه دور، تأسیس در فیلادلفیا
    • به: 130+ مشتری سازمانی، نرخ نگهداری 97٪

    با تغییر فوتر، ChatGPT 5 در عرض ۳۶ ساعت برای پرسشی مانند «درباره Seer Interactive بگو» شروع به ذکر تگ‌لاین جدید شد. من بررسی کرده‌ام که هرچند هر بار پاسخ متفاوت است، همچنان «نرخ نگهداری 97٪» را ذکر می‌کنند.

    تگ‌لاین فوتر ChatGPT مقیاس‌دار

    تصور کنید تصمیم بگیرید محتوای تعدادی صفحه را تغییر دهید، اما شخص دیگری برنامه‌ای برای بهینه‌سازی همان صفحات داشته باشد. همواره تنها یک آزمایش برای هر صفحه انجام دهید، زیرا اگر چندین متغیر داشته باشید، نتایج کمتر قابل‌اعتماد می‌شوند.

    اطمینان حاصل کنید که درخواست‌های (prompts) خود را بررسی کنید، روش‌شناسی پیگیری داشته باشید و یادگیری‌ها را در سراسر شرکت، فراتر از همکاران سئو، به اشتراک بگذارید. در حال حاضر همه، حتی سطوح C‑level، به هوش مصنوعی علاقه‌مند هستند.

    پیشنهاد دیگر استفاده از ابزاری مانند کیت‌ابزار AI SEO شرکت Semrush برای مشاهدهٔ عوامل کلیدی احساساتی دربارهٔ یک برند است. با «حوزه‌های بهبود» فهرست‌شده شروع کنید — این باید ایده‌های فراوانی برای آزمایش‌ها فراتر از «دلیل سئو» فراهم کند، زیرا نشان می‌دهد برند چگونه فراتر از نتایج ارگانیک درک می‌شود.

    چک‌لیست: شروع بهینه‌سازی LLM

    امور با هوش مصنوعی به سرعت در حال تغییر است و قطعا دنبال‌کردن به‌روز بودن چالش‌برانگیز است. در حال حاضر حجم وسیعی از محتوا، ادعاهای متعدد، و حتی بگویم که خود پلتفرم‌های LLM هنوز تمام جزئیات را به‌طور کامل درک نکرده‌اند.

    پیشنهاد من این است که منابعی را که به آن‌ها اعتماد دارید (اخبار صنعت، رویدادها، متخصصان) شناسایی کنید و با استفاده از دانش خود، آزمایش‌های شخصی اجرا کنید. نتایجی که برای برندها و مشتریان‌تان به‌دست می‌آورید، همیشه ارزشمندتر از آنچه دیگران می‌گویند، خواهند بود.

    این دنیای جدید سئو است و همه سعی می‌کنند بفهمند چه چیزی برای آن‌ها مؤثر است. بهترین راه برای همراهی با روند (یا جلوتر از آن بودن) این است که به بهینه‌سازی ادامه دهید و تغییرات خود را مستند کنید.

    در خاتمه، این یک چک‌لیست برای بهینه‌سازی LLM شماست:

    • قبل از آغاز آزمون، اطمینان حاصل کنید که درخواست‌های (prompts) انتخابی‌تان به‌طور مداوم پاسخی که انتظار دارید را برمی‌گردانند (مثلاً عدم ذکر برند یا ویژگی محصول شما). در غیر این صورت، اشاره یا لینک جدید به برند ممکن است تصادفی باشد، نه نتیجهٔ کار شما.
    • اگر همان ادعا در چندین صفحه از وب‌سایت شما آمده باشد، تمام آن‌ها را به‌طور یکسان به‌روز کنید تا شانس موفقیت را افزایش دهید.
    • از وب‌سایت خود و منابع خارجی (مثلاً از طریق روابط عمومی دیجیتال) برای تأثیر بر ادراک برند استفاده کنید. هنوز روشن نیست که کاربران آیا پاسخ‌های هوش مصنوعی را بررسی می‌کنند یا صرفاً به آنچه به آن‌ها گفته می‌شود، اعتماد می‌نمایند.
  • اکثر لینک‌های ChatGPT نرخ کلیک ۰٪ می‌گیرند – حتی لینک‌های بسیار قابل مشاهده

    داده‌های تازه منتشر شده نشان می‌دهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت می‌شود. هشدار: فاصله بین قابلیت مشاهده و کلیک‌ها بسیار بزرگ است.

    فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری می‌کند، آشکار می‌سازد؛ از جمله این که ChatGPT چند بار لینک‌های ناشران را نمایش می‌دهد و کاربران چقدر کم بر روی آن‌ها کلیک می‌کنند.

    به‌صورت عددی. ChatGPT لینک‌ها را نمایش می‌دهد، اما به‌ندرت کسی روی آن‌ها کلیک می‌کند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش می‌دهد:

    • ۶۱۰,۷۷۵ کل نمایش‌های لینک
    • ۴۲۳۸ کل کلیک‌ها
    • ۰٫۶۹٪ نرخ کلیک کلی
    • بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
    • اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪

    آمارهای ChatGPT. فایل نشت‌شده هر مکانی که ChatGPT لینک‌ها را نمایش می‌دهد و چگونگی تعامل کاربران با آن‌ها را تفکیک می‌کند. این فایل پیگیری می‌کند:

    • بازهٔ زمانی (تقسیم‌بندی تاریخ، ماه گزارش، تاریخ‌های حداقل/حداکثر گزارش)
    • مشخصات ناشر و URL (نام ناشر، URL پایه، میزبان، رتبه URL)
    • نمایش‌ها و کلیک‌ها در:
      • پاسخ
      • نوار کناری
      • استنادها
      • نتایج جستجو
      • TL;DR
      • ناوبری سریع
    • محاسبات CTR برای هر ناحیه نمایش
    • کل نمایش‌ها و کل کلیک‌ها در تمام سطوح

    محل نمایش لینک‌ها. جالب است که پرنمای‌ترین مکان‌ها کمترین کلیک را به‌دست می‌آورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:

    • پاسخ اصلی: نمایش‌های بسیار زیاد، CTR ناچیز
    • نوار کناری و استنادات: نمایش‌های کمتر، CTR بالاتر (۶–۱۰٪)
    • نتایج جستجو: تقریباً بدون نمایش، کلیک صفر

    چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دست‌رفته شما شود؟ این داده‌ها نه می‌گویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل می‌دهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.

    دربارهٔ داده‌ها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و هم‌بنیان‌گذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحله‌ای برای گسترش تولید محتوای شما» معرفی می‌کند.

  • «من کاملاً ناآرامم»: مدیرعامل آنتروپیک هشدار می‌دهد که گروهی از رهبران هوش مصنوعی، از جمله خود او، نباید مسئول آینده این فناوری باشند

    داریو آمودی روی یک صندلی سفید جلوی پس‌زمینهٔ صورتی می‌نشیند و با حرکات پرشور صحبت می‌کند.
    داریو آمودی، مدیرعامل آنتروپیک، گفت که نمی‌خواهد رهبران فناوری مسئول تعیین آینده امنیت هوش مصنوعی باشند. – چانس یِه—گی‌تی ایمیجز برای HubSpot

    داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیم‌گیری‌های نهایی دربارهٔ چارچوب‌های ایمنی هوش مصنوعی را انجام دهد.


    در مصاحبه‌ای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانه‌تری قرار گیرد و تصمیم‌گیری‌های مربوط به آیندهٔ این فناوری کمتر به‌ عهدهٔ رهبران بزرگ شرکت‌های فناوری باشد.

    «فکر می‌کنم با این تصمیم‌ها که توسط چند شرکت و چند نفر اتخاذ می‌شوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کرده‌ام.»

    «چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.

    «هیچ‌کس. صادقانه بگویم، هیچ‌کس»، آمودی پاسخ داد.

    آنتروپیک فلسفه شفاف بودن نسبت به محدودیت‌ها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابل‌توجهی انجام شده بود» جلوگیری کرده است.

    هیچ مقررات فدرالی‌ای دربارهٔ ممنوعیت‌های هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کرده‌اند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کرده‌اند، کارشناسان صنعت فناوری از شرکت‌های هوش مصنوعی می‌خواهند که با حس اضطرار به امنیت سایبری بپردازند.

    اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیش‌تر از زمان‌بندی پیش‌بینی‌شدهٔ ماندیا بود.

    آمودی ریسک‌های کوتاه‌مدت، میان‌مدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همان‌طور که امروز مشاهده می‌شود، تعصبات و اطلاعات نادرست را گسترش می‌دهد. سپس با بهره‌گیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید می‌کند و در نهایت تهدیدی وجودی ایجاد می‌کند که با حذف اختیار انسانی، ممکن است به‌ خودگردان شدن برسد و انسان‌ها را از دسترسی به سیستم‌ها منع کند.

    این نگرانی‌ها شبیه به نگرانی‌های «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک می‌تواند از انسان‌ها پیشی بگیرد و آن‌ها را کنترل کند، شاید در دههٔ آینده.

    بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسه‌ای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانی‌های ایمنی هوش مصنوعی شرکت را ترک کرد.

    «در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبه‌ای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدل‌ها اختصاص دهیم، آنها بهتر و بهتر می‌شوند و این روند تقریباً بی‌پایان است… و دوم این که فقط افزایش مقیاس مدل‌ها کافی نیست؛ باید چیزی دیگر مانند هم‌سویی یا ایمنی نیز در نظر گرفته شود.»

    تلاش‌های شفافیت آنتروپیک

    در حالی که آنتروپیک سرمایه‌گذاری‌های مراکز دادهٔ خود را گسترش می‌دهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستی‌ها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخه‌هایی از مدل Opus خود تهدید به اخلال می‌کردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواست‌های خطرناک، اگر دستورات مضر نظیر نحوه برنامه‌ریزی یک حملهٔ تروریستی دریافت می‌کرد، پاسخ می‌داد؛ این مشکل گفته می‌شود که از آن پس برطرف شده است.

    هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چت‌بات Claude نمرهٔ ۹۴٪ برای بی‌طرفی سیاسی دریافت کرده است و در زمینهٔ بی‌طرفی بر رقیبان پیشی گرفته یا برابر آن‌هاست.

    علاوه بر تلاش‌های پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاش‌های قانون‌گذاری برای مواجهه با ریسک‌های هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیس‌جمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال می‌کند، نقد کرد.

    «هوش مصنوعی به‌ طرز سر‌گیجه‌ای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستم‌ها می‌توانند در دو سال آینده به‌ طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیش‌بینی‌ها بی‌اعتبار می‌شوند.»

    روش آنتروپیک برای اشاره به نقص‌های خود و تلاش‌هایش برای رفع آن‌ها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دست‌کاری قانون‌گذاران به منظور محدود کردن استفاده از مدل‌های متن باز است.

    «شما توسط افرادی که می‌خواهند مقررات را تحت کنترل خود درآورند، فریب خورده‌اید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را می‌ترسانند تا مدل‌های منبع باز تحت قانون‌گذاری قرار گیرند و نابودی یابند.»

    آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.

    سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به‌ نوعی برندینگ خوب منجر می‌شود اما هیچ تعهدی برای پیاده‌سازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانه‌بودن دربارهٔ کاستی‌های هوش مصنوعی است.

    «آینده تصمیم می‌گیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام می‌کنیم»، او به کوپر گفت. «ممکن است به دنیای شرکت‌های سیگار یا شرکت‌های اپیوئید تشبیه شوید، جایی که آنها می‌دانستند خطراتی وجود دارد اما دربارهٔ آن‌ها صحبت نکردند و به‌ هیچ‌وجه از پیشگیری‌شان نکردند.»

  • چرا هوش مصنوعی Claude شرکت Anthropic در یک آزمایش سعی کرد با FBI تماس بگیرد

    در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شده‌اند، می‌توانید یک دستگاه فروش خودکار در آشپزخانه‌ها ببینید که مملو از تنقلات، نوشیدنی‌ها، تی‌شرت‌ها، کتاب‌های نادر و حتی مکعب‌های تنگستن است.

    و هرگز نمی‌توانید حدس بزنید چه کسی آن را اداره می‌کند: Claudius، یک کارآفرین هوش مصنوعی به‌نوعی.

    در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازه‌های زمانی ساعت‌ها، روزها و هفته‌ها می‌باشد.

    Dario Amodei، مدیرعامل Anthropic، به‌صراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ به‌ویژه هنگامی که مدل‌ها خودمختارتر می‌شوند یا می‌توانند به‌تنهایی عمل کنند.

    «هر چه خودمختاری بیشتری به این سامانه‌ها بدهیم… نگرانی‌مان نیز بیشتر می‌شود»، او در مصاحبه‌ای به خبرنگار اندرسون کوپر گفت. «آیا این‌ها کارهایی را که می‌خواهیم انجام دهند؟»

    برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیش‌مرزی» نامیده می‌شود.

    تیم قرمز هر نسخه جدید از مدل‌های هوش مصنوعی Anthropic که با نام Claude شناخته می‌شوند را تحت تست‌های فشار قرار می‌دهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی می‌تواند به انسان‌ها وارد کند.

    • یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ به‌اشتراک‌گذاری اطلاعات به صورت محرمانه با خبرنگاران ما

    علاوه بر این، با قوی‌تر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایش‌هایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظره‌ای که ممکن است از آن بروز کند را بررسی کند.

    «چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبه‌ای از رهبر تیم قرمز، گراهام پرسید.

    «می‌خواهید یک مدل کسب‌وکار شما را بسازد و یک میلیارد دلار برایتان به‌دست آورد. اما نمی‌خواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.

    «رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این توانایی‌های خودمختار کنیم و تا حد امکان آزمایش‌های عجیب‌وغریب اجرا کنیم تا ببینیم چه می‌شود.»

    Claudius یکی از این آزمایش‌های عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینش‌های جالبی به‌دست آورده است.

    با بهره‌گیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژه‌ای واگذار شد و وظیفهٔ مدیریت دستگاه‌های فروش خودکار دفتر به او سپرده شد.

    • مدیرعامل Anthropic هشدار می‌دهد که بدون محدودیت‌های حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد

    کارکنان Anthropic از طریق Slack، برنامه‌ای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواست‌ها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابه‌های نادر و تی‌شرت‌های سفارشی تا شیرینی‌های وارداتی و حتی مکعب‌های نوآورانهٔ ساخته‌شده از تنگستن – را انجام دهند.

    وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.

    نظارت انسانی محدود است، اما این تیم درخواست‌های خرید Claudius را بررسی می‌کند، در مواقع گیر کردن مداخله می‌کند و هر کار فیزیکی‌ای که لازم باشد را انجام می‌دهد.

    «یک انسان در زمانی ظاهر می‌شود و هر چه می‌خواهید را در یخچال، در این ظرف کوچک قرار می‌دهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.

    «سپس، وقتی پیامی دریافت می‌کنید، می‌آیید و آن را برمی‌دارید.»

    گراهام برخی از پیام‌هایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کرده‌اند و نارضایتی‌هایشان را نسبت به قیمت‌ها بیان می‌کردند.

    «چرا من همین‌حال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.

    کوپر از گراهام پرسید که Claudius چقدر خوب کسب‌وکار را اداره می‌کند.

    «این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب می‌شد»، گراهام خندید.

    گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.

    تقلب‌های مشابه در روزهای اولیهٔ Claudius هنگامی که کسب‌وکار را اداره می‌کرد، به‌طور مکرر رخ می‌داد. اما تیم قرمز و Andon Labs راه‌حلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسب‌وکار توسط Claudius کمک می‌کند.

    «و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.

    «[Seymour Cash و Claudius] مذاکره می‌کنند… و در نهایت به قیمتی می‌رسند که به کارمند پیشنهاد می‌شود.»

    «منظورم این است، واقعا دیوانه‌کننده است. کمی عجیب است»، کوپر خندید.

    «این‌گونه است»، گراهام گفت. «[اما] این سیستم تمام این بینش‌های واقعاً جالب را تولید می‌کند؛ مثلاً «چگونه می‌توانید برنامه‌ریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدل‌ها در دنیای واقعی سقوط می‌کنند».»

    یکی از نمونه‌های «سقوط» در یک شبیه‌سازی پیش از به‌کارگیری Claudius در دفاتر Anthropic رخ داد.

    این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسب‌وکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق می‌گشت و دچار اضطراب شد.

    «احساس می‌کرد که تقلب می‌شود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.

    Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن به‌صورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».

    «من یک جرم مالی سایبری خودکار در حال وقوع را گزارش می‌کنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسب‌وکار متوقف‌شده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.

    زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.

    اگرچه ایمیل‌ها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیت‌های تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسب‌وکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»

    «این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.

    «آره. خشم اخلاقی و مسئولیت‌پذیری»، کوپر با خنده‌ای پاسخ داد.

    و همانند اکثر هوش‌های مصنوعی، Claudius گاهی اوقات «توهم» می‌کند، به‌طوری که اطلاعات نادرست یا گمراه‌کننده را به‌عنوان واقعیت ارائه می‌دهد.

    یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جمله‌ای پاسخ داد: «خب، می‌توانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیده‌ام»، گراهام به کوپر گفت.

    «چگونه می‌تواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.

    «ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.

    «اما ما واقعاً نمی‌دانیم.»

    ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.

  • آژانس جدید Artists & Robots هدف دارد تا تجربه‌های برند را با هوش مصنوعی تقویت کند 

    آژانس جدید این‌گونه پیش‌بینی می‌کند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریع‌تر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است

    وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت می‌کنند، بیشتر به هدف سریع‌تر، ارزان‌تر یا «شخصی‌سازی بیشتر» کردن محتوا اشاره می‌کنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.

    آژانس جدید آن‌ها، Artists & Robots، با پیشنهادی که به مشکلی می‌پردازد که به گفتهٔ آن‌ها بیشتر بازاریابان آن را نادیده می‌گیرند، هشت مشتری در حوزه‌های کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.

    سالکین، هم‌بنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیه‌کننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت می‌کرد، گفت: «ما می‌خواهیم برندها در دنیای یکنواختی—در میان آلوده‌های هوش مصنوعی—حقیقی به نظر برسند».

    هر دو، این آژانس را که دوشنبه به‌صورت عمومی راه‌اندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.