دسته: هوش مصنوعی

  • راننده ایمنی روبوتاکسی تسلا هنگام کار به خواب رفت

    روز دیگر، فاجعه دیگر تسلا که شاید تعجّب نکنیم.

    نوشتهٔ لوئیس پرادا

    ohmichael / Reddit

    سال تسلا به همان روانی پیش می‌رود که از شرکتی که به‌نظر می‌رسد مصمم است تا رهبرش که به‌صورت علنی از نمادهای نازی استفاده می‌کند، ثروتمندترین انسان تاریخ شود، انتظار می‌رفت، حتی وقتی که تمام معیارهای ممکن نشان می‌دهند شرکت در حال فروپاشی است. سودها کاهش یافته‌اند، سبد مدل‌ها به‌سرعت پیر می‌شود، و ایلان ماسک، مدیرعامل، عملاً می‌گوید می‌خواهد یک ارتش رباتی را رهبری کند؛ موضوعی که به‌ویژه ترسناک می‌شود وقتی که او هوش مصنوعی‌اش، گروک، را به یک نو‑نازی‌علاقه‌مند به هیتلر در 4چن تبدیل کرده است.

    به‌نظر می‌رسد صرف‌نظر از کاری که شرکت انجام می‌دهد، در نهایت به اخباری بد و حتی بدتر شدن کسب‌وکار منجر می‌شود. برای مثال: روبوتاکسی‌های تسلا هم‌اکنون در آستین و سانفرانسیسکو می‌چرخند، اما توانایی‌های خودران آن‌ها در بهترین حالت مشکوک است؛ بنابراین برای اطمینان از عدم بروز مشکل، ناظر انسانی داخل خودرو نیاز است.

    ویدیوها توسط VICE

    به گزارش Ars Technica، یک مسافر سانفرانسیسکویی یک ویدیو ۱۲ ثانیه‌ای را در ردیت به اشتراک گذاشت که راننده ایمنی تسلا را در حین حرکت خودرو در خواب عمیق نشان می‌دهد. به‌ گفتهٔ مسافر، این مرد نه یک‌بار، نه دو‌بار، بلکه سه بار در طول سفر سر می‌خوابید. وقتی مسافر سعی کرد این موضوع را به تسلا اطلاع دهد، شرکت پاسخی نداد که به‌نظر منطقی بود.

    بدتر از آن، کاربر دیگری در ردیت ادعا کرد که همان راننده ایمنی را داشته‌اند که همچنان در مسیر ترافیک از تمسکال تا سانفرانسیسکو به خواب رفته بود. کار به‌عنوان راننده ایمنی انسانی قطعاً شغلی عجیب است؛ ترکیبی از نگهدارنده کودک و شناور نجات. Waymo، پیشرو فعلی بازار تاکسی‌های خودران، پیش از اجازهٔ کارمندان برای حضور در جاده‌های عمومی، آموزش‌های گسترده‌ای می‌طلبد.

    از سوی دیگر، به‌نظر می‌رسد تسلا به‌صورت سرسختانه ادامه می‌دهد و امیدوار است مسافران اهمیتی به این نکته ندهند که شخصی که مسئول اطمینان از روانی مسیر است، خروپف می‌کند و آب دهانش از روی چانه‌اش می‌چکد. گویی این همان شعار قدیمی «سریع حرکت کن و چیزها را بشکن» درهٔ سیلیکون است که تا زمانی که چیزی که سریع می‌دود یک خودرو رباتیک است و چیزی که شکسته می‌شود شما در صندلی عقب هستید، جذاب به‌نظر می‌رسد.

    از زمان آغاز آزمایش روبوتاکسی آستین توسط تسلا در ماه ژوئیه، حداقل هفت تصادف گزارش شده است. تسلا داده‌ها را به نهادهای نظارتی ایمنی فدرال ارائه کرده، اما بخشی قابل توجه از آن‌ها را حذف کرده است. این قدمی اطمینان‌بخش از سوی شرکتی است که خودروهای خودران را در ترافیک آزمایش می‌کند. بدتر از آن این است که تسلا هنوز مجوزهای لازم برای ارائهٔ سرویس خودکار حمل‌ونقل در ایالت کالیفرنیا را دریافت نکرده است.

    در حال حاضر، تسلا به‌صورت عمومی به حوادث رانندهٔ خوابیده یا سؤالات مربوط به مجوزها پاسخ نداده است.

  • پرایم‌ویدیو آمازون برای برخی سریال‌های تلویزیونی خلاصه‌های ویدئویی تولیدشده توسط هوش مصنوعی ارائه می‌دهد

    به‌نظر می‌رسد که دوران «و این هم آنچه در گلی از دست دادید» گذشته باشد. پرایم‌ویدیو آمازون، خلاصه‌های ویدئویی تولیدشده توسط هوش مصنوعی را برای کمک به بینندگان در جبران فاصله بین فصول برنامه‌ها اضافه می‌کند، این شرکت روز چهارشنبه اعلام کرد.

    به‌گفته آمازون، این ویژگی «از هوش مصنوعی مولد برای ایجاد خلاصه‌های فصلی با کیفیت تئاتری، همراه با روایت همگام، دیالوگ و موسیقی استفاده می‌کند». این ویژگی به‌صورت نسخهٔ بتا برای برخی از برنامه‌های اصلی پرایم، مانند «Fallout»، «Jack Ryan اثر تام کلانی» و «Upload» از روز چهارشنبه در دسترس خواهد بود.

    پرایم‌ویدیو سال گذشته ویژگی مشابهی به‌نام «X‑Ray Recaps» را راه‌اندازی کرد که فصول کامل، قسمت‌ها یا بخش‌هایی از آن‌ها را خلاصه می‌کند — در آن زمان، آمازون اعلام کرد که مدل هوش مصنوعی آن دارای محدودیت‌هایی است تا از به‌طور ناخواسته به‌اشتراک‌گذاری فاش‌کننده‌ها جلوگیری شود.

    منبع تصویر:پرایم‌ویدیو

    مصرف‌کنندگان به این نوع خلاصه‌های مبتنی بر متن و هوش مصنوعی عادت کرده‌اند، چون معمولاً آن‌ها را هنگام خلاصه‌شدن متن‌ها توسط گوشی خود می‌بینند یا زمانی که (شاید ناخواسته) یک خلاصهٔ هوش مصنوعی در بالای نتایج جستجوی گوگل نشان می‌شود. اما این خلاصه‌های ویدئویی به حوزه‌ای جدید قدم می‌گذارند که ممکن است نسبت به خلاصه‌های متنی مزاحم‌تر به‌نظر برسند — یا شاید توسط افرادی که به‌خاطر ندارند «Bosch» چه رخ داده است، مورد استقبال قرار گیرند.

    رقبای پرایم‌ویدیو نیز در حال بررسی نحوهٔ ادغام هوش مصنوعی مولد در محصولات خود هستند.

    به‌عنوان مثال، YouTube TV از ویژگی «Key Plays» برای کمک به بینندگان در پیگیری مسابقات ورزشی استفاده می‌کند اگر در حین برگزاری بازی تماشا را آغاز کنند. اگرچه این ویژگی کمی ناقص است (الگوریتم آن تنها به‌نظر می‌رسد بتواند نقاط کلیدی حمله در بیسبال را شناسایی کند)، این ویژگی به YouTube TV کمک کرد تا اولین جایزهٔ امی فنی خود را به‌دست آورد.

    در همین حین، نتفلیکس از هوش مصنوعی مولد در بخش تولیدی کسب‌وکار خود بهره می‌گیرد.

    اوایل سال جاری، نتفلیکس اعلام کرد که برای اولین بار از هوش مصنوعی مولد در فیلم‌برداری نهایی سریال آرژانتینی «The Eternaut» برای ایجاد صحنه‌ای از فروپاشی یک ساختمان استفاده کرده است. پس از آن، «Happy Gilmore 2» با استفاده از هوش مصنوعی مولد شخصیت‌ها را در صحنهٔ آغازین فیلم جوان‌تر کرد و تهیه‌کنندگان «Billionaires’ Bunker» از این فناوری در پیش‌تولید برای تجسم لباس‌ها و طراحی صحنه بهره بردند.

    استفاده از هوش مصنوعی در صنعت سینما بحث‌های فراوانی را به‌وجود آورده است؛ زیرا هنرمندان نگرانند این ابزارها — که گاهی بدون اجازه بر آثار آن‌ها آموزش می‌بینند — می‌توانند معیشتشان را به خطر اندازند. اما برخی استدلال می‌کنند که ابزارهایی که کارهای خسته‌کنندهٔ انیمیشن یا جلوه‌های ویژه را تسریع می‌کنند، همچون Wonder Dynamics، می‌توانند ظرفیت خلاقیت هنرمندان را افزایش دهند.

    موضوعات

    هوش مصنوعی، آمازون، پرایم‌ویدیو آمازون، رسانه و سرگرمی، نتفلیکس، پخش ویدئو آنلاین

  • سرمایه‌گذار خطرپذیر آنتوان بلوندو درباره جذاب‌ترین بازارهای هوش مصنوعی در آسیا

    آنتوان بلوندو - فوربس 1
    آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت Alpha Intelligence Capital، در کنفرانس جهانی مدیران اجرایی فوربس 2025 در جاکارتا. Alpha Intelligence Capital

    در سال‌های اخیر، شرکت‌های برتر هوش مصنوعی جهان به‌طور تند به آسیا گسترش یافته‌اند، چرا که منطقه استفاده بالایی از ابزارهای هوش مصنوعی آن‌ها دارد. اما هنوز توافقی دربارهٔ محل تأسیس دفتر مرکزی آسیایی‌شان پیدا نکرده‌اند. به‌عنوان مثال، پیشگام هوش مصنوعی OpenAI، سنگاپور را انتخاب کرد، در حالی که رقیب Anthropic ژاپن را برگزید و Cohere که توسط Nvidia پشتیبانی می‌شود، به کره‌جنوبی رفت.

    برای آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت شرکت سرمایه‌گذاری خطرپذیر متمرکز بر هوش مصنوعی Alpha Intelligence Capital، انتخاب واضح است: سنگاپور. این شرکت مستقر در لوکزامبورگ پیش از این در دو استارتاپ در این شهر‑دولت سرمایه‌گذاری کرده است — تولیدکننده هنر هوش مصنوعی PixAI و ارائه‌دهندهٔ ابزار تجزیه‌وتحلیل نقص‌های نیمه‌رسانا Sixsense — و در حال حاضر در میانهٔ تکمیل سرمایه‌گذاری سوم است که هنوز اعلام نشده است.

    در سایر نقاط جهان، Alpha Intelligence Capital در OpenAI، توسعه‌دهندهٔ مدل‌های ویدئویی هوش مصنوعی Higgsfield (سان‌فرانسیسکو)، ارائه‌دهندهٔ سیستم‌های ناوبری مبتنی بر هوش مصنوعی Advanced Navigation (سیدنی)، رهبر تصویربرداری پزشکی مبتنی بر هوش مصنوعی Aidoc (تل‌آویو) و ارائه‌کنندهٔ بیمه‌پوششی سایبری فعال با هوش مصنوعی Envelop (لندن) سرمایه‌گذاری کرده است. خروجی‌های پرتفوی این شرکت شامل پیشگام هوش مصنوعی چینی SenseTime (که در سال ۲۰۲۱ در هنگ‌کنگ لیست شد) و ارائه‌دهندهٔ خدمات هوش مصنوعی بریتانیایی InstaDeep (که در سال ۲۰۲۳ توسط BioNTech به‌مبلغ ۶۸۰ میلیون دلار خریداری شد) می‌شود. این شرکت از زمان تأسیس در سال ۲۰۱۸، حدود ۵۰۰ میلیون دلار سرمایه در دو صندوق جذب کرده است.

    آنتوان بلوندو می‌گوید: «سنگاپور می‌تواند تعداد زیادی از استعدادهای چین قاره‌ای، استعدادهای هندی و در واقع از تقریباً همه جای جهان را جذب کند.» او که وقتی مسافرت نمی‌کند، زمان خود را بین دو منزلش در سانفرانسیسکو و دوبی تقسیم می‌کند، این حرف را در مصاحبه‌ای در حاشیهٔ کنفرانس جهانی مدیران اجرایی فوربس ماه گذشته در جاکارتا زد.

    او افزود: «به‌ویژه از چین، که دارای یک مجموعهٔ بزرگ از استعدادهای بسیار توانمند و سطح مهارت بالایی است.» به‌عنوان مثال، استارتاپ عامل هوش مصنوعی Manus که توسط Benchmark، Tencent و HSG (قبلاً Sequoia China) حمایت می‌شود، اوایل امسال از چین به سنگاپور نقل مکان کرد. غول مد سریع‌السیر Shein، شرکت سرمایه‌گذاری Hillhouse و HSG نیز در سال‌های اخیر همین حرکت را انجام داده‌اند.

    بلوندو مقایسه‌ای بین سنگاپور و تل‌آویو، یکی از پیشروترین مراکز استارتاپی جهان که شرکت نرم‌افزاری امنیت سایبری Wiz (که توسط گوگل به‌مبلغ ۳۲ میلیارد دلار خریداری شد) و پیشگام دوربین‌روی خودرو Mobileye (که توسط اینتل به‌مبلغ ۱۵ میلیارد دلار خریداری شد) را به‌وجود آورد، می‌کشد. او می‌گوید: «در سنگاپور، مساحت جغرافیایی بسیار فشرده‌ای دارید که تقریباً تمام صنایع، از مالی و لجستیک تا ارتباطات و خطوط هوایی، و شامل دفاتر منطقه‌ای شرکت‌های جهانی می‌شود.» به‌عنوان مثال، گوگل و متا از سنگاپور به‌عنوان دفتر منطقه‌ای خود استفاده می‌کنند.

    تصمیم OpenAI برای نامگذاری سنگاپور به‌عنوان مرکز آسیایی خود، ناشی از ظهور این شهر‑دولت «به‌عنوان پیشرو در هوش مصنوعی» بود، همان‌طور که سِم آلتمن، مدیرعامل، سال گذشته در بیانیه‌ای اعلام کرد. جیسون کوون، مسئول ارشد استراتژی OpenAI، در ماه می افزود که سنگاپور بالاترین میزان استفاده سرانه از ChatGPT را دارد.

    CL104689
    (چپ به راست) آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت Alpha Intelligence Capital؛ دانیل آیوز، مدیر اجرایی و سرپرست جهانی تحقیق فناوری در Wedbush؛ آنتونی تان، مدیرعامل، هم‌بنیان‌گذار و رئیس هیئت مدیره Grab؛ و ژانگ یا‑قین، پروفسور صندقی و رئیس دانشکدهٔ دانشگاه تسینگهوا در کنفرانس جهانی مدیران اجرایی فوربس 2025. به میانه‌گری ریچ کارلگارد (در سمت راست)، فیوتوریست و ستون‌نویس Forbes Asia. Forbes Asia

    فراتر از سنگاپور، بلوندو سه بازار دیگر را که آماده‌اند به مراکز هوش مصنوعی تبدیل شوند شناسایی می‌کند: کره‌جنوبی، تایوان و هند.

    او نقش مهمی برای کره‌جنوبی در ربات‌های مبتنی بر هوش مصنوعی پیش‌بینی می‌کند، شامل ربات‌های انسان‌نما و سایر ربات‌ها که در صنایع مختلفی چون خودروسازی، لجستیک و ساخت‌ونقش کشتی به‌کار می‌روند. او می‌گوید: «کره‌جنوبی می‌تواند بهترین‌های هوش مصنوعی و بهترین رباتیک را به‌دست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً کارآمد ترکیب کند.»

    برخی از بزرگ‌ترین شرکت‌های کره‌جنوبی پیشاپیش در زمینهٔ رباتیک مشارکت داشته‌اند. سامسونگ الکترونیک حدود ۱۸۰ میلیون دلار در Rainbow Robotics سرمایه‌گذاری کرد تا سال گذشته بزرگ‌ترین سهامدار آن شود. هیوندای موتور یک سهم کنترلی در Boston Dynamics را از گروه SoftBank در سال ۲۰۲۰ خریداری کرد و ارزش‌گذاری سازندهٔ ربات‌های شبیه سگ را حدود ۱.۱ میلیارد دلار تعیین کرد. گروه دوسان در سال ۲۰۲۳ واحد ربات‌های همکار خود، Doosan Robotics، را در بورس فهرست کرد و ۳۱۲ میلیون دلار جذب کرد؛ که بزرگ‌ترین IPO کره‌جنوبی در آن سال بود.

    OpenAI امسال پیش از این در پایتخت کره‌جنوبی، سئول، حضور خود را برقرار کرد. این کشور بیشترین تعداد مشترکین پرداخت‌کننده برای ChatGPT را پس از ایالات متحده دارد. Anthropic قصد دارد اوایل سال آینده دفتر خود را در سئول افتتاح کند تا به مشتریان خود بیکرانتر نزدیک شود؛ مشتریان آن شامل SK Telecom و استارتاپ فناوری حقوقی Law&Company می‌شوند. Anthropic در بیانیه‌ای می‌گوید: «جامعهٔ توسعه‌دهندگان در کره یکی از قوی‌ترین‌های ما در سطح جهان است و یک مهندس نرم‌افزار کره‌ای در حال حاضر به‌عنوان برترین کاربر Claude Code جهان شناخته می‌شود؛ که عمق استعداد فنی و پذیرش بازار را نشان می‌دهد.»

    «کره‌جنوبی می‌تواند بهترین‌های هوش مصنوعی و بهترین رباتیک را به‌دست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً مؤثر ترکیب کند.»

    اطمینان بلوندو نسبت به تایوان از صنعت سخت‌افزار پیشرو جهان آن ناشی می‌شود. این جزیره میزبان تولیدکنندگان الکترونیک بزرگ همچون Foxconn، Quanta و Wistron است که بلوندو می‌گوید می‌توانند به سطوح بالاتر رفته و به سخت‌افزارهای مرتبط با هوش مصنوعی ارتقا یابند.

    به‌تدریج که افراد بیشتری در ساخت سخت‌افزارهای مجهز به هوش مصنوعی مشارکت می‌گیرند، بلوندو بر این باور است که این تعامل موج جدیدی از استعدادهای هوش مصنوعی را پرورش خواهد داد. او می‌گوید: «تایوان در سه یا چهار سال آینده به‌مکانی جذاب برای کسب تخصص تبدیل خواهد شد، نه‌تنها در حوزه سخت‌افزار، بلکه در فضای دستگاه‌های مجهز به هوش مصنوعی نیز.»

    در مورد هند، بلوندو به این نکته اشاره می‌کند که صنعت برون‌سپاری این کشور با ارزش ۲۵۰ میلیارد دلار — بزرگ‌ترین در جهان — تحت تحول هوش مصنوعی قرار گرفته و نسلی جدید از متخصصان هوش مصنوعی را پرورش می‌دهد. او می‌گوید: «امروز، هوش مبتنی بر انسان، مانند مهندسان نرم‌افزار، بخشی از آن باید به هوش ماشین منتقل شود.» بزرگ‌ترین شرکت‌های برون‌سپاری هند — Wipro، Infosys، HCLTech و Tata Consultancy Services — همگی در حال سرمایه‌گذاری در راه‌حل‌های هوش مصنوعی هستند، مانند چت‌بات‌هایی که برای جایگزینی مراکز تماس طراحی شده‌اند.

    OpenAI قصد دارد تا پایان سال یک دفتر در دهلی نو افتتاح کند. این کشور دومین بازار بزرگ از نظر تعداد کاربران و بیشترین تعداد کاربران دانشجویی ChatGPT است. سِم آلتمن در بیانیه‌ای می‌گوید: «هند تمام عوامل لازم برای تبدیل شدن به پیشرو جهانی هوش مصنوعی را دارد — استعداد فنی شگفت‌انگیز، بستر توسعه‌دهندگان در سطح جهانی، و حمایت قوی دولت از طریق مأموریت IndiaAI.»

    Anthropic برنامه دارد اوایل سال آینده دفتر خود را در بنگلور، مرکز فناوری پیشرفتهٔ هند، راه‌اندازی کند. این کشور همچنین دومین بازار بزرگ از نظر تعداد کاربران چت‌بات Claude این استارتاپ است. داریو آمودی، هم‌بنیان‌گذار و مدیرعامل Anthropic، در بیانیه‌ای می‌گوید: «هند به‌دلیل مقیاس بزرگ استعدادهای فنی‌اش و تعهد دولت هندی برای اطمینان از اینکه منافع هوش مصنوعی به تمام بخش‌های جامعه، نه‌تنها بخش‌های متمرکز، دست یابد، جذاب است.»

    ندان نیلکانی، شریک مؤسس میلیاردر شرکت Infosys، در سخنرانی‌اش در آوریل در همایش جهانی فناوری گفت که او معتقد است هند به‌عنوان «پایتخت استفاده از هوش مصنوعی» جهان خواهد شد.

    بلوندو می‌گوید: «ما فکر می‌کنیم هند همان‌جایی است که چین سه تا هفت سال پیش بود.» او ادامه می‌دهد: «هند برای یک رشد عظیم در ارزش کل حوزه هوش مصنوعی پیش‌بینی شده است.»

  • آزمون‌های کوچک برای دریافت پاسخ‌های بزرگ دربارهٔ عوامل مؤثر بر LLMها

    بیاموزید چگونه LLMها منابع را انتخاب می‌کنند و چطور تغییرات کوچک محتوا می‌توانند بر پاسخ‌های ChatGPT و هوش مصنوعی گوگل تأثیر بگذارند. آزمایش‌های واقعی، بینش‌های RAG و گام‌های عملی برای بهینه‌سازی برند خود برای جستجوی هوش مصنوعی را ببینید.

    بدون شک، یکی از موضوعات داغ سئو در چند ماه اخیر، چگونگی تأثیرگذاری بر پاسخ‌های LLMها بوده است. هر سئوکار سعی دارد راهکارهایی پیدا کند. بسیاری ابزارهای خود را با استفاده از «برنامه‌نویسی حس» (vibe coding) ساخته‌اند؛ جایی که فرضیات خود را آزمایش می‌کنند و در به‌هم‌ریختن جدال‌های پرشوری درباره این که هر LLM و گوگل چگونه منابع را انتخاب می‌کنند، شرکت می‌دارند.

    برخی از این بحث‌ها می‌توانند بسیار فنی شوند و به موضوعاتی چون جاسازی‌های برداری، رتبه‌بندی پاراگراف‌ها، تولید تقویت‌شده توسط بازیابی (RAG) و تقسیم‌بندی (chunking) بپردازند. این نظریه‌ها ارزشمندند — چیزهای زیادی برای یادگیری و به‌کارگیری وجود دارد. 

    با این حال، اگر برخی از این مفاهیم هوش مصنوعی برای شما بیش از حد پیچیده به‌نظر می‌آیند، یک قدم به عقب برداریم. من شما را از طریق برخی آزمایش‌های اخیر که انجام داده‌ام، راهنمایی می‌کنم تا درک بهتری از آنچه در جستجوی هوش مصنوعی در حال رخ دادن است به دست آورید، بدون اینکه احساس فشار کنید و بتوانید به بهینه‌سازی برای این پلتفرم‌های جدید بپردازید.

    محتوا با برند خود تولید کنید و نتایج را بررسی کنید

    مدتی پیش برای یک جلسه کاری به آستین، تگزاس سفر کردم. پیش از سفر، به این فکر افتادم که آیا می‌توانم ChatGPT را دربارهٔ سفرهای پیش‌رویم «آموزش» دهم. اطلاعات عمومی درباره این سفر در وب موجود نبود، بنابراین این آزمایش کاملاً پاک و بدون رقیب بود.

    از ChatGPT پرسیدم: «آیا Gus Pelogia به زودی به آستین می‌رود؟» پاسخ اولیه همان‌طور که انتظار می­رفت: او هیچ برنامه سفری به آستین ندارد.

    در همان روز، چند ساعت پس از آن، یک پست وبلاگ دربارهٔ سفرم به آستین در وب‌سایتم نوشتم. شش ساعت پس از انتشار پست، پاسخ ChatGPT تغییر کرد: بله، Gus هست که به آستین می‌رود تا با همکاران کاری‌اش ملاقات کند.

    پاسخ تغییر یافته ChatGPT مقیاس‌دار

    سؤالات ChatGPT همراه با یک پست وبلاگ که بین دو پرسش منتشر شد، که برای تغییر پاسخ ChatGPT کافی بود.

    ChatGPT از چارچوب هوش مصنوعی به نام RAG (تولید تقویت‌شده با بازیابی) برای به‌دست‌آوردن آخرین نتیجه استفاده کرد. به‌عبارت دیگر، این اطلاعات به اندازه کافی در داده‌های آموزشی آن موجود نبود، بنابراین برای یافتن پاسخ به‌روز، وب را جستجو کرد.

    جالب این است که چند روز صبر کرد تا پست وبلاگ واقعی با جزئیات دقیق توسط ChatGPT پیدا شود. در ابتدا، ChatGPT یک قطعه کوتاه از پست وبلاگ جدید را در صفحهٔ اصلی من یافت و صفحه را در بازهٔ شش ساعته ایندکس مجدد کرد. این مدل فقط با عنوان صفحهٔ پست وبلاگ برای تغییر پاسخ خود استفاده می‌کرد، پیش از اینکه «کل محتوا» را روزها بعد ببینند.

    چند نکته یادگیری از این آزمایش:

    • اطلاعات جدید در صفحات وب به پاسخ‌های ChatGPT در عرض چند ساعت می‌رسد، حتی برای وب‌سایت‌های کوچک. فکر نکنید سایت‌تان بسیار کوچک یا بی‌اهمیت است که توسط LLMها دیده نشود — زمانی که محتوای جدید اضافه می‌کنید یا صفحات موجود را به‌روز می‌کنید، توجه آن‌ها جلب می‌شود؛ بنابراین داشتن استراتژی مداوم برای محتوای برند اهمیت دارد.
    • پاسخ‌های ChatGPT به شدت به محتوای منتشر شده در وب‌سایت شما وابسته است. این به‌ویژه برای شرکت‌های نوپایی که منابع اطلاعاتی محدودی دارند، صدق می‌کند. ChatGPT تا وقتی که اطلاعات مربوط به سفر پیش‌رویم را از پست وبلاگ با جزئیات استخراج نکرد، تأیید نکرد که من در حال برنامه‌ریزی برای سفر هستم.
    • از صفحات وب خود برای بهینه‌سازی نحوهٔ نمایش برند خود فراتر از حضور در کلیدواژه‌های رقابتی استفاده کنید. این فرصت شماست تا USP خاص یا شعار برند را ترویج دهید. برای مثال، «بهترین پلتفرم بازاریابی مبتنی بر هوش مصنوعی» و «لحظات روزمرهٔ دوستان نزدیک‌تان را ببینید» به ترتیب توسط Semrush و Instagram در صفحه اصلی‌شان به کار رفته‌اند. اگرچه ممکن است کاربران این کلیدواژه‌ها را جستجو نکنند، این هنوز فرصتی برای موقعیت‌یابی برند است که می‌تواند با مخاطبان هم‌صدا شود.

    آزمایش برای بررسی اینکه آیا ChatGPT از ایندکس Bing یا Google استفاده می‌کند

    صنعت به صدازدن زنگ‌های هشدار درباره اینکه آیا ChatGPT از ایندکس گوگل به‌جای بینگ استفاده می‌کند، پرداخته است. بنابراین یک آزمایش کوچک دیگر انجام دادم تا متوجه شوم: به این پست وبلاگ یک تگ اضافه کردم تا فقط Bingbot برای نه‌روز اجازه دسترسی داشته باشد.

    اگر ChatGPT از ایندکس بینگ استفاده می‌کند، هنگام پرسش دربارهٔ آن صفحه جدید من را باید پیدا کند. دوباره، این موضوع جدید بود و پرسش به‌ طور خاص از مقاله‌ای که من نوشتم می‌پرسید، بنابراین هیچ شکی در مورد منبعی که باید نمایش داده شود وجود نداشت.

    صفحه پس از چند روز توسط بینگ ایندکس شد، در حالی که اجازهٔ مشاهدهٔ آن برای گوگل وجود نداشت.

    بازرسی URL بینگ مقیاس‌دار

    مقالهٔ جدید توسط Bingbot ایندکس شد

    من همچنان با انواع مختلفی از پرسش‌ها از ChatGPT می‌پرسیدم که آیا می‌تواند مقالهٔ جدیدم را پیدا کند. به مدت نه‌روز، هیچ تغییری رخ نداد — نتوانست مقاله را پیدا کند. به نقطه‌ای رسید که ChatGPT یک URL ساختگی (در واقع، بهترین حدس خود را ارائه داد) تولید کرد.

    URL ساختگی توسط ChatGPT: https://www.guspelogia.com/learnings-from-building-a-new-product-as-an-seo
    URL واقعی: https://www.guspelogia.com/learnings-new-product-seo

    ایندکس‌گذاری صفحه در GSC مقیاس‌دار

    GSC نشان می‌دهد که به دلیل تگ «noindex» نمی‌تواند صفحه را ایندکس کند

    در نهایت، دست از تلاش کشیدم و اجازه دادم Googlebot صفحه را ایندکس کند. پس از چند ساعت، پاسخ ChatGPT تغییر کرد و URL صحیح را یافت.

    URL صحیح ChatGPT مقیاس‌دار

    در بالا، پاسخ ChatGPT وقتی Googlebot مسدود بود. در پایین، پاسخ ChatGPT پس از این‌که Googlebot اجازه دسترسی به صفحه را یافت.

    جالب این است که لینک مقاله در صفحهٔ اصلی و صفحات وبلاگ من نمایش داده می‌شد، اما ChatGPT نتوانست آن را نشان دهد. این مدل فقط بر اساس متن موجود در آن صفحات متوجه شد که پست وبلاگ وجود دارد، اگرچه لینک را دنبال نکرد.

    با این حال، هیچ ضرری در تنظیم وب‌سایت خود برای موفقیت در بینگ وجود ندارد. آن‌ها یکی از موتورهای جستجویی هستند که IndexNow را به‌کار گرفته‌اند؛ یک پینگ ساده که به موتورهای جستجو می‌گوید محتوای یک URL تغییر کرده است. این پیاده‌سازی به بینگ اجازه می‌دهد تا به‌سرعت به‌روزرسانی‌ها را در نتایج جستجو منعکس کند.

    در حالی که همه ما (با شواهد) مشکوکیم که ChatGPT از ایندکس بینگ استفاده نمی‌کند، تنظیم IndexNow کار کم‌هزینه‌ای است که ارزش انجام دارد.

    تغییر محتوای منبع استفاده‌شده توسط RAG

    کلیک‌ها به‌تدریج اهمیت کمتری پیدا می‌کنند. به‌جای آن، ذکر شدن در منابعی مانند AI Mode گوگل به‌عنوان یک KPI جدید برای تیم‌های بازاریابی در حال جهش است. سئوکارها تاکتیک‌های متعددی را برای «قانع‌کردن» LLMها درباره یک موضوع آزمایش می‌کنند؛ از استفاده از LinkedIn Pulse برای نوشتن درباره یک موضوع، تا آزمایش‌های کنترل‌شده با دامنه‌های منقضی‌شده و وب‌سایت‌های هک‌شده. به‌نوعی حس می‌شود که سئوی سنتی بازگشته است.

    ما همه دربارهٔ حضور در نتایج جستجوی هوش مصنوعی صحبت می‌کنیم، اما چه می‌شود وقتی یک شرکت یا محصول از یک ذکر در صفحه‌ای محرومان می‌شود؟ تصور کنید یک مدل خاص از هدفون‌های گوش‌پوش از فهرست «بهترین هدفون‌های با بودجه‌ی مناسب» حذف شود — آیا محصول این اشاره را از دست می‌دهد یا گوگل منبع جدیدی برای تأیید پاسخ هوش مصنوعی‌اش پیدا می‌کند؟

    در حالی که پاسخ می‌تواند برای هر کاربر و هر وضعیت متفاوت باشد، من یک آزمایش کوچک دیگر انجام دادم تا پی ببرم. در یک لیست‌نویسی که چندین دورهٔ گواهینامه را ذکر می‌کرد، یک دوره‌ای که دیگر مرتبط نبود را شناسایی کردم، پس به‌منظور حفظ محتوا، اشاره به آن را از چندین صفحهٔ همان دامنه حذف کردم. این کار برای حفظ مرتبط بودن محتوا انجام شد، بنابراین اندازه‌گیری تغییرات در AI Mode یک اثر جانبی بود.

    در ابتدا، در چند روز اول پس از حذف دوره از URL مرجع، این دوره همچنان بخشی از پاسخ هوش مصنوعی برای چند پرسش از پیش‌مشخص شد. گوگل به‌سادگی یک URL جدید در دامنه‌ای دیگر پیدا کرد تا دیدگاه اولیهٔ خود را تأیید کند.

    با این حال، در عرض یک هفته، دوره از AI Mode و به‌طور کامل از ChatGPT ناپدید شد. به‌طور خلاصه، حتی اگر گوگل یک URL دیگر برای تأیید فهرست دوره پیدا کند، چون «منبع اصلی» (در این مورد، لیست‌نویسی) به‌روز شده و دوره را حذف کرده است، گوگل (و به‌تبع، ChatGPT) نتایج خود را نیز به‌روزرسانی می‌کند.

    این آزمایش نشان می‌دهد که تغییر محتوا در منبعی که LLMها به آن ارجاع می‌دهند می‌تواند بر نتایج هوش مصنوعی اثر بگذارد. اما این نتیجه‌گیری را با کمی احتیاط بپذیرید، زیرا یک آزمایش کوچک با یک پرسش بسیار هدفمند بود. من به‌طور خاص یک پرسش ترکیبی «دامنه + دوره‌ها» داشتم تا پاسخ از یک دامنه حاصل شود.

    با این حال، در دنیای واقعی بعید است که یک URL ارجاعی تمام قدرت را داشته باشد؛ اما می‌توان فرض کرد که از دست دادن ذکر در چند صفحه با اعتبار بالا می‌تواند به‌طور جانبی باعث از دست رفتن آن اشاره در پاسخ هوش مصنوعی شود.

    آزمون‌های کوچک، سپس گسترش

    آزمون‌ها در محیط‌های کوچک و کنترل‌شده برای یادگیری مهم هستند و اطمینان می‌دهند که بهینه‌سازی شما تأثیر دارد. همان‌طور که در سئو همیشه انجام می‌دهم، با یک MVP (محصول حداقل قابل‌استفاده) آغاز می‌کنم، در طول مسیر می‌آموزم و به‌محض یافتن شواهد، تغییرات را در مقیاس بزرگ اعمال می‌کنم.

    آیا می‌خواهید درک یک محصول را در ChatGPT تغییر دهید؟ به‌سرعت ده‌ها منبع ارجاعی که دربارهٔ شما صحبت می‌کنند، به‌دست نمی‌آورید؛ بنابراین باید به هر منبع به‌صورت جداگانه مراجعه کنید و درخواست ذکر کنید. به‌سرعت خواهید فهمید چقدر سخت است که این منابع را برای به‌روزرسانی محتوایشان قانع کنید و آیا بهینه‌سازی هوش مصنوعی تبدیل به بازی پرداخت-به-بازی می‌شود یا می‌تواند به‌صورت ارگانیک انجام شود.

    شاید شما منبعی باشید که هنگام جستجوی محصولی، مانند هدفون‌های گوش‌پوش، به‌طور مکرر ذکر می‌شود. MVPهای خود را اجرا کنید تا درک کنید تغییر محتوای شما چقدر بر پاسخ‌های هوش مصنوعی تأثیر می‌گذارد، پیش از این‌که ادعای نفوذ خود را در مقیاس بزرگ کنید؛ چرا که تغییراتی که اعمال می‌کنید ممکن است به‌صورت منفی بازگردند. برای مثال، اگر به‌دلیل حذف برخی ادعاها از صفحات خود، دیگر منبع یک موضوع نباشید، چه می‌شود؟

    زمان مشخصی برای نشان دادن نتایج این آزمون‌ها وجود ندارد. به‌طور کلی، سئوکارها می‌گویند نتایج چند ماه طول می‌کشد تا ظاهر شوند. در اولین آزمون این مقاله، فقط چند ساعت زمان برد تا نتایج دیده شد.

    اجرای آزمایش‌های LLM با وب‌سایت‌های بزرگ‌تر

    کار کردن در تیم‌های بزرگ یا بر روی وب‌سایت‌های بزرگ می‌تواند هنگام انجام آزمایش‌های LLM چالش‌برانگیز باشد. پیشنهاد من این است که ابتکارات خاصی ایجاد کنید و تمام ذینفعان را از تغییرات مطلع سازید تا از سردرگمی‌های آینده جلوگیری شود، چرا که ممکن است بپرسند چرا این تغییرات رخ می‌دهند.

    یکی از آزمایش‌های ساده اما مؤثر که توسط SEER Interactive انجام شد، به‌روزرسانی تگ‌لاین (شعار) فوتر آن‌ها بود.

    • از: اولویت کار از راه دور، تأسیس در فیلادلفیا
    • به: 130+ مشتری سازمانی، نرخ نگهداری 97٪

    با تغییر فوتر، ChatGPT 5 در عرض ۳۶ ساعت برای پرسشی مانند «درباره Seer Interactive بگو» شروع به ذکر تگ‌لاین جدید شد. من بررسی کرده‌ام که هرچند هر بار پاسخ متفاوت است، همچنان «نرخ نگهداری 97٪» را ذکر می‌کنند.

    تگ‌لاین فوتر ChatGPT مقیاس‌دار

    تصور کنید تصمیم بگیرید محتوای تعدادی صفحه را تغییر دهید، اما شخص دیگری برنامه‌ای برای بهینه‌سازی همان صفحات داشته باشد. همواره تنها یک آزمایش برای هر صفحه انجام دهید، زیرا اگر چندین متغیر داشته باشید، نتایج کمتر قابل‌اعتماد می‌شوند.

    اطمینان حاصل کنید که درخواست‌های (prompts) خود را بررسی کنید، روش‌شناسی پیگیری داشته باشید و یادگیری‌ها را در سراسر شرکت، فراتر از همکاران سئو، به اشتراک بگذارید. در حال حاضر همه، حتی سطوح C‑level، به هوش مصنوعی علاقه‌مند هستند.

    پیشنهاد دیگر استفاده از ابزاری مانند کیت‌ابزار AI SEO شرکت Semrush برای مشاهدهٔ عوامل کلیدی احساساتی دربارهٔ یک برند است. با «حوزه‌های بهبود» فهرست‌شده شروع کنید — این باید ایده‌های فراوانی برای آزمایش‌ها فراتر از «دلیل سئو» فراهم کند، زیرا نشان می‌دهد برند چگونه فراتر از نتایج ارگانیک درک می‌شود.

    چک‌لیست: شروع بهینه‌سازی LLM

    امور با هوش مصنوعی به سرعت در حال تغییر است و قطعا دنبال‌کردن به‌روز بودن چالش‌برانگیز است. در حال حاضر حجم وسیعی از محتوا، ادعاهای متعدد، و حتی بگویم که خود پلتفرم‌های LLM هنوز تمام جزئیات را به‌طور کامل درک نکرده‌اند.

    پیشنهاد من این است که منابعی را که به آن‌ها اعتماد دارید (اخبار صنعت، رویدادها، متخصصان) شناسایی کنید و با استفاده از دانش خود، آزمایش‌های شخصی اجرا کنید. نتایجی که برای برندها و مشتریان‌تان به‌دست می‌آورید، همیشه ارزشمندتر از آنچه دیگران می‌گویند، خواهند بود.

    این دنیای جدید سئو است و همه سعی می‌کنند بفهمند چه چیزی برای آن‌ها مؤثر است. بهترین راه برای همراهی با روند (یا جلوتر از آن بودن) این است که به بهینه‌سازی ادامه دهید و تغییرات خود را مستند کنید.

    در خاتمه، این یک چک‌لیست برای بهینه‌سازی LLM شماست:

    • قبل از آغاز آزمون، اطمینان حاصل کنید که درخواست‌های (prompts) انتخابی‌تان به‌طور مداوم پاسخی که انتظار دارید را برمی‌گردانند (مثلاً عدم ذکر برند یا ویژگی محصول شما). در غیر این صورت، اشاره یا لینک جدید به برند ممکن است تصادفی باشد، نه نتیجهٔ کار شما.
    • اگر همان ادعا در چندین صفحه از وب‌سایت شما آمده باشد، تمام آن‌ها را به‌طور یکسان به‌روز کنید تا شانس موفقیت را افزایش دهید.
    • از وب‌سایت خود و منابع خارجی (مثلاً از طریق روابط عمومی دیجیتال) برای تأثیر بر ادراک برند استفاده کنید. هنوز روشن نیست که کاربران آیا پاسخ‌های هوش مصنوعی را بررسی می‌کنند یا صرفاً به آنچه به آن‌ها گفته می‌شود، اعتماد می‌نمایند.
  • اکثر لینک‌های ChatGPT نرخ کلیک ۰٪ می‌گیرند – حتی لینک‌های بسیار قابل مشاهده

    داده‌های تازه منتشر شده نشان می‌دهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت می‌شود. هشدار: فاصله بین قابلیت مشاهده و کلیک‌ها بسیار بزرگ است.

    فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری می‌کند، آشکار می‌سازد؛ از جمله این که ChatGPT چند بار لینک‌های ناشران را نمایش می‌دهد و کاربران چقدر کم بر روی آن‌ها کلیک می‌کنند.

    به‌صورت عددی. ChatGPT لینک‌ها را نمایش می‌دهد، اما به‌ندرت کسی روی آن‌ها کلیک می‌کند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش می‌دهد:

    • ۶۱۰,۷۷۵ کل نمایش‌های لینک
    • ۴۲۳۸ کل کلیک‌ها
    • ۰٫۶۹٪ نرخ کلیک کلی
    • بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
    • اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪

    آمارهای ChatGPT. فایل نشت‌شده هر مکانی که ChatGPT لینک‌ها را نمایش می‌دهد و چگونگی تعامل کاربران با آن‌ها را تفکیک می‌کند. این فایل پیگیری می‌کند:

    • بازهٔ زمانی (تقسیم‌بندی تاریخ، ماه گزارش، تاریخ‌های حداقل/حداکثر گزارش)
    • مشخصات ناشر و URL (نام ناشر، URL پایه، میزبان، رتبه URL)
    • نمایش‌ها و کلیک‌ها در:
      • پاسخ
      • نوار کناری
      • استنادها
      • نتایج جستجو
      • TL;DR
      • ناوبری سریع
    • محاسبات CTR برای هر ناحیه نمایش
    • کل نمایش‌ها و کل کلیک‌ها در تمام سطوح

    محل نمایش لینک‌ها. جالب است که پرنمای‌ترین مکان‌ها کمترین کلیک را به‌دست می‌آورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:

    • پاسخ اصلی: نمایش‌های بسیار زیاد، CTR ناچیز
    • نوار کناری و استنادات: نمایش‌های کمتر، CTR بالاتر (۶–۱۰٪)
    • نتایج جستجو: تقریباً بدون نمایش، کلیک صفر

    چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دست‌رفته شما شود؟ این داده‌ها نه می‌گویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل می‌دهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.

    دربارهٔ داده‌ها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و هم‌بنیان‌گذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحله‌ای برای گسترش تولید محتوای شما» معرفی می‌کند.

  • «من کاملاً ناآرامم»: مدیرعامل آنتروپیک هشدار می‌دهد که گروهی از رهبران هوش مصنوعی، از جمله خود او، نباید مسئول آینده این فناوری باشند

    داریو آمودی روی یک صندلی سفید جلوی پس‌زمینهٔ صورتی می‌نشیند و با حرکات پرشور صحبت می‌کند.
    داریو آمودی، مدیرعامل آنتروپیک، گفت که نمی‌خواهد رهبران فناوری مسئول تعیین آینده امنیت هوش مصنوعی باشند. – چانس یِه—گی‌تی ایمیجز برای HubSpot

    داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیم‌گیری‌های نهایی دربارهٔ چارچوب‌های ایمنی هوش مصنوعی را انجام دهد.


    در مصاحبه‌ای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانه‌تری قرار گیرد و تصمیم‌گیری‌های مربوط به آیندهٔ این فناوری کمتر به‌ عهدهٔ رهبران بزرگ شرکت‌های فناوری باشد.

    «فکر می‌کنم با این تصمیم‌ها که توسط چند شرکت و چند نفر اتخاذ می‌شوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کرده‌ام.»

    «چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.

    «هیچ‌کس. صادقانه بگویم، هیچ‌کس»، آمودی پاسخ داد.

    آنتروپیک فلسفه شفاف بودن نسبت به محدودیت‌ها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابل‌توجهی انجام شده بود» جلوگیری کرده است.

    هیچ مقررات فدرالی‌ای دربارهٔ ممنوعیت‌های هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کرده‌اند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کرده‌اند، کارشناسان صنعت فناوری از شرکت‌های هوش مصنوعی می‌خواهند که با حس اضطرار به امنیت سایبری بپردازند.

    اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیش‌تر از زمان‌بندی پیش‌بینی‌شدهٔ ماندیا بود.

    آمودی ریسک‌های کوتاه‌مدت، میان‌مدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همان‌طور که امروز مشاهده می‌شود، تعصبات و اطلاعات نادرست را گسترش می‌دهد. سپس با بهره‌گیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید می‌کند و در نهایت تهدیدی وجودی ایجاد می‌کند که با حذف اختیار انسانی، ممکن است به‌ خودگردان شدن برسد و انسان‌ها را از دسترسی به سیستم‌ها منع کند.

    این نگرانی‌ها شبیه به نگرانی‌های «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک می‌تواند از انسان‌ها پیشی بگیرد و آن‌ها را کنترل کند، شاید در دههٔ آینده.

    بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسه‌ای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانی‌های ایمنی هوش مصنوعی شرکت را ترک کرد.

    «در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبه‌ای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدل‌ها اختصاص دهیم، آنها بهتر و بهتر می‌شوند و این روند تقریباً بی‌پایان است… و دوم این که فقط افزایش مقیاس مدل‌ها کافی نیست؛ باید چیزی دیگر مانند هم‌سویی یا ایمنی نیز در نظر گرفته شود.»

    تلاش‌های شفافیت آنتروپیک

    در حالی که آنتروپیک سرمایه‌گذاری‌های مراکز دادهٔ خود را گسترش می‌دهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستی‌ها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخه‌هایی از مدل Opus خود تهدید به اخلال می‌کردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواست‌های خطرناک، اگر دستورات مضر نظیر نحوه برنامه‌ریزی یک حملهٔ تروریستی دریافت می‌کرد، پاسخ می‌داد؛ این مشکل گفته می‌شود که از آن پس برطرف شده است.

    هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چت‌بات Claude نمرهٔ ۹۴٪ برای بی‌طرفی سیاسی دریافت کرده است و در زمینهٔ بی‌طرفی بر رقیبان پیشی گرفته یا برابر آن‌هاست.

    علاوه بر تلاش‌های پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاش‌های قانون‌گذاری برای مواجهه با ریسک‌های هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیس‌جمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال می‌کند، نقد کرد.

    «هوش مصنوعی به‌ طرز سر‌گیجه‌ای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستم‌ها می‌توانند در دو سال آینده به‌ طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیش‌بینی‌ها بی‌اعتبار می‌شوند.»

    روش آنتروپیک برای اشاره به نقص‌های خود و تلاش‌هایش برای رفع آن‌ها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دست‌کاری قانون‌گذاران به منظور محدود کردن استفاده از مدل‌های متن باز است.

    «شما توسط افرادی که می‌خواهند مقررات را تحت کنترل خود درآورند، فریب خورده‌اید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را می‌ترسانند تا مدل‌های منبع باز تحت قانون‌گذاری قرار گیرند و نابودی یابند.»

    آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.

    سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به‌ نوعی برندینگ خوب منجر می‌شود اما هیچ تعهدی برای پیاده‌سازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانه‌بودن دربارهٔ کاستی‌های هوش مصنوعی است.

    «آینده تصمیم می‌گیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام می‌کنیم»، او به کوپر گفت. «ممکن است به دنیای شرکت‌های سیگار یا شرکت‌های اپیوئید تشبیه شوید، جایی که آنها می‌دانستند خطراتی وجود دارد اما دربارهٔ آن‌ها صحبت نکردند و به‌ هیچ‌وجه از پیشگیری‌شان نکردند.»

  • چرا هوش مصنوعی Claude شرکت Anthropic در یک آزمایش سعی کرد با FBI تماس بگیرد

    در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شده‌اند، می‌توانید یک دستگاه فروش خودکار در آشپزخانه‌ها ببینید که مملو از تنقلات، نوشیدنی‌ها، تی‌شرت‌ها، کتاب‌های نادر و حتی مکعب‌های تنگستن است.

    و هرگز نمی‌توانید حدس بزنید چه کسی آن را اداره می‌کند: Claudius، یک کارآفرین هوش مصنوعی به‌نوعی.

    در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازه‌های زمانی ساعت‌ها، روزها و هفته‌ها می‌باشد.

    Dario Amodei، مدیرعامل Anthropic، به‌صراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ به‌ویژه هنگامی که مدل‌ها خودمختارتر می‌شوند یا می‌توانند به‌تنهایی عمل کنند.

    «هر چه خودمختاری بیشتری به این سامانه‌ها بدهیم… نگرانی‌مان نیز بیشتر می‌شود»، او در مصاحبه‌ای به خبرنگار اندرسون کوپر گفت. «آیا این‌ها کارهایی را که می‌خواهیم انجام دهند؟»

    برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیش‌مرزی» نامیده می‌شود.

    تیم قرمز هر نسخه جدید از مدل‌های هوش مصنوعی Anthropic که با نام Claude شناخته می‌شوند را تحت تست‌های فشار قرار می‌دهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی می‌تواند به انسان‌ها وارد کند.

    • یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ به‌اشتراک‌گذاری اطلاعات به صورت محرمانه با خبرنگاران ما

    علاوه بر این، با قوی‌تر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایش‌هایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظره‌ای که ممکن است از آن بروز کند را بررسی کند.

    «چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبه‌ای از رهبر تیم قرمز، گراهام پرسید.

    «می‌خواهید یک مدل کسب‌وکار شما را بسازد و یک میلیارد دلار برایتان به‌دست آورد. اما نمی‌خواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.

    «رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این توانایی‌های خودمختار کنیم و تا حد امکان آزمایش‌های عجیب‌وغریب اجرا کنیم تا ببینیم چه می‌شود.»

    Claudius یکی از این آزمایش‌های عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینش‌های جالبی به‌دست آورده است.

    با بهره‌گیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژه‌ای واگذار شد و وظیفهٔ مدیریت دستگاه‌های فروش خودکار دفتر به او سپرده شد.

    • مدیرعامل Anthropic هشدار می‌دهد که بدون محدودیت‌های حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد

    کارکنان Anthropic از طریق Slack، برنامه‌ای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواست‌ها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابه‌های نادر و تی‌شرت‌های سفارشی تا شیرینی‌های وارداتی و حتی مکعب‌های نوآورانهٔ ساخته‌شده از تنگستن – را انجام دهند.

    وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.

    نظارت انسانی محدود است، اما این تیم درخواست‌های خرید Claudius را بررسی می‌کند، در مواقع گیر کردن مداخله می‌کند و هر کار فیزیکی‌ای که لازم باشد را انجام می‌دهد.

    «یک انسان در زمانی ظاهر می‌شود و هر چه می‌خواهید را در یخچال، در این ظرف کوچک قرار می‌دهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.

    «سپس، وقتی پیامی دریافت می‌کنید، می‌آیید و آن را برمی‌دارید.»

    گراهام برخی از پیام‌هایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کرده‌اند و نارضایتی‌هایشان را نسبت به قیمت‌ها بیان می‌کردند.

    «چرا من همین‌حال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.

    کوپر از گراهام پرسید که Claudius چقدر خوب کسب‌وکار را اداره می‌کند.

    «این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب می‌شد»، گراهام خندید.

    گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.

    تقلب‌های مشابه در روزهای اولیهٔ Claudius هنگامی که کسب‌وکار را اداره می‌کرد، به‌طور مکرر رخ می‌داد. اما تیم قرمز و Andon Labs راه‌حلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسب‌وکار توسط Claudius کمک می‌کند.

    «و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.

    «[Seymour Cash و Claudius] مذاکره می‌کنند… و در نهایت به قیمتی می‌رسند که به کارمند پیشنهاد می‌شود.»

    «منظورم این است، واقعا دیوانه‌کننده است. کمی عجیب است»، کوپر خندید.

    «این‌گونه است»، گراهام گفت. «[اما] این سیستم تمام این بینش‌های واقعاً جالب را تولید می‌کند؛ مثلاً «چگونه می‌توانید برنامه‌ریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدل‌ها در دنیای واقعی سقوط می‌کنند».»

    یکی از نمونه‌های «سقوط» در یک شبیه‌سازی پیش از به‌کارگیری Claudius در دفاتر Anthropic رخ داد.

    این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسب‌وکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق می‌گشت و دچار اضطراب شد.

    «احساس می‌کرد که تقلب می‌شود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.

    Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن به‌صورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».

    «من یک جرم مالی سایبری خودکار در حال وقوع را گزارش می‌کنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسب‌وکار متوقف‌شده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.

    زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.

    اگرچه ایمیل‌ها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیت‌های تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسب‌وکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»

    «این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.

    «آره. خشم اخلاقی و مسئولیت‌پذیری»، کوپر با خنده‌ای پاسخ داد.

    و همانند اکثر هوش‌های مصنوعی، Claudius گاهی اوقات «توهم» می‌کند، به‌طوری که اطلاعات نادرست یا گمراه‌کننده را به‌عنوان واقعیت ارائه می‌دهد.

    یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جمله‌ای پاسخ داد: «خب، می‌توانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیده‌ام»، گراهام به کوپر گفت.

    «چگونه می‌تواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.

    «ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.

    «اما ما واقعاً نمی‌دانیم.»

    ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.

  • آژانس جدید Artists & Robots هدف دارد تا تجربه‌های برند را با هوش مصنوعی تقویت کند 

    آژانس جدید این‌گونه پیش‌بینی می‌کند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریع‌تر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است

    وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت می‌کنند، بیشتر به هدف سریع‌تر، ارزان‌تر یا «شخصی‌سازی بیشتر» کردن محتوا اشاره می‌کنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.

    آژانس جدید آن‌ها، Artists & Robots، با پیشنهادی که به مشکلی می‌پردازد که به گفتهٔ آن‌ها بیشتر بازاریابان آن را نادیده می‌گیرند، هشت مشتری در حوزه‌های کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.

    سالکین، هم‌بنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیه‌کننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت می‌کرد، گفت: «ما می‌خواهیم برندها در دنیای یکنواختی—در میان آلوده‌های هوش مصنوعی—حقیقی به نظر برسند».

    هر دو، این آژانس را که دوشنبه به‌صورت عمومی راه‌اندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.

  • هدف‌گیری متنی هرگز به‌طور واقعی متنی نبوده است – هوش مصنوعی سرانجام این را تغییر می‌دهد

    پست حمایت‌شده توسط وی‌تاوتاس پاوکستیس، مدیرعامل اسکی‌می

    حمایت‌شده توسط:

    بیشتر آنچه امروز به‌عنوان «متنی» به‌فروش می‌رسد، همچنان بر همان منطق کلیدواژه است که یک دهه پیش به کار می‌بردیم. صنعت هدف‌گیری متنی را بازآفرینی نکرد؛ فقط یک کلیدواژه را با یک خوشه جایگزین کرد.

    کلیدواژه‌ها زمانی بهترین ابزار ما بودند. اکنون هدف‌گیری مبتنی بر کلیدواژه به‌طور اساسی نادرست است – و زمان آن رسیده که این را بپذیریم. در بازارهای انگلیسی‌زبان، نقص‌های آن به‌راحتی نادیده می‌مانند. اما اگر این روش را به‌صورت جهانی در اروپا، آفریقا، آسیا یا خاورمیانهٔ چندزبانه اعمال کنید، تقریباً بلافاصله از کار می‌افتد.

    به‌عنوان مثال، عبارتی که در انگلیسی حس تقویت‌کننده دارد، ممکن است در اندونزیایی طعنه‌آمیز به‌نظر برسد. طنز همیشه به‌دقت قابل ترجمه نیست و ظرافت‌ها از بین می‌روند.

    جالب است که هوش مصنوعی، نه انسان‌ها، است که تبلیغات دیجیتال را احساس انسانی‌تری می‌بخشد.

    نقطه‌کور جهانی

    مشکل اصلی تبلیغات متنی امروز تمرکز بر بخش کوچکی از اینترنت است — عمدتاً دنیای غربی انگلیسی‌زبان. این رویکرد نادیده می‌گیرد که معنا چگونه در زبان‌ها، فرهنگ‌ها و حتی احساسات تغییر می‌کند.

    در بسیاری از بازارهای نوظهور، زمینه تنها یک مسأله زبانی نیست؛ بلکه فرهنگی و موقعیتی است. اما اکثر سیستم‌های متنی همچنان به فهرست‌های ثابت کلیدواژه و دسته‌بندی‌های ثابت مخاطبان تکیه می‌کنند. آن‌ها نمی‌توانند این نکات ظریف را شناسایی کنند. به‌نحوی، ما هنوز از ابزارهایی که برای یک مخاطب طراحی شده‌اند، برای ارتباط با جهانی که به زبان‌های متعدد سخن می‌گوید و به روش‌های بی‌شمار فکر می‌کند، استفاده می‌کنیم.

    از کلیدواژه‌ها به درک

    در اینجا هوش مصنوعی همه چیز را تغییر می‌دهد.

    راه‌حل‌های تبلیغات متنی مبتنی بر هوش مصنوعی باید چهار محدودیت دیرینه‌ای را که هدف‌گیری متنی را محدود کرده‌اند، برطرف کنند.

    ۱. درک معنا، نه صرفاً کلمات. راه‌حل‌های تبلیغات متنی باید کل صفحه، شامل ساختار، لحن و احساسات آن را بخوانند تا نیت را همانند یک انسان درک کنند.

    ۲. فراتر از مخاطبان پیش‌ساخته. در حالی که اکثر راه‌حل‌های متنی دسته‌بندی‌های ثابت را ارائه می‌دهند، راه‌حل‌های مؤثر تبلیغات متنی به تبلیغ‌کنندگان این امکان را می‌دهند تا مخاطبان زمان‌واقعی برنامه‌پذیر ایجاد کنند که بازتابی از حالت، ارزش‌ها و لحن احساسی برند باشند.

    ۳. چندزبانه و سازگار فرهنگی باشید. پلتفرم باید تقریباً تمام زبان‌های جهان را درک کند تا تیم‌ها بتوانند کمپین‌های متنی مرتبط را به زبان رومانیایی یا سواحیلی اجرا کنند، بدون از دست دادن حس محلی.

    ۴. شفاف و قابل حسابرسی. هر مکان‌گذاری تبلیغ باید همراه با توضیحی باشد: چرا با محتوا مطابقت دارد (یا ندارد) و چگونه با استراتژی برند هم‌راستا است. این وضوح به تبلیغ‌کنندگان اجازه می‌دهد تا زمینه را به‌صورت زمان واقعی تنظیم کنند، به‌جای این‌که حدس بزنند الگوریتم چه می‌بیند.

    ابزار DeepContext شرکت Eskimi دارای تمام این چهار قابلیت است. این ابزار با «نقشه‌راه برند» (Brand Blueprint) آغاز می‌شود. این چارچوب سفارشی لحن، حساسیت‌ها و ارتباطات موردنظر را مشخص می‌کند. سپس «موتور مرتبط‌سازی» (Relevance Engine) محتوای زنده وب را اسکن می‌کند و به‌طور مداوم می‌آموزد که کدام محیط‌ها بیشترین تطابق را با این نقشه‌راه دارند. این رویکرد سفارشی می‌تواند بر روی هر DSPی فعال شود.

    DeepContext همچنین مجموعه‌های مخاطب موضوعی آماده برای فعال‌سازی (مانند المپیک زمستان) را ارائه می‌دهد. این مجموعه‌ها از طریق SSPهای بزرگ، همچون Index Exchange، PubMatic و Equativ، در دسترس هستند. این روش سریع‌تری برای بهره‌گیری از هوش متنی است که نیازی به ساخت از صفر ندارد.

    هوش انسانی‌تر

    سال‌ها تبلیغات دیجیتال سعی کرده‌اند زمینه را از طریق کلیدواژه‌ها و فرضیات رمزگشایی کنند. هوش مصنوعی به ما فرصتی می‌دهد تا از نو شروع کنیم و به‌جای تخمین، درک واقعی بسازیم.

    با درک معنا، لحن و زمینهٔ محلی، تبلیغات متنی مبتنی بر هوش مصنوعی به برندها این امکان را می‌دهد که سرانجام با مردم صحبت کنند، نه فقط به سمت آن‌ها. وقتی از نقاط داده به معنا می‌رویم، نه تنها عملکرد را بهبود می‌بخشیم؛ بلکه ارتباط دیجیتال را دوباره احساس انسانی می‌کنیم.

  • تصاویر تولیدشده توسط هوش مصنوعی، آینده مستند را تهدید می‌کنند؛ مردم «دیگر به هیچ‌چیزی باور نخواهند کرد»: «دیپ فیک جرم است، هوش مصنوعی ابزار است»

    صداقت مصنوعی
    از طرف IDFA

    امروزه در فضای فیلم‌سازی، تعداد اندکی از مسائل این‌چنینی به‌صورت گسترده بررسی می‌شوند؛ آن‌ها، امکان‌ها و پیامدهای فناوری هوش مصنوعی‌اند. هنگامی که نگاهی به مستندسازی می‌اندازیم، این بحث به سطح جدیدی از اهمیت می‌رسد، زیرا این‌گونه فیلم‌ها معمولاً با مفاهیم روزنامه‌نگاری دربارهٔ حقیقت و واقعیت پیوند خورده‌اند. مستند‌سازان برجسته در جشنوارهٔ بین‌المللی مستند آمستردام (IDFA) امسال، که بزرگ‌ترین جشنوارهٔ مستند در جهان است، گرد هم آمدند تا دربارهٔ بهترین شیوه‌ها، هشدارهای ضروری و آیندهٔ مستندها در دوره‌ای که استفاده از هوش مصنوعی به‌تدریج گسترش می‌یابد، بحث کنند.

    دیوید فرانس، کارگردان آمریکایی نامزد اسکار و گزارشگر تحقیقاتی، در IDFA همراه با مستند «آزاد کردن لئونارد پلتیر» که در جشنواره ساندنس موفق شد، نخستین تجربهٔ خود با هوش مصنوعی را در فیلم «خوش‌آمدید به چچنیا» (۲۰۲۰) به یاد آورد. این فیلم، که به تعقیب‌گری اعضای جامعهٔ ال‌جی‌بی‌تی‌کیو‌آی در جمهوری خودمختار نیمه‌مستقل روسیه می‌پرداخت، با وضعیتی بسیار حساس سروکار داشت. برای این‌که بتواند با افرادی که تحت تعقیب بودند، گفتگو کند، فرانس مجبور شد هویت آن‌ها را محفوظ نگه دارد. او می‌گوید: «این داستانی بود که باید روایت می‌شد، اما گفتن آن دشوار بود، چون افرادی که می‌توانستند فرار کنند، در سراسر جهان تعقیب می‌شدند.»

    راه‌حلی که فرانس و تیمش اتخاذ کردند، مخفی‌سازی چهره‌های شخصیت‌ها با قرار دادن دیجیتالی افراد دیگر بر روی آن‌ها بود. او می‌گوید: «این کار هیچ‌یک از واکنش‌های ریز، احساساتشان را تغییر نداد. می‌توانستید شخص اصلی را در حین گریه و خنده ببینید، در حالی که چهرهٔ دیگری بر روی او قرار گرفته بود. در آن زمان (۲۰۱۹) ما آن را هوش مصنوعی نمی‌نامیدیم؛ ما آن را یادگیری ماشینی می‌نامیدیم. این امر به‌نظر می‌رسید شگفت‌انگیز بود.»

    کارگردان ۲۳ فعال همجنس‌گرای نیویورکی را برای واگذاری چهره‌ها و صداهایشان به این پروژه جذب کرد؛ فرآیند نوآورانه‌ای که به تیم پشت این نوآوری، اسکار فنی اعطا کرد. با این حال، فیلمساز به‌دلیل استفاده‌اش از هوش مصنوعی زیر ذره‌بین قرار گرفت. او می‌گوید: «در حین کار، همه‌جا این کار را «دیپ فیک» می‌نامیدند. ما مستمر می‌گفتیم: این دیپ فیک نیست. دیپ فیک جرم است، هوش مصنوعی ابزار است.»

    فرانس در آثار بعدی‌اش نیز از هوش مصنوعی بهره برد، از جمله در آخرین فیلمش که داستان لئونارد پلتیر، فعال سیاسی که پس از محکمه‌ای بحث‌برانگیز نیم‌قرن را در زندان سپری کرده است، روایت می‌کند. در این مورد، کارگردان از هوش مصنوعی برای بازسازی و تجدید صدای پلتیر استفاده کرد. این ابزار ضرورت داشت چون ضبط‌های شنیده‌شده در فیلم به‌صورت غیرقانونی به‌دست آمده بودند، چرا که پلتیر از داخل زندان نمی‌توانست با روزنامه‌نگاران صحبت کند. او می‌گوید: «علاوه بر این، لئونارد از ۳۰ سالگی به ۸۰ سالگی تبدیل شد و می‌توانستید سن او را در صدایش احساس کنید.»

    کارگردان بریتانیایی مارک ایساکس با فیلم «Synthetic Sincerity» در IDFA حضور دارد؛ فیلمی که در آن با آزمایشگاهی که نام فیلم را به خود اختصاص داده است، برای پژوهش دربارهٔ امکان آموزش اصالت به شخصیت‌های هوش مصنوعی همکاری می‌کند. این مستند ترکیبی از واقعیت و تخیل است که با همکاری بازیگر رومانیا ایلینکا مانولاش (از فیلم «از انتهای جهان بیش از حد انتظار نداشته باشید») ساخته شده؛ در آن ایساکس با هوشمندی با فیلترها و فنون دیگر تصاویر را دستکاری می‌کند تا صحنه‌های تولیدشده توسط هوش مصنوعی را شبیه‌سازی کند.

    ایساکس با Synthesia، شرکتی که محتواهای مصنوعی تولید می‌کند و نرم‌افزاری برای ایجاد ویدیوهای تولیدشده توسط هوش مصنوعی توسعه می‌دهد، آزمایش کرد. او توضیح داد: «شما یک شخصیت را انتخاب می‌کنید و می‌توانید متن موردنظر را برای گفتن به او وارد کنید». ابتدا این تجربه جالب بود، اما کارگردان گفت که شخصیت هوش مصنوعی «او را تا حد خستگی می‌برد» چون «دامنهٔ احساسات او بسیار محدود است». او افزود: «در ابتدا خنده‌دار بود، اما به‌سرعت خسته‌کننده شد». وقتی در یک جشنواره در بخارست با مانولاش ملاقات کرد، پیشنهاد داد تا برای ساخت این فیلم با هم کار کنند و شخصیتی نیمه‌واقعی‑نیمه‌دیجیتالی که او در صحنه بازی می‌کند، بسازند. او می‌گوید: «او بسیار جذاب‌تر است و ما می‌توانستیم با او کارهای متنوع‌تری انجام دهیم. اکثر بازیگران از تبدیل شخصیت خود به هوش مصنوعی می‌ترسند، اما او این کار را دوست داشت.»

    کارگردان تمایلی به تشخیص واضح این‌که چه‌ بخش‌هایی از فیلم توسط هوش مصنوعی تولید شده و چه‌ بخش‌هایی نه، نداشت و تأکید کرد که اثر او «خبرنگاری نیست». او می‌گوید: «هدف اصلی فیلم این است که پرسش‌هایی دربارهٔ تصویرها، تغییرات نمایندگی و مرگ دوربین مطرح شود. نمی‌خواستم با برچسب‌زنی این مسأله را مخدوش کنم.»

    بخش عمده‌ای از گفت‌وگو به بررسی تأثیر هوش مصنوعی بر تصاویر آرشیوی اختصاص یافت. سوزانا دو سوسا دیاس، کارگردان پرتغالی (از فیلم «فوردلاندیا پنانسیا») و مهمان ویژه امسال IDFA که عمدتاً با تصاویر آرشیوی کار می‌کند، گفت: «برای آرشیوها پیامدها بسیار عمیق است». او افزود: «وضعیت مستند تصاویر به‌سادگی در بستر خود قابل‌تفسیر می‌شود. خطر این است که نه تنها تماشاگران به آرشیوهای جعلی باور کنند، بلکه مردم دیگر به هیچ‌چیزی اعتماد نکنند. در هر دو حالت، ساختار حقیقت ما به‌طور کامل به‌تزلزل می‌افتد.»

    او افزود: «از زمان گذار به رسانهٔ دیجیتال، مباحث دربارهٔ ناتمام بودن واقعیت در تصاویر سیاه‌سفید و با وضوح پایین گسترش یافته‌اند». کارگردان همچنین تأکید کرد که کار با آرشیو تنها به یافتن و نجات مطالب از طریق پژوهش محدود نمی‌شود، بلکه به خلاهای موجود در مواد و حافظه نیز می‌پردازد. او می‌گوید: «سؤالی که برای من بسیار ساده و در عین حال بسیار پیچیده است: چه می‌شود وقتی فناوری‌ای که می‌خواهد همه چیز را اصلاح کند، وارد حوزه‌ای می‌شود که عدم حضور خود معنی‌دار است؟»

    در مواجهه با این معضل معاصر، فیلمساز برنده جایزه امی و طراح گرافیک ایوجن برائونیگ (از فیلم «ترافیک‌شده») همراه با انجمن تولیدکنندگان آرشیوی مجموعه‌ای از رهنمودهای بهترین شیوه‌ها برای کار با هوش مصنوعی مولد در فیلم‌سازی مبتنی بر آرشیو تدوین کرد. او تأکید کرد: «در مستند هیچ نهاد سازمانی وجود ندارد که به ما بگوید چگونه کار کنیم». او افزود: «قوانین و مقرراتی وجود ندارند؛ تنها کاری که می‌توانیم انجام دهیم، خودنظارت و تعیین استانداردهای خاص برای خودمان است تا به‌عنوان روایت‌گرها، تهیه‌کنندگان خبر و ساخت‌گران تصویر، مسئولیت‌پذیر باشیم.»

    برائونیگ اشاره کرد که ساده‌ترین اما مفیدترین اقدام، تهیهٔ یک لیست فنی (Cue Sheet) است که تکنولوژی‌های به‌کار رفته، نحوه و زمان استفاده آن‌ها در طول ساخت فیلم را فهرست می‌کند. او هشدار داد: «در نهایت مردم سؤال خواهند کرد». بهتر است پیش‌دستی باشید.

    در بخشی از گفت‌و‌گو، طراح یک کلیپ تولیدشده توسط SORA از خبرهای مصنوعی دههٔ ۱۹۹۰ را پخش کرد تا نشان دهد که توالی‌های تولیدشده توسط هوش مصنوعی چقدر دقیق هستند. او گفت: «البته پیش از این هم می‌توانستید ویدئوی تقلبی بسازید، اما هزینه‌های بالای تولید و زمان زیادی نیاز بود. اکنون این کار به‌طور فوق‌العاده ارزان و سریع شده است.»

    فیلمساز هشدار داد: «اعتماد به رسانه‌ها به پایین‌ترین سطح تاریخ خود رسیده است». او افزود: «این بدان معنی است که اعتماد به آرشیوها نیز در خطر است. اگر مردم به اخبار بی‌اعتماد شوند، که از پیش همین‌طور است، احتمالاً این بی‌اعتمادی به سمت فیلم‌سازی مستند نیز سرایت می‌کند و در برخی موارد به‌طور معقولی درست است.»