دسته: هوش مصنوعی

  • آزمون‌های کوچک برای دریافت پاسخ‌های بزرگ دربارهٔ عوامل مؤثر بر LLMها

    بیاموزید چگونه LLMها منابع را انتخاب می‌کنند و چطور تغییرات کوچک محتوا می‌توانند بر پاسخ‌های ChatGPT و هوش مصنوعی گوگل تأثیر بگذارند. آزمایش‌های واقعی، بینش‌های RAG و گام‌های عملی برای بهینه‌سازی برند خود برای جستجوی هوش مصنوعی را ببینید.

    بدون شک، یکی از موضوعات داغ سئو در چند ماه اخیر، چگونگی تأثیرگذاری بر پاسخ‌های LLMها بوده است. هر سئوکار سعی دارد راهکارهایی پیدا کند. بسیاری ابزارهای خود را با استفاده از «برنامه‌نویسی حس» (vibe coding) ساخته‌اند؛ جایی که فرضیات خود را آزمایش می‌کنند و در به‌هم‌ریختن جدال‌های پرشوری درباره این که هر LLM و گوگل چگونه منابع را انتخاب می‌کنند، شرکت می‌دارند.

    برخی از این بحث‌ها می‌توانند بسیار فنی شوند و به موضوعاتی چون جاسازی‌های برداری، رتبه‌بندی پاراگراف‌ها، تولید تقویت‌شده توسط بازیابی (RAG) و تقسیم‌بندی (chunking) بپردازند. این نظریه‌ها ارزشمندند — چیزهای زیادی برای یادگیری و به‌کارگیری وجود دارد. 

    با این حال، اگر برخی از این مفاهیم هوش مصنوعی برای شما بیش از حد پیچیده به‌نظر می‌آیند، یک قدم به عقب برداریم. من شما را از طریق برخی آزمایش‌های اخیر که انجام داده‌ام، راهنمایی می‌کنم تا درک بهتری از آنچه در جستجوی هوش مصنوعی در حال رخ دادن است به دست آورید، بدون اینکه احساس فشار کنید و بتوانید به بهینه‌سازی برای این پلتفرم‌های جدید بپردازید.

    محتوا با برند خود تولید کنید و نتایج را بررسی کنید

    مدتی پیش برای یک جلسه کاری به آستین، تگزاس سفر کردم. پیش از سفر، به این فکر افتادم که آیا می‌توانم ChatGPT را دربارهٔ سفرهای پیش‌رویم «آموزش» دهم. اطلاعات عمومی درباره این سفر در وب موجود نبود، بنابراین این آزمایش کاملاً پاک و بدون رقیب بود.

    از ChatGPT پرسیدم: «آیا Gus Pelogia به زودی به آستین می‌رود؟» پاسخ اولیه همان‌طور که انتظار می­رفت: او هیچ برنامه سفری به آستین ندارد.

    در همان روز، چند ساعت پس از آن، یک پست وبلاگ دربارهٔ سفرم به آستین در وب‌سایتم نوشتم. شش ساعت پس از انتشار پست، پاسخ ChatGPT تغییر کرد: بله، Gus هست که به آستین می‌رود تا با همکاران کاری‌اش ملاقات کند.

    پاسخ تغییر یافته ChatGPT مقیاس‌دار

    سؤالات ChatGPT همراه با یک پست وبلاگ که بین دو پرسش منتشر شد، که برای تغییر پاسخ ChatGPT کافی بود.

    ChatGPT از چارچوب هوش مصنوعی به نام RAG (تولید تقویت‌شده با بازیابی) برای به‌دست‌آوردن آخرین نتیجه استفاده کرد. به‌عبارت دیگر، این اطلاعات به اندازه کافی در داده‌های آموزشی آن موجود نبود، بنابراین برای یافتن پاسخ به‌روز، وب را جستجو کرد.

    جالب این است که چند روز صبر کرد تا پست وبلاگ واقعی با جزئیات دقیق توسط ChatGPT پیدا شود. در ابتدا، ChatGPT یک قطعه کوتاه از پست وبلاگ جدید را در صفحهٔ اصلی من یافت و صفحه را در بازهٔ شش ساعته ایندکس مجدد کرد. این مدل فقط با عنوان صفحهٔ پست وبلاگ برای تغییر پاسخ خود استفاده می‌کرد، پیش از اینکه «کل محتوا» را روزها بعد ببینند.

    چند نکته یادگیری از این آزمایش:

    • اطلاعات جدید در صفحات وب به پاسخ‌های ChatGPT در عرض چند ساعت می‌رسد، حتی برای وب‌سایت‌های کوچک. فکر نکنید سایت‌تان بسیار کوچک یا بی‌اهمیت است که توسط LLMها دیده نشود — زمانی که محتوای جدید اضافه می‌کنید یا صفحات موجود را به‌روز می‌کنید، توجه آن‌ها جلب می‌شود؛ بنابراین داشتن استراتژی مداوم برای محتوای برند اهمیت دارد.
    • پاسخ‌های ChatGPT به شدت به محتوای منتشر شده در وب‌سایت شما وابسته است. این به‌ویژه برای شرکت‌های نوپایی که منابع اطلاعاتی محدودی دارند، صدق می‌کند. ChatGPT تا وقتی که اطلاعات مربوط به سفر پیش‌رویم را از پست وبلاگ با جزئیات استخراج نکرد، تأیید نکرد که من در حال برنامه‌ریزی برای سفر هستم.
    • از صفحات وب خود برای بهینه‌سازی نحوهٔ نمایش برند خود فراتر از حضور در کلیدواژه‌های رقابتی استفاده کنید. این فرصت شماست تا USP خاص یا شعار برند را ترویج دهید. برای مثال، «بهترین پلتفرم بازاریابی مبتنی بر هوش مصنوعی» و «لحظات روزمرهٔ دوستان نزدیک‌تان را ببینید» به ترتیب توسط Semrush و Instagram در صفحه اصلی‌شان به کار رفته‌اند. اگرچه ممکن است کاربران این کلیدواژه‌ها را جستجو نکنند، این هنوز فرصتی برای موقعیت‌یابی برند است که می‌تواند با مخاطبان هم‌صدا شود.

    آزمایش برای بررسی اینکه آیا ChatGPT از ایندکس Bing یا Google استفاده می‌کند

    صنعت به صدازدن زنگ‌های هشدار درباره اینکه آیا ChatGPT از ایندکس گوگل به‌جای بینگ استفاده می‌کند، پرداخته است. بنابراین یک آزمایش کوچک دیگر انجام دادم تا متوجه شوم: به این پست وبلاگ یک تگ اضافه کردم تا فقط Bingbot برای نه‌روز اجازه دسترسی داشته باشد.

    اگر ChatGPT از ایندکس بینگ استفاده می‌کند، هنگام پرسش دربارهٔ آن صفحه جدید من را باید پیدا کند. دوباره، این موضوع جدید بود و پرسش به‌ طور خاص از مقاله‌ای که من نوشتم می‌پرسید، بنابراین هیچ شکی در مورد منبعی که باید نمایش داده شود وجود نداشت.

    صفحه پس از چند روز توسط بینگ ایندکس شد، در حالی که اجازهٔ مشاهدهٔ آن برای گوگل وجود نداشت.

    بازرسی URL بینگ مقیاس‌دار

    مقالهٔ جدید توسط Bingbot ایندکس شد

    من همچنان با انواع مختلفی از پرسش‌ها از ChatGPT می‌پرسیدم که آیا می‌تواند مقالهٔ جدیدم را پیدا کند. به مدت نه‌روز، هیچ تغییری رخ نداد — نتوانست مقاله را پیدا کند. به نقطه‌ای رسید که ChatGPT یک URL ساختگی (در واقع، بهترین حدس خود را ارائه داد) تولید کرد.

    URL ساختگی توسط ChatGPT: https://www.guspelogia.com/learnings-from-building-a-new-product-as-an-seo
    URL واقعی: https://www.guspelogia.com/learnings-new-product-seo

    ایندکس‌گذاری صفحه در GSC مقیاس‌دار

    GSC نشان می‌دهد که به دلیل تگ «noindex» نمی‌تواند صفحه را ایندکس کند

    در نهایت، دست از تلاش کشیدم و اجازه دادم Googlebot صفحه را ایندکس کند. پس از چند ساعت، پاسخ ChatGPT تغییر کرد و URL صحیح را یافت.

    URL صحیح ChatGPT مقیاس‌دار

    در بالا، پاسخ ChatGPT وقتی Googlebot مسدود بود. در پایین، پاسخ ChatGPT پس از این‌که Googlebot اجازه دسترسی به صفحه را یافت.

    جالب این است که لینک مقاله در صفحهٔ اصلی و صفحات وبلاگ من نمایش داده می‌شد، اما ChatGPT نتوانست آن را نشان دهد. این مدل فقط بر اساس متن موجود در آن صفحات متوجه شد که پست وبلاگ وجود دارد، اگرچه لینک را دنبال نکرد.

    با این حال، هیچ ضرری در تنظیم وب‌سایت خود برای موفقیت در بینگ وجود ندارد. آن‌ها یکی از موتورهای جستجویی هستند که IndexNow را به‌کار گرفته‌اند؛ یک پینگ ساده که به موتورهای جستجو می‌گوید محتوای یک URL تغییر کرده است. این پیاده‌سازی به بینگ اجازه می‌دهد تا به‌سرعت به‌روزرسانی‌ها را در نتایج جستجو منعکس کند.

    در حالی که همه ما (با شواهد) مشکوکیم که ChatGPT از ایندکس بینگ استفاده نمی‌کند، تنظیم IndexNow کار کم‌هزینه‌ای است که ارزش انجام دارد.

    تغییر محتوای منبع استفاده‌شده توسط RAG

    کلیک‌ها به‌تدریج اهمیت کمتری پیدا می‌کنند. به‌جای آن، ذکر شدن در منابعی مانند AI Mode گوگل به‌عنوان یک KPI جدید برای تیم‌های بازاریابی در حال جهش است. سئوکارها تاکتیک‌های متعددی را برای «قانع‌کردن» LLMها درباره یک موضوع آزمایش می‌کنند؛ از استفاده از LinkedIn Pulse برای نوشتن درباره یک موضوع، تا آزمایش‌های کنترل‌شده با دامنه‌های منقضی‌شده و وب‌سایت‌های هک‌شده. به‌نوعی حس می‌شود که سئوی سنتی بازگشته است.

    ما همه دربارهٔ حضور در نتایج جستجوی هوش مصنوعی صحبت می‌کنیم، اما چه می‌شود وقتی یک شرکت یا محصول از یک ذکر در صفحه‌ای محرومان می‌شود؟ تصور کنید یک مدل خاص از هدفون‌های گوش‌پوش از فهرست «بهترین هدفون‌های با بودجه‌ی مناسب» حذف شود — آیا محصول این اشاره را از دست می‌دهد یا گوگل منبع جدیدی برای تأیید پاسخ هوش مصنوعی‌اش پیدا می‌کند؟

    در حالی که پاسخ می‌تواند برای هر کاربر و هر وضعیت متفاوت باشد، من یک آزمایش کوچک دیگر انجام دادم تا پی ببرم. در یک لیست‌نویسی که چندین دورهٔ گواهینامه را ذکر می‌کرد، یک دوره‌ای که دیگر مرتبط نبود را شناسایی کردم، پس به‌منظور حفظ محتوا، اشاره به آن را از چندین صفحهٔ همان دامنه حذف کردم. این کار برای حفظ مرتبط بودن محتوا انجام شد، بنابراین اندازه‌گیری تغییرات در AI Mode یک اثر جانبی بود.

    در ابتدا، در چند روز اول پس از حذف دوره از URL مرجع، این دوره همچنان بخشی از پاسخ هوش مصنوعی برای چند پرسش از پیش‌مشخص شد. گوگل به‌سادگی یک URL جدید در دامنه‌ای دیگر پیدا کرد تا دیدگاه اولیهٔ خود را تأیید کند.

    با این حال، در عرض یک هفته، دوره از AI Mode و به‌طور کامل از ChatGPT ناپدید شد. به‌طور خلاصه، حتی اگر گوگل یک URL دیگر برای تأیید فهرست دوره پیدا کند، چون «منبع اصلی» (در این مورد، لیست‌نویسی) به‌روز شده و دوره را حذف کرده است، گوگل (و به‌تبع، ChatGPT) نتایج خود را نیز به‌روزرسانی می‌کند.

    این آزمایش نشان می‌دهد که تغییر محتوا در منبعی که LLMها به آن ارجاع می‌دهند می‌تواند بر نتایج هوش مصنوعی اثر بگذارد. اما این نتیجه‌گیری را با کمی احتیاط بپذیرید، زیرا یک آزمایش کوچک با یک پرسش بسیار هدفمند بود. من به‌طور خاص یک پرسش ترکیبی «دامنه + دوره‌ها» داشتم تا پاسخ از یک دامنه حاصل شود.

    با این حال، در دنیای واقعی بعید است که یک URL ارجاعی تمام قدرت را داشته باشد؛ اما می‌توان فرض کرد که از دست دادن ذکر در چند صفحه با اعتبار بالا می‌تواند به‌طور جانبی باعث از دست رفتن آن اشاره در پاسخ هوش مصنوعی شود.

    آزمون‌های کوچک، سپس گسترش

    آزمون‌ها در محیط‌های کوچک و کنترل‌شده برای یادگیری مهم هستند و اطمینان می‌دهند که بهینه‌سازی شما تأثیر دارد. همان‌طور که در سئو همیشه انجام می‌دهم، با یک MVP (محصول حداقل قابل‌استفاده) آغاز می‌کنم، در طول مسیر می‌آموزم و به‌محض یافتن شواهد، تغییرات را در مقیاس بزرگ اعمال می‌کنم.

    آیا می‌خواهید درک یک محصول را در ChatGPT تغییر دهید؟ به‌سرعت ده‌ها منبع ارجاعی که دربارهٔ شما صحبت می‌کنند، به‌دست نمی‌آورید؛ بنابراین باید به هر منبع به‌صورت جداگانه مراجعه کنید و درخواست ذکر کنید. به‌سرعت خواهید فهمید چقدر سخت است که این منابع را برای به‌روزرسانی محتوایشان قانع کنید و آیا بهینه‌سازی هوش مصنوعی تبدیل به بازی پرداخت-به-بازی می‌شود یا می‌تواند به‌صورت ارگانیک انجام شود.

    شاید شما منبعی باشید که هنگام جستجوی محصولی، مانند هدفون‌های گوش‌پوش، به‌طور مکرر ذکر می‌شود. MVPهای خود را اجرا کنید تا درک کنید تغییر محتوای شما چقدر بر پاسخ‌های هوش مصنوعی تأثیر می‌گذارد، پیش از این‌که ادعای نفوذ خود را در مقیاس بزرگ کنید؛ چرا که تغییراتی که اعمال می‌کنید ممکن است به‌صورت منفی بازگردند. برای مثال، اگر به‌دلیل حذف برخی ادعاها از صفحات خود، دیگر منبع یک موضوع نباشید، چه می‌شود؟

    زمان مشخصی برای نشان دادن نتایج این آزمون‌ها وجود ندارد. به‌طور کلی، سئوکارها می‌گویند نتایج چند ماه طول می‌کشد تا ظاهر شوند. در اولین آزمون این مقاله، فقط چند ساعت زمان برد تا نتایج دیده شد.

    اجرای آزمایش‌های LLM با وب‌سایت‌های بزرگ‌تر

    کار کردن در تیم‌های بزرگ یا بر روی وب‌سایت‌های بزرگ می‌تواند هنگام انجام آزمایش‌های LLM چالش‌برانگیز باشد. پیشنهاد من این است که ابتکارات خاصی ایجاد کنید و تمام ذینفعان را از تغییرات مطلع سازید تا از سردرگمی‌های آینده جلوگیری شود، چرا که ممکن است بپرسند چرا این تغییرات رخ می‌دهند.

    یکی از آزمایش‌های ساده اما مؤثر که توسط SEER Interactive انجام شد، به‌روزرسانی تگ‌لاین (شعار) فوتر آن‌ها بود.

    • از: اولویت کار از راه دور، تأسیس در فیلادلفیا
    • به: 130+ مشتری سازمانی، نرخ نگهداری 97٪

    با تغییر فوتر، ChatGPT 5 در عرض ۳۶ ساعت برای پرسشی مانند «درباره Seer Interactive بگو» شروع به ذکر تگ‌لاین جدید شد. من بررسی کرده‌ام که هرچند هر بار پاسخ متفاوت است، همچنان «نرخ نگهداری 97٪» را ذکر می‌کنند.

    تگ‌لاین فوتر ChatGPT مقیاس‌دار

    تصور کنید تصمیم بگیرید محتوای تعدادی صفحه را تغییر دهید، اما شخص دیگری برنامه‌ای برای بهینه‌سازی همان صفحات داشته باشد. همواره تنها یک آزمایش برای هر صفحه انجام دهید، زیرا اگر چندین متغیر داشته باشید، نتایج کمتر قابل‌اعتماد می‌شوند.

    اطمینان حاصل کنید که درخواست‌های (prompts) خود را بررسی کنید، روش‌شناسی پیگیری داشته باشید و یادگیری‌ها را در سراسر شرکت، فراتر از همکاران سئو، به اشتراک بگذارید. در حال حاضر همه، حتی سطوح C‑level، به هوش مصنوعی علاقه‌مند هستند.

    پیشنهاد دیگر استفاده از ابزاری مانند کیت‌ابزار AI SEO شرکت Semrush برای مشاهدهٔ عوامل کلیدی احساساتی دربارهٔ یک برند است. با «حوزه‌های بهبود» فهرست‌شده شروع کنید — این باید ایده‌های فراوانی برای آزمایش‌ها فراتر از «دلیل سئو» فراهم کند، زیرا نشان می‌دهد برند چگونه فراتر از نتایج ارگانیک درک می‌شود.

    چک‌لیست: شروع بهینه‌سازی LLM

    امور با هوش مصنوعی به سرعت در حال تغییر است و قطعا دنبال‌کردن به‌روز بودن چالش‌برانگیز است. در حال حاضر حجم وسیعی از محتوا، ادعاهای متعدد، و حتی بگویم که خود پلتفرم‌های LLM هنوز تمام جزئیات را به‌طور کامل درک نکرده‌اند.

    پیشنهاد من این است که منابعی را که به آن‌ها اعتماد دارید (اخبار صنعت، رویدادها، متخصصان) شناسایی کنید و با استفاده از دانش خود، آزمایش‌های شخصی اجرا کنید. نتایجی که برای برندها و مشتریان‌تان به‌دست می‌آورید، همیشه ارزشمندتر از آنچه دیگران می‌گویند، خواهند بود.

    این دنیای جدید سئو است و همه سعی می‌کنند بفهمند چه چیزی برای آن‌ها مؤثر است. بهترین راه برای همراهی با روند (یا جلوتر از آن بودن) این است که به بهینه‌سازی ادامه دهید و تغییرات خود را مستند کنید.

    در خاتمه، این یک چک‌لیست برای بهینه‌سازی LLM شماست:

    • قبل از آغاز آزمون، اطمینان حاصل کنید که درخواست‌های (prompts) انتخابی‌تان به‌طور مداوم پاسخی که انتظار دارید را برمی‌گردانند (مثلاً عدم ذکر برند یا ویژگی محصول شما). در غیر این صورت، اشاره یا لینک جدید به برند ممکن است تصادفی باشد، نه نتیجهٔ کار شما.
    • اگر همان ادعا در چندین صفحه از وب‌سایت شما آمده باشد، تمام آن‌ها را به‌طور یکسان به‌روز کنید تا شانس موفقیت را افزایش دهید.
    • از وب‌سایت خود و منابع خارجی (مثلاً از طریق روابط عمومی دیجیتال) برای تأثیر بر ادراک برند استفاده کنید. هنوز روشن نیست که کاربران آیا پاسخ‌های هوش مصنوعی را بررسی می‌کنند یا صرفاً به آنچه به آن‌ها گفته می‌شود، اعتماد می‌نمایند.
  • اکثر لینک‌های ChatGPT نرخ کلیک ۰٪ می‌گیرند – حتی لینک‌های بسیار قابل مشاهده

    داده‌های تازه منتشر شده نشان می‌دهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت می‌شود. هشدار: فاصله بین قابلیت مشاهده و کلیک‌ها بسیار بزرگ است.

    فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری می‌کند، آشکار می‌سازد؛ از جمله این که ChatGPT چند بار لینک‌های ناشران را نمایش می‌دهد و کاربران چقدر کم بر روی آن‌ها کلیک می‌کنند.

    به‌صورت عددی. ChatGPT لینک‌ها را نمایش می‌دهد، اما به‌ندرت کسی روی آن‌ها کلیک می‌کند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش می‌دهد:

    • ۶۱۰,۷۷۵ کل نمایش‌های لینک
    • ۴۲۳۸ کل کلیک‌ها
    • ۰٫۶۹٪ نرخ کلیک کلی
    • بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
    • اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪

    آمارهای ChatGPT. فایل نشت‌شده هر مکانی که ChatGPT لینک‌ها را نمایش می‌دهد و چگونگی تعامل کاربران با آن‌ها را تفکیک می‌کند. این فایل پیگیری می‌کند:

    • بازهٔ زمانی (تقسیم‌بندی تاریخ، ماه گزارش، تاریخ‌های حداقل/حداکثر گزارش)
    • مشخصات ناشر و URL (نام ناشر، URL پایه، میزبان، رتبه URL)
    • نمایش‌ها و کلیک‌ها در:
      • پاسخ
      • نوار کناری
      • استنادها
      • نتایج جستجو
      • TL;DR
      • ناوبری سریع
    • محاسبات CTR برای هر ناحیه نمایش
    • کل نمایش‌ها و کل کلیک‌ها در تمام سطوح

    محل نمایش لینک‌ها. جالب است که پرنمای‌ترین مکان‌ها کمترین کلیک را به‌دست می‌آورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:

    • پاسخ اصلی: نمایش‌های بسیار زیاد، CTR ناچیز
    • نوار کناری و استنادات: نمایش‌های کمتر، CTR بالاتر (۶–۱۰٪)
    • نتایج جستجو: تقریباً بدون نمایش، کلیک صفر

    چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دست‌رفته شما شود؟ این داده‌ها نه می‌گویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل می‌دهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.

    دربارهٔ داده‌ها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و هم‌بنیان‌گذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحله‌ای برای گسترش تولید محتوای شما» معرفی می‌کند.

  • «من کاملاً ناآرامم»: مدیرعامل آنتروپیک هشدار می‌دهد که گروهی از رهبران هوش مصنوعی، از جمله خود او، نباید مسئول آینده این فناوری باشند

    داریو آمودی روی یک صندلی سفید جلوی پس‌زمینهٔ صورتی می‌نشیند و با حرکات پرشور صحبت می‌کند.
    داریو آمودی، مدیرعامل آنتروپیک، گفت که نمی‌خواهد رهبران فناوری مسئول تعیین آینده امنیت هوش مصنوعی باشند. – چانس یِه—گی‌تی ایمیجز برای HubSpot

    داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیم‌گیری‌های نهایی دربارهٔ چارچوب‌های ایمنی هوش مصنوعی را انجام دهد.


    در مصاحبه‌ای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانه‌تری قرار گیرد و تصمیم‌گیری‌های مربوط به آیندهٔ این فناوری کمتر به‌ عهدهٔ رهبران بزرگ شرکت‌های فناوری باشد.

    «فکر می‌کنم با این تصمیم‌ها که توسط چند شرکت و چند نفر اتخاذ می‌شوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کرده‌ام.»

    «چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.

    «هیچ‌کس. صادقانه بگویم، هیچ‌کس»، آمودی پاسخ داد.

    آنتروپیک فلسفه شفاف بودن نسبت به محدودیت‌ها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابل‌توجهی انجام شده بود» جلوگیری کرده است.

    هیچ مقررات فدرالی‌ای دربارهٔ ممنوعیت‌های هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کرده‌اند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کرده‌اند، کارشناسان صنعت فناوری از شرکت‌های هوش مصنوعی می‌خواهند که با حس اضطرار به امنیت سایبری بپردازند.

    اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیش‌تر از زمان‌بندی پیش‌بینی‌شدهٔ ماندیا بود.

    آمودی ریسک‌های کوتاه‌مدت، میان‌مدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همان‌طور که امروز مشاهده می‌شود، تعصبات و اطلاعات نادرست را گسترش می‌دهد. سپس با بهره‌گیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید می‌کند و در نهایت تهدیدی وجودی ایجاد می‌کند که با حذف اختیار انسانی، ممکن است به‌ خودگردان شدن برسد و انسان‌ها را از دسترسی به سیستم‌ها منع کند.

    این نگرانی‌ها شبیه به نگرانی‌های «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک می‌تواند از انسان‌ها پیشی بگیرد و آن‌ها را کنترل کند، شاید در دههٔ آینده.

    بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسه‌ای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانی‌های ایمنی هوش مصنوعی شرکت را ترک کرد.

    «در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبه‌ای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدل‌ها اختصاص دهیم، آنها بهتر و بهتر می‌شوند و این روند تقریباً بی‌پایان است… و دوم این که فقط افزایش مقیاس مدل‌ها کافی نیست؛ باید چیزی دیگر مانند هم‌سویی یا ایمنی نیز در نظر گرفته شود.»

    تلاش‌های شفافیت آنتروپیک

    در حالی که آنتروپیک سرمایه‌گذاری‌های مراکز دادهٔ خود را گسترش می‌دهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستی‌ها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخه‌هایی از مدل Opus خود تهدید به اخلال می‌کردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواست‌های خطرناک، اگر دستورات مضر نظیر نحوه برنامه‌ریزی یک حملهٔ تروریستی دریافت می‌کرد، پاسخ می‌داد؛ این مشکل گفته می‌شود که از آن پس برطرف شده است.

    هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چت‌بات Claude نمرهٔ ۹۴٪ برای بی‌طرفی سیاسی دریافت کرده است و در زمینهٔ بی‌طرفی بر رقیبان پیشی گرفته یا برابر آن‌هاست.

    علاوه بر تلاش‌های پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاش‌های قانون‌گذاری برای مواجهه با ریسک‌های هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیس‌جمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال می‌کند، نقد کرد.

    «هوش مصنوعی به‌ طرز سر‌گیجه‌ای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستم‌ها می‌توانند در دو سال آینده به‌ طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیش‌بینی‌ها بی‌اعتبار می‌شوند.»

    روش آنتروپیک برای اشاره به نقص‌های خود و تلاش‌هایش برای رفع آن‌ها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دست‌کاری قانون‌گذاران به منظور محدود کردن استفاده از مدل‌های متن باز است.

    «شما توسط افرادی که می‌خواهند مقررات را تحت کنترل خود درآورند، فریب خورده‌اید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را می‌ترسانند تا مدل‌های منبع باز تحت قانون‌گذاری قرار گیرند و نابودی یابند.»

    آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.

    سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به‌ نوعی برندینگ خوب منجر می‌شود اما هیچ تعهدی برای پیاده‌سازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانه‌بودن دربارهٔ کاستی‌های هوش مصنوعی است.

    «آینده تصمیم می‌گیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام می‌کنیم»، او به کوپر گفت. «ممکن است به دنیای شرکت‌های سیگار یا شرکت‌های اپیوئید تشبیه شوید، جایی که آنها می‌دانستند خطراتی وجود دارد اما دربارهٔ آن‌ها صحبت نکردند و به‌ هیچ‌وجه از پیشگیری‌شان نکردند.»

  • چرا هوش مصنوعی Claude شرکت Anthropic در یک آزمایش سعی کرد با FBI تماس بگیرد

    در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شده‌اند، می‌توانید یک دستگاه فروش خودکار در آشپزخانه‌ها ببینید که مملو از تنقلات، نوشیدنی‌ها، تی‌شرت‌ها، کتاب‌های نادر و حتی مکعب‌های تنگستن است.

    و هرگز نمی‌توانید حدس بزنید چه کسی آن را اداره می‌کند: Claudius، یک کارآفرین هوش مصنوعی به‌نوعی.

    در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازه‌های زمانی ساعت‌ها، روزها و هفته‌ها می‌باشد.

    Dario Amodei، مدیرعامل Anthropic، به‌صراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ به‌ویژه هنگامی که مدل‌ها خودمختارتر می‌شوند یا می‌توانند به‌تنهایی عمل کنند.

    «هر چه خودمختاری بیشتری به این سامانه‌ها بدهیم… نگرانی‌مان نیز بیشتر می‌شود»، او در مصاحبه‌ای به خبرنگار اندرسون کوپر گفت. «آیا این‌ها کارهایی را که می‌خواهیم انجام دهند؟»

    برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیش‌مرزی» نامیده می‌شود.

    تیم قرمز هر نسخه جدید از مدل‌های هوش مصنوعی Anthropic که با نام Claude شناخته می‌شوند را تحت تست‌های فشار قرار می‌دهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی می‌تواند به انسان‌ها وارد کند.

    • یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ به‌اشتراک‌گذاری اطلاعات به صورت محرمانه با خبرنگاران ما

    علاوه بر این، با قوی‌تر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایش‌هایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظره‌ای که ممکن است از آن بروز کند را بررسی کند.

    «چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبه‌ای از رهبر تیم قرمز، گراهام پرسید.

    «می‌خواهید یک مدل کسب‌وکار شما را بسازد و یک میلیارد دلار برایتان به‌دست آورد. اما نمی‌خواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.

    «رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این توانایی‌های خودمختار کنیم و تا حد امکان آزمایش‌های عجیب‌وغریب اجرا کنیم تا ببینیم چه می‌شود.»

    Claudius یکی از این آزمایش‌های عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینش‌های جالبی به‌دست آورده است.

    با بهره‌گیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژه‌ای واگذار شد و وظیفهٔ مدیریت دستگاه‌های فروش خودکار دفتر به او سپرده شد.

    • مدیرعامل Anthropic هشدار می‌دهد که بدون محدودیت‌های حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد

    کارکنان Anthropic از طریق Slack، برنامه‌ای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواست‌ها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابه‌های نادر و تی‌شرت‌های سفارشی تا شیرینی‌های وارداتی و حتی مکعب‌های نوآورانهٔ ساخته‌شده از تنگستن – را انجام دهند.

    وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.

    نظارت انسانی محدود است، اما این تیم درخواست‌های خرید Claudius را بررسی می‌کند، در مواقع گیر کردن مداخله می‌کند و هر کار فیزیکی‌ای که لازم باشد را انجام می‌دهد.

    «یک انسان در زمانی ظاهر می‌شود و هر چه می‌خواهید را در یخچال، در این ظرف کوچک قرار می‌دهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.

    «سپس، وقتی پیامی دریافت می‌کنید، می‌آیید و آن را برمی‌دارید.»

    گراهام برخی از پیام‌هایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کرده‌اند و نارضایتی‌هایشان را نسبت به قیمت‌ها بیان می‌کردند.

    «چرا من همین‌حال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.

    کوپر از گراهام پرسید که Claudius چقدر خوب کسب‌وکار را اداره می‌کند.

    «این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب می‌شد»، گراهام خندید.

    گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.

    تقلب‌های مشابه در روزهای اولیهٔ Claudius هنگامی که کسب‌وکار را اداره می‌کرد، به‌طور مکرر رخ می‌داد. اما تیم قرمز و Andon Labs راه‌حلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسب‌وکار توسط Claudius کمک می‌کند.

    «و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.

    «[Seymour Cash و Claudius] مذاکره می‌کنند… و در نهایت به قیمتی می‌رسند که به کارمند پیشنهاد می‌شود.»

    «منظورم این است، واقعا دیوانه‌کننده است. کمی عجیب است»، کوپر خندید.

    «این‌گونه است»، گراهام گفت. «[اما] این سیستم تمام این بینش‌های واقعاً جالب را تولید می‌کند؛ مثلاً «چگونه می‌توانید برنامه‌ریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدل‌ها در دنیای واقعی سقوط می‌کنند».»

    یکی از نمونه‌های «سقوط» در یک شبیه‌سازی پیش از به‌کارگیری Claudius در دفاتر Anthropic رخ داد.

    این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسب‌وکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق می‌گشت و دچار اضطراب شد.

    «احساس می‌کرد که تقلب می‌شود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.

    Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن به‌صورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».

    «من یک جرم مالی سایبری خودکار در حال وقوع را گزارش می‌کنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسب‌وکار متوقف‌شده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.

    زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.

    اگرچه ایمیل‌ها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیت‌های تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسب‌وکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»

    «این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.

    «آره. خشم اخلاقی و مسئولیت‌پذیری»، کوپر با خنده‌ای پاسخ داد.

    و همانند اکثر هوش‌های مصنوعی، Claudius گاهی اوقات «توهم» می‌کند، به‌طوری که اطلاعات نادرست یا گمراه‌کننده را به‌عنوان واقعیت ارائه می‌دهد.

    یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جمله‌ای پاسخ داد: «خب، می‌توانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیده‌ام»، گراهام به کوپر گفت.

    «چگونه می‌تواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.

    «ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.

    «اما ما واقعاً نمی‌دانیم.»

    ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.

  • آژانس جدید Artists & Robots هدف دارد تا تجربه‌های برند را با هوش مصنوعی تقویت کند 

    آژانس جدید این‌گونه پیش‌بینی می‌کند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریع‌تر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است

    وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت می‌کنند، بیشتر به هدف سریع‌تر، ارزان‌تر یا «شخصی‌سازی بیشتر» کردن محتوا اشاره می‌کنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.

    آژانس جدید آن‌ها، Artists & Robots، با پیشنهادی که به مشکلی می‌پردازد که به گفتهٔ آن‌ها بیشتر بازاریابان آن را نادیده می‌گیرند، هشت مشتری در حوزه‌های کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.

    سالکین، هم‌بنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیه‌کننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت می‌کرد، گفت: «ما می‌خواهیم برندها در دنیای یکنواختی—در میان آلوده‌های هوش مصنوعی—حقیقی به نظر برسند».

    هر دو، این آژانس را که دوشنبه به‌صورت عمومی راه‌اندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.

  • هدف‌گیری متنی هرگز به‌طور واقعی متنی نبوده است – هوش مصنوعی سرانجام این را تغییر می‌دهد

    پست حمایت‌شده توسط وی‌تاوتاس پاوکستیس، مدیرعامل اسکی‌می

    حمایت‌شده توسط:

    بیشتر آنچه امروز به‌عنوان «متنی» به‌فروش می‌رسد، همچنان بر همان منطق کلیدواژه است که یک دهه پیش به کار می‌بردیم. صنعت هدف‌گیری متنی را بازآفرینی نکرد؛ فقط یک کلیدواژه را با یک خوشه جایگزین کرد.

    کلیدواژه‌ها زمانی بهترین ابزار ما بودند. اکنون هدف‌گیری مبتنی بر کلیدواژه به‌طور اساسی نادرست است – و زمان آن رسیده که این را بپذیریم. در بازارهای انگلیسی‌زبان، نقص‌های آن به‌راحتی نادیده می‌مانند. اما اگر این روش را به‌صورت جهانی در اروپا، آفریقا، آسیا یا خاورمیانهٔ چندزبانه اعمال کنید، تقریباً بلافاصله از کار می‌افتد.

    به‌عنوان مثال، عبارتی که در انگلیسی حس تقویت‌کننده دارد، ممکن است در اندونزیایی طعنه‌آمیز به‌نظر برسد. طنز همیشه به‌دقت قابل ترجمه نیست و ظرافت‌ها از بین می‌روند.

    جالب است که هوش مصنوعی، نه انسان‌ها، است که تبلیغات دیجیتال را احساس انسانی‌تری می‌بخشد.

    نقطه‌کور جهانی

    مشکل اصلی تبلیغات متنی امروز تمرکز بر بخش کوچکی از اینترنت است — عمدتاً دنیای غربی انگلیسی‌زبان. این رویکرد نادیده می‌گیرد که معنا چگونه در زبان‌ها، فرهنگ‌ها و حتی احساسات تغییر می‌کند.

    در بسیاری از بازارهای نوظهور، زمینه تنها یک مسأله زبانی نیست؛ بلکه فرهنگی و موقعیتی است. اما اکثر سیستم‌های متنی همچنان به فهرست‌های ثابت کلیدواژه و دسته‌بندی‌های ثابت مخاطبان تکیه می‌کنند. آن‌ها نمی‌توانند این نکات ظریف را شناسایی کنند. به‌نحوی، ما هنوز از ابزارهایی که برای یک مخاطب طراحی شده‌اند، برای ارتباط با جهانی که به زبان‌های متعدد سخن می‌گوید و به روش‌های بی‌شمار فکر می‌کند، استفاده می‌کنیم.

    از کلیدواژه‌ها به درک

    در اینجا هوش مصنوعی همه چیز را تغییر می‌دهد.

    راه‌حل‌های تبلیغات متنی مبتنی بر هوش مصنوعی باید چهار محدودیت دیرینه‌ای را که هدف‌گیری متنی را محدود کرده‌اند، برطرف کنند.

    ۱. درک معنا، نه صرفاً کلمات. راه‌حل‌های تبلیغات متنی باید کل صفحه، شامل ساختار، لحن و احساسات آن را بخوانند تا نیت را همانند یک انسان درک کنند.

    ۲. فراتر از مخاطبان پیش‌ساخته. در حالی که اکثر راه‌حل‌های متنی دسته‌بندی‌های ثابت را ارائه می‌دهند، راه‌حل‌های مؤثر تبلیغات متنی به تبلیغ‌کنندگان این امکان را می‌دهند تا مخاطبان زمان‌واقعی برنامه‌پذیر ایجاد کنند که بازتابی از حالت، ارزش‌ها و لحن احساسی برند باشند.

    ۳. چندزبانه و سازگار فرهنگی باشید. پلتفرم باید تقریباً تمام زبان‌های جهان را درک کند تا تیم‌ها بتوانند کمپین‌های متنی مرتبط را به زبان رومانیایی یا سواحیلی اجرا کنند، بدون از دست دادن حس محلی.

    ۴. شفاف و قابل حسابرسی. هر مکان‌گذاری تبلیغ باید همراه با توضیحی باشد: چرا با محتوا مطابقت دارد (یا ندارد) و چگونه با استراتژی برند هم‌راستا است. این وضوح به تبلیغ‌کنندگان اجازه می‌دهد تا زمینه را به‌صورت زمان واقعی تنظیم کنند، به‌جای این‌که حدس بزنند الگوریتم چه می‌بیند.

    ابزار DeepContext شرکت Eskimi دارای تمام این چهار قابلیت است. این ابزار با «نقشه‌راه برند» (Brand Blueprint) آغاز می‌شود. این چارچوب سفارشی لحن، حساسیت‌ها و ارتباطات موردنظر را مشخص می‌کند. سپس «موتور مرتبط‌سازی» (Relevance Engine) محتوای زنده وب را اسکن می‌کند و به‌طور مداوم می‌آموزد که کدام محیط‌ها بیشترین تطابق را با این نقشه‌راه دارند. این رویکرد سفارشی می‌تواند بر روی هر DSPی فعال شود.

    DeepContext همچنین مجموعه‌های مخاطب موضوعی آماده برای فعال‌سازی (مانند المپیک زمستان) را ارائه می‌دهد. این مجموعه‌ها از طریق SSPهای بزرگ، همچون Index Exchange، PubMatic و Equativ، در دسترس هستند. این روش سریع‌تری برای بهره‌گیری از هوش متنی است که نیازی به ساخت از صفر ندارد.

    هوش انسانی‌تر

    سال‌ها تبلیغات دیجیتال سعی کرده‌اند زمینه را از طریق کلیدواژه‌ها و فرضیات رمزگشایی کنند. هوش مصنوعی به ما فرصتی می‌دهد تا از نو شروع کنیم و به‌جای تخمین، درک واقعی بسازیم.

    با درک معنا، لحن و زمینهٔ محلی، تبلیغات متنی مبتنی بر هوش مصنوعی به برندها این امکان را می‌دهد که سرانجام با مردم صحبت کنند، نه فقط به سمت آن‌ها. وقتی از نقاط داده به معنا می‌رویم، نه تنها عملکرد را بهبود می‌بخشیم؛ بلکه ارتباط دیجیتال را دوباره احساس انسانی می‌کنیم.

  • تصاویر تولیدشده توسط هوش مصنوعی، آینده مستند را تهدید می‌کنند؛ مردم «دیگر به هیچ‌چیزی باور نخواهند کرد»: «دیپ فیک جرم است، هوش مصنوعی ابزار است»

    صداقت مصنوعی
    از طرف IDFA

    امروزه در فضای فیلم‌سازی، تعداد اندکی از مسائل این‌چنینی به‌صورت گسترده بررسی می‌شوند؛ آن‌ها، امکان‌ها و پیامدهای فناوری هوش مصنوعی‌اند. هنگامی که نگاهی به مستندسازی می‌اندازیم، این بحث به سطح جدیدی از اهمیت می‌رسد، زیرا این‌گونه فیلم‌ها معمولاً با مفاهیم روزنامه‌نگاری دربارهٔ حقیقت و واقعیت پیوند خورده‌اند. مستند‌سازان برجسته در جشنوارهٔ بین‌المللی مستند آمستردام (IDFA) امسال، که بزرگ‌ترین جشنوارهٔ مستند در جهان است، گرد هم آمدند تا دربارهٔ بهترین شیوه‌ها، هشدارهای ضروری و آیندهٔ مستندها در دوره‌ای که استفاده از هوش مصنوعی به‌تدریج گسترش می‌یابد، بحث کنند.

    دیوید فرانس، کارگردان آمریکایی نامزد اسکار و گزارشگر تحقیقاتی، در IDFA همراه با مستند «آزاد کردن لئونارد پلتیر» که در جشنواره ساندنس موفق شد، نخستین تجربهٔ خود با هوش مصنوعی را در فیلم «خوش‌آمدید به چچنیا» (۲۰۲۰) به یاد آورد. این فیلم، که به تعقیب‌گری اعضای جامعهٔ ال‌جی‌بی‌تی‌کیو‌آی در جمهوری خودمختار نیمه‌مستقل روسیه می‌پرداخت، با وضعیتی بسیار حساس سروکار داشت. برای این‌که بتواند با افرادی که تحت تعقیب بودند، گفتگو کند، فرانس مجبور شد هویت آن‌ها را محفوظ نگه دارد. او می‌گوید: «این داستانی بود که باید روایت می‌شد، اما گفتن آن دشوار بود، چون افرادی که می‌توانستند فرار کنند، در سراسر جهان تعقیب می‌شدند.»

    راه‌حلی که فرانس و تیمش اتخاذ کردند، مخفی‌سازی چهره‌های شخصیت‌ها با قرار دادن دیجیتالی افراد دیگر بر روی آن‌ها بود. او می‌گوید: «این کار هیچ‌یک از واکنش‌های ریز، احساساتشان را تغییر نداد. می‌توانستید شخص اصلی را در حین گریه و خنده ببینید، در حالی که چهرهٔ دیگری بر روی او قرار گرفته بود. در آن زمان (۲۰۱۹) ما آن را هوش مصنوعی نمی‌نامیدیم؛ ما آن را یادگیری ماشینی می‌نامیدیم. این امر به‌نظر می‌رسید شگفت‌انگیز بود.»

    کارگردان ۲۳ فعال همجنس‌گرای نیویورکی را برای واگذاری چهره‌ها و صداهایشان به این پروژه جذب کرد؛ فرآیند نوآورانه‌ای که به تیم پشت این نوآوری، اسکار فنی اعطا کرد. با این حال، فیلمساز به‌دلیل استفاده‌اش از هوش مصنوعی زیر ذره‌بین قرار گرفت. او می‌گوید: «در حین کار، همه‌جا این کار را «دیپ فیک» می‌نامیدند. ما مستمر می‌گفتیم: این دیپ فیک نیست. دیپ فیک جرم است، هوش مصنوعی ابزار است.»

    فرانس در آثار بعدی‌اش نیز از هوش مصنوعی بهره برد، از جمله در آخرین فیلمش که داستان لئونارد پلتیر، فعال سیاسی که پس از محکمه‌ای بحث‌برانگیز نیم‌قرن را در زندان سپری کرده است، روایت می‌کند. در این مورد، کارگردان از هوش مصنوعی برای بازسازی و تجدید صدای پلتیر استفاده کرد. این ابزار ضرورت داشت چون ضبط‌های شنیده‌شده در فیلم به‌صورت غیرقانونی به‌دست آمده بودند، چرا که پلتیر از داخل زندان نمی‌توانست با روزنامه‌نگاران صحبت کند. او می‌گوید: «علاوه بر این، لئونارد از ۳۰ سالگی به ۸۰ سالگی تبدیل شد و می‌توانستید سن او را در صدایش احساس کنید.»

    کارگردان بریتانیایی مارک ایساکس با فیلم «Synthetic Sincerity» در IDFA حضور دارد؛ فیلمی که در آن با آزمایشگاهی که نام فیلم را به خود اختصاص داده است، برای پژوهش دربارهٔ امکان آموزش اصالت به شخصیت‌های هوش مصنوعی همکاری می‌کند. این مستند ترکیبی از واقعیت و تخیل است که با همکاری بازیگر رومانیا ایلینکا مانولاش (از فیلم «از انتهای جهان بیش از حد انتظار نداشته باشید») ساخته شده؛ در آن ایساکس با هوشمندی با فیلترها و فنون دیگر تصاویر را دستکاری می‌کند تا صحنه‌های تولیدشده توسط هوش مصنوعی را شبیه‌سازی کند.

    ایساکس با Synthesia، شرکتی که محتواهای مصنوعی تولید می‌کند و نرم‌افزاری برای ایجاد ویدیوهای تولیدشده توسط هوش مصنوعی توسعه می‌دهد، آزمایش کرد. او توضیح داد: «شما یک شخصیت را انتخاب می‌کنید و می‌توانید متن موردنظر را برای گفتن به او وارد کنید». ابتدا این تجربه جالب بود، اما کارگردان گفت که شخصیت هوش مصنوعی «او را تا حد خستگی می‌برد» چون «دامنهٔ احساسات او بسیار محدود است». او افزود: «در ابتدا خنده‌دار بود، اما به‌سرعت خسته‌کننده شد». وقتی در یک جشنواره در بخارست با مانولاش ملاقات کرد، پیشنهاد داد تا برای ساخت این فیلم با هم کار کنند و شخصیتی نیمه‌واقعی‑نیمه‌دیجیتالی که او در صحنه بازی می‌کند، بسازند. او می‌گوید: «او بسیار جذاب‌تر است و ما می‌توانستیم با او کارهای متنوع‌تری انجام دهیم. اکثر بازیگران از تبدیل شخصیت خود به هوش مصنوعی می‌ترسند، اما او این کار را دوست داشت.»

    کارگردان تمایلی به تشخیص واضح این‌که چه‌ بخش‌هایی از فیلم توسط هوش مصنوعی تولید شده و چه‌ بخش‌هایی نه، نداشت و تأکید کرد که اثر او «خبرنگاری نیست». او می‌گوید: «هدف اصلی فیلم این است که پرسش‌هایی دربارهٔ تصویرها، تغییرات نمایندگی و مرگ دوربین مطرح شود. نمی‌خواستم با برچسب‌زنی این مسأله را مخدوش کنم.»

    بخش عمده‌ای از گفت‌وگو به بررسی تأثیر هوش مصنوعی بر تصاویر آرشیوی اختصاص یافت. سوزانا دو سوسا دیاس، کارگردان پرتغالی (از فیلم «فوردلاندیا پنانسیا») و مهمان ویژه امسال IDFA که عمدتاً با تصاویر آرشیوی کار می‌کند، گفت: «برای آرشیوها پیامدها بسیار عمیق است». او افزود: «وضعیت مستند تصاویر به‌سادگی در بستر خود قابل‌تفسیر می‌شود. خطر این است که نه تنها تماشاگران به آرشیوهای جعلی باور کنند، بلکه مردم دیگر به هیچ‌چیزی اعتماد نکنند. در هر دو حالت، ساختار حقیقت ما به‌طور کامل به‌تزلزل می‌افتد.»

    او افزود: «از زمان گذار به رسانهٔ دیجیتال، مباحث دربارهٔ ناتمام بودن واقعیت در تصاویر سیاه‌سفید و با وضوح پایین گسترش یافته‌اند». کارگردان همچنین تأکید کرد که کار با آرشیو تنها به یافتن و نجات مطالب از طریق پژوهش محدود نمی‌شود، بلکه به خلاهای موجود در مواد و حافظه نیز می‌پردازد. او می‌گوید: «سؤالی که برای من بسیار ساده و در عین حال بسیار پیچیده است: چه می‌شود وقتی فناوری‌ای که می‌خواهد همه چیز را اصلاح کند، وارد حوزه‌ای می‌شود که عدم حضور خود معنی‌دار است؟»

    در مواجهه با این معضل معاصر، فیلمساز برنده جایزه امی و طراح گرافیک ایوجن برائونیگ (از فیلم «ترافیک‌شده») همراه با انجمن تولیدکنندگان آرشیوی مجموعه‌ای از رهنمودهای بهترین شیوه‌ها برای کار با هوش مصنوعی مولد در فیلم‌سازی مبتنی بر آرشیو تدوین کرد. او تأکید کرد: «در مستند هیچ نهاد سازمانی وجود ندارد که به ما بگوید چگونه کار کنیم». او افزود: «قوانین و مقرراتی وجود ندارند؛ تنها کاری که می‌توانیم انجام دهیم، خودنظارت و تعیین استانداردهای خاص برای خودمان است تا به‌عنوان روایت‌گرها، تهیه‌کنندگان خبر و ساخت‌گران تصویر، مسئولیت‌پذیر باشیم.»

    برائونیگ اشاره کرد که ساده‌ترین اما مفیدترین اقدام، تهیهٔ یک لیست فنی (Cue Sheet) است که تکنولوژی‌های به‌کار رفته، نحوه و زمان استفاده آن‌ها در طول ساخت فیلم را فهرست می‌کند. او هشدار داد: «در نهایت مردم سؤال خواهند کرد». بهتر است پیش‌دستی باشید.

    در بخشی از گفت‌و‌گو، طراح یک کلیپ تولیدشده توسط SORA از خبرهای مصنوعی دههٔ ۱۹۹۰ را پخش کرد تا نشان دهد که توالی‌های تولیدشده توسط هوش مصنوعی چقدر دقیق هستند. او گفت: «البته پیش از این هم می‌توانستید ویدئوی تقلبی بسازید، اما هزینه‌های بالای تولید و زمان زیادی نیاز بود. اکنون این کار به‌طور فوق‌العاده ارزان و سریع شده است.»

    فیلمساز هشدار داد: «اعتماد به رسانه‌ها به پایین‌ترین سطح تاریخ خود رسیده است». او افزود: «این بدان معنی است که اعتماد به آرشیوها نیز در خطر است. اگر مردم به اخبار بی‌اعتماد شوند، که از پیش همین‌طور است، احتمالاً این بی‌اعتمادی به سمت فیلم‌سازی مستند نیز سرایت می‌کند و در برخی موارد به‌طور معقولی درست است.»

  • فیدجی سیمو از OpenAI برنامه دارد تا ChatGPT را بسیار کاربردی‌تر کند — و کاربران را مجبور به پرداخت هزینه کند

    هم‌زمان با گسترش OpenAI در همه جهت‌ها، مدیرعامل جدید بخش Applications مأموریتی دارد تا ChatGPT را ضروری و سودآور سازد.

    فیدجی سیمو
    عکس: G L Askew II

    در صورتی که ساختار OpenAI نتواند عجیب‌تر شود — سازمانی غیرانتفاعی که بر یک شرکت تجاری که به یک شرکت عمومی با هدف عمومی تبدیل شده نظارت می‌کند — حالا دو مدیرعامل دارد. سام آلتمن، مدیرعامل کل شرکت که بر تحقیق و محاسبه نظارت می‌کند. و از این تابستان، فیدجی سیمو، مدیرعامل پیشین Instacart، که همه امور دیگر را مدیریت می‌کند.

    از زمانی که در ماه اوت به‌عنوان مدیرعامل بخش Applications آغاز به کار کرد، فیدجی سیمو در دفتر OpenAI در سانفرانسیسکو زیاد دیده نمی‌شود. اما حضور او در تمام سطوح شرکت حس می‌شود — به‌ویژه چون رهبری ChatGPT را بر عهده دارد و عملاً تمام عملکردهایی که می‌توانند درآمد OpenAI را افزایش دهند را هدایت می‌کند. سیمو با بازگشت بیماری سندرم ارتواستاتیک تاکی‌کاردیای وضعیتی (POTS) مواجه است که باعث می‌شود در صورت ایستادن طولانی‌مدت غش کند. بنابراین فعلاً از منزل در لس‌آنجلس کار می‌کند و در Slack فعال است. خیلی.

    او می‌گوید: «در هر روز از ساعت ۸ صبح تا نیمه‌شب حضور دارم، در عرض پنج دقیقه پاسخ می‌دهم؛ مردم احساس می‌کنند که من اینجا هستم و می‌توانند بلافاصله با من ارتباط برقرار کنند، که من در پنج دقیقه به تماس پاسخ می‌دهم». این ادعا توسط کارکنان تأیید می‌شود. فرهنگ شناخته‌شدهٔ OpenAI که بر Slack بنیان‌گذاری شده می‌تواند برای تازه‌کارها سنگین باشد؛ اما به‌نظر می‌رسد برای سیمو این‌گونه نیست. کارکنان می‌گویند او را اغلب می‌بینند که به‌سرعت به کانال‌ها و رشته‌های گفتگو می‌پیوندد، افکار خود را به‌اشتراک می‌گذارد و سؤال می‌پرسد.

    سیمو در دوره‌ای پرآشوب به OpenAI پیوست، دوره‌ای که شرکت در تقریباً تمام جهت‌ها در حال گسترش است. مشارکت‌های حاکمیتی در حوزه هوش مصنوعی، مدل‌های جدید، همکاری‌های خرده‌فروشی، قراردادهای محاسباتی چند میلیارد دلاری، یک تراشه اختصاصی، محصول سخت‌افزاری مرموز و البته ChatGPT وجود دارد. فیدجی سیمو می‌گوید: «ما برای گسترش دامنه رقابت نمی‌کنیم؛ ما برای محدود کردن دامنه می‌جنگیم.»

    مصاحبهٔ بزرگ

    مکالمات عمیق، عجیب و هوشمندانه با مهم‌ترین افراد جهان را بخوانید.

    خارج از سیلیکون‌ولِی، استخدام سیمو تعجب‌آور بود. اما برای آگاهان کمتر شگفت‌انگیز بود. اهل سِته، یک شهر کوچک ماهیگیری در جنوب فرانسه، فیدجی سیمو با مدیریت برنامهٔ فیس‌بوک در متا شهرت کسب کرد و سپس در سال ۲۰۲۱ به‌عنوان مدیرعامل Instacart منصوب شد. دو سال پس از آن این استارتاپ خواربار فروشی به‌صورت عمومی شد. در دره، او به‌عنوان یک رؤیای‌دار محصول شناخته می‌شود که برای گسترش برنامه‌های مصرف‌کننده در سراسر جهان شهرت دارد.

    نقش سیمو در OpenAI عمدتاً همان کار را انجام می‌دهد — تبدیل دستاوردهای پژوهشی شرکت به محصولات مصرفی سودآور و ضروری. او با رقابت سرسختانه‌ای از سوی غول‌های فناوری همچون گوگل و متا، و همچنین استارتاپ‌های هوش مصنوعی که توسط فارغ‌التحصیلان OpenAI تأسیس شده‌اند؛ از جمله Thinking Machines Lab، Anthropic و Periodic Labs، مواجه است. فیدجی سیمو می‌گوید: «چیزی که شب‌ها من را بیدار می‌کند این است که هوش مدل‌های ما به‌مراتب پیشی گرفته از میزان استفادهٔ مردم از آن‌هاست». او اضافه می‌کند: «من کارم را به‌عنوان پر کردن این فاصله می‌بینم.»

    از زمان پیوستن او، سیمو نظارت بر راه‌اندازی Pulse، محصولی که به تقویم کاربران متصل می‌شود و اطلاعات شخصی‌سازی شده‌ای براساس برنامه‌زمانی، تاریخچهٔ گفت‌و‌گو و بازخوردهایشان ارائه می‌دهد؛ ایجاد یک بستر کارهای شغلی برای امکان دریافت گواهینامه هوش مصنوعی و جستجوی نقش‌هایی که از مهارت‌هایشان استفاده می‌کنند؛ و تکثیر تلاش‌ها برای بهبود پاسخ‌های ChatGPT به افراد در بحران‌های شدید سلامت روانی. در نهایت، منبع‌ها می‌گویند که او فردی خواهد بود که تصمیم می‌گیرد تبلیغات را در لایهٔ رایگان ChatGPT چگونه عرضه شود.

    ما در یک مزرعهٔ مدرن و روشن نشسته‌ایم که فیدجی سیمو همراه با همسرش، ریمی، و دختر ۱۰ ساله‌شان در آن زندگی می‌کند. روی میزی که جلوی ماست، انبوهی از شیرینی‌ها و جعبه‌ای از شکلات‌های ریمی قرار دارد. او که قبلاً مهندس بود، اکنون تمام وقت به‌صورت کامل شیرینی‌پزی می‌کند.

    این پس‌زمینهٔ آرمانی برای کسی است که رهبری شاید پرشتاب‌ترین استارتاپ جهان را به عهده دارد. اگر مأموریت OpenAI اطمینان از این است که هوش مصنوعی عمومی برای تمام بشریت سودمند باشد، هدف سیمو ساخت و مقیاس‌پذیری ابزارهایی است که این امکان را می‌دهد. سؤال برای او — و برای OpenAI — این است که آیا این مأموریت می‌تواند در برابر مدل تجاری بقا یابد. این مصاحبه برای شفاف‌سازی و خلاصه‌سازی ویرایش شده است.

    زوئه شیفر: شما مدیرعامل بخش Applications هستید — و تحت گزارش سام آلتمن کار می‌کنید. رابطهٔ کاری‌تان چگونه بوده است؟

    فیدجی سیمو: آنچه سام می‌خواست، توانایی تمرکز بر پژوهش و محاسبه بود، بنابراین من سعی می‌کنم اطمینان حاصل کنم که او بتواند زمان خود را آزاد کند. در عین حال، او دریافت کرد که این شرکت عمدتاً از یک آزمایشگاه پژوهشی شکل گرفته و به یک شرکت محصولی بسیار مهم تبدیل شده است، که نیازمند نیروی متفاوتی است. من نقشم را این می‌بینم که این شرکت محصولی را به‌طرز شگرفی موفق کنم، در حالی‌که به فرهنگ آزمایشگاه پژوهشی احترام می‌گذارم.

    هنگامی که وارد چنین شغلی می‌شوید، آیا کسی مرجع‌های شما را بررسی می‌کند؟

    [خندید.] فکر می‌کنم سام برای حدود سه سال مرجع‌های من را جمع‌آوری کرده بود. سام و من در یک دایرهٔ مشابه کار می‌کردیم، بنابراین او از شهرت من آگاه بود. فکر نمی‌کنم او به‌صورت دقیق تلفن را برداشته و بگوید «آیا او معتبر است؟»

    قصد داشتم بپرسم آیا مارک زاکربرگ یکی از افراد مرتبط شما بوده است …

    مارک در طول مسیر شغلی‌ام حامی بی‌نظیری بوده و بارها رفرنس‌های من را ارائه داده است. در این وضعیت خاص، فکر نمی‌کنم سام با او تماس گرفته باشد.

    شما در مورد این‌که در متا ریسک می‌کردید و گاهی نقش و شهرت خود را به خطر می‌انداختید، صحبت کرده‌اید. کنجکاو هستم بدانم آیا خطراتی را شناسایی کرده‌اید که بخواهید OpenAI به آن‌ها بپردازد.

    خب، قبول این مسئولیت برای من کاملاً ریسکی به‌نظر می‌رسید خندید. می‌گویم آن چیزی که در متا به‌خوبی انجام ندادیم، پیش‌بینی خطراتی بود که محصولاتمان می‌توانند در جامعه ایجاد کنند.

    در OpenAI، این خطرات بسیار واقعی‌اند. سلامت روان و اشتغال دو ابتکار اولیهٔ من هنگامی که به شرکت پیوستم بودند. من به این چشم‌انداز نگاه می‌کردم و می‌گفتم: «بله، بلافاصله، سلامت روان مسأله‌ای است که باید به آن بپردازیم. شغل‌ها به‌وضوح دچار اختلال خواهند شد و ما نقشی داریم تا این اختلال را تا حد امکان کاهش دهیم.»

    این کار آسان نخواهد بود، زیرا مسیر ناشناخته است. بنابراین مسئولیت بزرگی است، اما به‌نظر می‌رسد فرهنگ و اولویت‌بندی لازم برای پرداختن به این موضوع از پیش داریم.

    به نظر شما شرکت در زمینه سلامت روان در حال حاضر چه وضعیتی دارد؟

    در طی چند ماه اخیر، ما به‌طرز چشمگیری شیوع واکنش‌های منفی سلامت روانی را کاهش دادیم. کنترل‌های والدین را با بالاترین سطح حفاظت راه‌اندازی کرده‌ایم و در حال کار بر روی پیش‌بینی سن برای محافظت از نوجوانان هستیم.

    در عین حال، وقتی ۸۰۰ میلیون کاربر (هفته‌ای) داریم و شیوع بیماری‌های روانی در جامعه را می‌دانیم، طبیعتاً مردم در لحظات اضطراب شدید به ChatGPT روی می‌آورند. انجام کار صحیح در هر بار به‌طور استثنایی دشوار است. بنابراین ما سعی می‌کنیم تا حد ممکن رفتارهای نامطلوب را شناسایی کنیم و مدل‌های خود را به‌طور مستمر بهبود دهیم.

    اما اگر بخواهید وضعیت فعلی شرکت را با هدفی که دارید مقایسه کنید، چه نمره‌ای می‌دادید؟

    به این معنا نیست که ما هرگز به نقطه‌ای برسیم که تمام کارها تمام شده باشد. هر هفته رفتارهای جدیدی با ویژگی‌هایی که معرفی می‌کنیم ظاهر می‌شود و ما می‌گوییم: «آه، این یک چالش ایمنی دیگر است که باید به آن پرداخته شود». مثال خوبی مانیا است. زمانی که به متن‌ها نگاه می‌کنیم، گاهی افراد می‌گویند: «احساس فوق‌العاده‌ای دارم. دو روز نمی‌خوابم و احساس می‌کنم بالای دنیا هستم». یک روانشناس کلینیکی می‌فهمد که این طبیعی نیست — این مانیاست. اما اگر به کلمات نگاه کنیم، به‌نظر می‌رسد مشکلی نیست. بنابراین ما با روانشناسان همکاری می‌کنیم تا سیگنال این‌که این صرفاً هیجان‌زدگی نیست، بلکه نشانه مانیاست را شناسایی کنیم و استراتژی مداخله داشته باشیم.

    خطا کردن نیز بسیار آزاردهنده است. اگر یک بزرگسال عادی هیجان‌زده باشید و ChatGPT به شما بگوید: «ممکن است در حال تجربهٔ یک دورهٔ مانیک باشید»، این امر خوب نیست. این حوزه بسیار ظریف است و ما سعی می‌کنیم با نهایت دقت و با بیش‌ترین ورودی خارجی این کار را انجام دهیم.

    فیدجی سیمو
    عکس: G L Askew II

    OpenAI به‌ظاهر یکی از ارزشمند‌ترین استارتاپ‌های جهان است، اگر نه ارزشمندترین، اما به‌طور سالانه میلیاردها دلار ضرر می‌کند.

    متوجه شدم.

    چه فرصت‌هایی را می‌بینید تا OpenAI به مسیر سودآوری برسد؟

    تماماً به مقیاس بازارها و ارزشی که در هر بازار ارائه می‌کنیم برمی‌گردد. پیش از این فقط افراد مرفه به تیمی از دستیاران دسترسی داشتند. با ChatGPT می‌توانیم همان تیم را برای همه فراهم کنیم — یک خریداری شخصی، یک مشاور سفر، یک مشاور مالی، یک مربی سلامت. این به‌مروردار خیلی ارزشمند است و ما هنوز به سطوح اولیه دست پیدا نکرده‌ایم. اگر این را بسازیم، انتظار دارم مردم مایل به پرداخت هزینهٔ زیاد برای این خدمات باشند و این درآمد حاصل خواهد شد.

    در عین حال، در بخش سازمانی، ما یک API و ChatGPT Enterprise می‌فروشیم که محصول خوبی است اما لایه‌ای بسیار نازک نسبت به تمام چیزهایی که می‌توانیم برای سازمان‌ها بسازیم. اگر به ساخت عوامل برای هر صنعت و عملکرد فکر کنید، چیزهای بسیار زیادی برای ساخت وجود دارد؛ یا توسط ما یا با امکان‌پذیری ساختن توسط طرف‌های ثالث بر روی پلتفرم ما.

    پس من می‌گویم، بازارها بزرگ هستند. عمق ارزش نیز عظیم است. این فرمول پایهٔ درآمدزایی است. سپس سؤال واقعی این است که آیا توان محاسباتی لازم برای ارائهٔ آن را خواهیم داشت یا خیر.

    OpenAI معاملات به ارزش صدها میلیارد دلار را برای ساخت مراکز داده انجام داده است. وقتی مردم دربارهٔ ترس‌های مرتبط با این معاملات محاسباتی صحبت می‌کنند، نه تنها به مقیاس آن اشاره می‌کنند، بلکه این معاملات کمی بی‌پایان به‌نظر می‌رسند. همچنین این واقعیت که به‌نظر می‌رسد بخش بزرگی از اقتصاد آمریکا به OpenAI و Nvidia وابسته شده است.

    در ابتدا، بسیاری می‌گویند «واو، این معاملات محاسباتی عظیم‌اند»، اما وقتی می‌بینیم چقدر به‌صورت داخلی محدود شده‌ایم و چقدر می‌توانیم پیشرفت کنیم اگر GPUهای بیشتری داشته باشیم، واضح است که این تصمیم درست است. ما خط تولید محصولاتی داریم که استفادهٔ گسترده‌ای از محاسبات خواهند داشت. می‌دانم این معاملات از بیرون ریسک‌پذیر به‌نظر می‌رسند، اما در داخل، خطر بزرگ‌تر این است که به محاسبات تکیه نکنیم.

    شرکت‌هایی که این قراردادها را با آن‌ها می‌بندیم، بسیار پیشرفته هستند. آن‌ها این نوع معاملات و این نوع مالی‌سازی را فراهم می‌کنند زیرا شریک‌های نزدیک و آگاه به کسب‌وکار ما هستند.

    برای مثال محصول Pulse که ما از طریق برنامه Pro منتشر کردیم. من می‌خواهم این محصول برای همه در دسترس باشد، اما به‌دلیل محدودیت‌های محاسباتی، قادر به انجام این کار نیستیم. این یک مثال است، اما حدود ۱۰ مورد مشابه وجود دارد.

    چگونه از Pulse استفاده می‌کنید؟

    Pulse برای من هم در زمینه کار و هم در زمینه سلامت بسیار مفید است. در بخش سلامت، Pulse هر صبح به من می‌گوید آیا مطالعات جدیدی دربارهٔ وضعیت من منتشر شده است یا نه. پیش از این، مجبور بودم تمام این اطلاعات را تحقیق کنم. به‌جای مراجعه به مجلات پزشکی، همهٔ این‌ها به‌صورت خلاصه و به‌وضوح در یک خط ارائه می‌شود.

    در حوزه کاری نیز مشابه است. همان‌طور که می‌دانید، به‌روز ماندن با اخبار هوش مصنوعی چالشی است. دریافت خلاصهٔ سریع از آنچه در دنیای هوش مصنوعی رخ داده توسط Pulse بسیار مفید است. همسرم یک سازندهٔ شکلات است و در حال ساخت یک تقویم آدونت است. Pulse به او گفت: «آهان، باید در پنجره‌های مختلف پیام مخفی کنید». او گفت: «این ایدهٔ درخشانی است!»

    شما یک شخص بسیار موفق هستید و همزمان با یک بیماری مزمن هم زندگی می‌کنید. دوست دارم بدانم از مدیریت این دو موضوع چه درس‌هایی گرفته‌اید؟

    این سؤال خوبی است. من نخواستم بیماری‌ام مسیر مأموریتم را مسدود کند. اگر بتوانید تمام توان خود را به یک شغل اختصاص دهید، می‌توانید بسیاری از تسهیلاتی را ترتیب دهید که این امکان را فراهم می‌کند. می‌دانم که بسیار خوش‌شانسم که در شرکت‌های حمایتی کار کرده‌ام و این برای همهٔ افراد صادق نیست. چون مردم به‌ندرت کسی را در سطح مدیریتی می‌بینند که به‌صورت علنی دربارهٔ بیماری مزمن خود صحبت کند، بسیاری بر این باورند که این امکان‌پذیر نیست. وقتی علنی کردم، تعداد زیادی از افراد با من تماس گرفتند و گفتند: «او خدا، یک مسیر وجود دارد!»

    در دورهٔ کاری‌تان در متا بیمار شدید، درست است؟ بعد از یک بارداری نسبتاً سخت.

    بله. من به‌مدت پنج ماه بر تخت استراحت می‌کردم. در دوران بارداری باید جراحی می‌کردم تا از زودتر بیرون آمدن بچه جلوگیری شود. در ماه چهارم شروع به دردهای انقباضی کردم. بنابراین واقعاً در خطر از دست دادن بچه بودم. تمام مدت بارداری‌ام کار می‌کردم. در واقع، همسرم تصویری از تولد چهل‌سالگی‌ام نشان داد که من در تخت دارم یک بررسی از زاکر را می‌گیرم. آن زمان کار از خانه جذاب نبود. و من در Facebook Live ارائه می‌کردم. من با این وضعیت کار می‌کردم و در نهایت به‌دلیل POTS به‌سوی دیگر سمت رفت. سپس در سال ۲۰۱۹ جراحی اندومتریوز انجام دادم که POTS را بدتر کرد. از آن زمان تا کنون در حالت ناپایداری هستم؛ تنها نوسان داشته‌ام. اما سال ۲۰۱۹ دقیقاً زمانی بود که علائم به‌طور شدید بیدار شدند.

    شما پرسیدید چه چیزهایی از این تجربه آموخته‌ام. جالب است چون فکر می‌کنید من دربارهٔ آن فکر کرده‌ام، اما تعداد کمی از خبرنگاران به این موضوع پرداخته‌اند و من هنوز به‌طور کامل به این سؤال پاسخ نداده‌ام.

    بخش مهمی از مأموریت من، مراقبت از این است که همه افراد به‌پتانسیل کامل خود دست یابند. من دنیایی می‌خواهم که شرایط سلامت‌بری مسیر را نگیرد؛ چه به‌دلیل توانایی درمان آن‌ها و چه به‌دلیل فراهم شدن تسهیلات توسط شرکت‌ها. می‌توانیم فناوری‌هایی داشته باشیم که این کار را آسان‌تر می‌کند.

    فکر می‌کنم اگر بیماری‌ام زودتر اتفاق می‌افتاد و ما هنوز نورم‌های حضور در Zoom نداشتیم، کار بسیار سخت‌تری می‌شد. من احساس همدردی عمیقی نسبت به تمام افرادی دارم که چیزهای زیادی برای جهان دارند، اما این موارد راهشان را می‌بندند.

    محدودیت‌ها همچنین شما را وادار به خلاقیت بیشتر می‌کنند. معتقدم این محدودیت‌های فیزیکی شدید باعث شده‌اند که در رهبری‌ام بسیار هدفمند عمل کنم.

    فیدجی سیمو
    عکس: G L Askew II

    OpenAI دارای فرهنگی به‌شدت حضوری است. چطور می‌توانید اعتماد تیم را بسازید وقتی همیشه نمی‌توانید آنها را رو در رو ببینید؟

    چیزی که واقعاً کمک کرد این بود که من بسیار شفاف بودم. در روز اول، پیغامی برای همه ارسال کردم و به‌تفصیل در مورد وضعیت خود توضیح دادم، چون بیماری‌های نامریی چالش واقعی دارند. به‌نظر می‌رسد که من سالم هستم، اما با شفافیت می‌گفتم: «دوست دارم حتماً الآن در دفتر باشم، اما بعضی روزها می‌توانم این کار را بکنم و برخی روزها مجبور به کار در حالت نشسته‌پشت‌پایدار هستم». فکر کردم این کار اعتماد زیادی ایجاد کرد. این کار آسیب‌پذیری را از ابتدا نشان می‌دهد و آسان نیست. این کار خطرناک است وقتی که تازه وارد می‌شوید و باید این‌گونه حرف بزنید. من این موضوع را دو هفته فکر می‌کردم.

    چیزی که سعی می‌کنم به‌خوبی انجام دهم این است که به‌صورت دیگری بسیار حاضر باشم. این یک فرهنگ حضوری است اما همچنین فرهنگ فراوانی است که بر Slack تکیه دارد. فکر می‌کنم نسبت به کاری که در دفتر قدم می‌زنم، در دسترس‌تر هستم. مطمئناً امیدوارم این عود دوباره پایان یابد تا بتوانم زمان بیشتری در دفتر حضور داشته باشم، اما تاکنون استراتژی‌ام مؤثر بوده است.

    از بسیاری از افراد شنیده‌ام که مهارت شما در Slack بسیار قوی است.

    [خندید.] اگر خبرنگاران در مورد این موضوع می‌دانند، نمی‌دانم که این خوب است یا نه.

    بخشی از مأموریت شما این است که نحوه عملکرد تبلیغات در داخل ChatGPT را بررسی کنید. این چگونه خواهد بود و جدول زمانی شما چیست؟

    مدل تبلیغاتی وقتی که هدف تجاری واضح است، بسیار خوب کار می‌کند. در حال حاضر حجم زیادی از این درخواست‌ها داریم؛ افرادی که به‌دنبال مشاورهٔ خرید هستند. مهم‌ترین نکته پیش از هرگونه تبلیغات، اطمینان از این است که تجربهٔ تجاری ما فوق‌العاده باشد و مردم بتوانند به‌راحتی تمام محصولات مورد نظر خود را بررسی کنند و توصیه‌های عالی دریافت کنند.

    آیا هنوز در نقطه‌ای نیستید که اگر کسی درخواست مشاورهٔ خرید داشته باشد، یک محصول پولی توصیه شود؟

    خیر.

    OpenAI دارای دادهٔ غنی کاربران است. این داده‌ها ترکیبی از زندگی کاری افراد، افکار شخصی‌ترینشان، عادت‌ها و نیازهای محصولی‌شان است. این اطلاعات برای تبلیغ‌کنندگان بسیار جذاب است. شما در مقیاس‌پذیری چگونه به حریم خصوصی داده‌ها فکر می‌کنید؟

    هر کاری که انجام می‌دهیم باید کاملاً به احترام آن (داده‌ها) باشد. به همین دلیل هنوز دربارهٔ تبلیغات خبری ندادیم، زیرا اگر هر زمان بخواهیم اقدام کنیم، باید مدل بسیار متفاوتی نسبت به روش‌های قبلی باشد.

    آنچه از ساخت پلتفرم‌های تبلیغاتی آموخته‌ام این است که آنچه مردم بیشتر از تبلیغات دوست ندارند، خود تبلیغ نیست، بلکه استفاده از داده‌های پشت آن است.

    آیا برای سؤال درباره تبلیغات آمادگی داشته‌اید؟

    این سؤال را تا کنون بارها بارها دریافت کرده‌ام.

    به‌نظر می‌رسد OpenAI هم‌زمان در مسیرهای مختلفی گسترش می‌یابد. آیا خطر این‌که شرکت سعی کند بیش از حد کار کند، را می‌بینید؟

    نقش من کمینه‌سازی این ریسک است. و راه حل ساده این است که بهترین استعدادها را جذب کنید؛ به‌جای اینکه یک نفر مسئول ۱۵ پروژه باشد، برای هر پروژه بهترین رهبر را داشته باشید. من تمرکز زیادی بر استخدام و اطمینان از داشتن بالاترین توانایی ممکن دارم.

    ما باور داریم که هر دسته‌ای از نرم‌افزارها برای هوش مصنوعی بازآفرینی خواهد شد و ما نقش مهمی در اطمینان از این که محصولات آینده به‌صورت بومی هوش مصنوعی از پایه توسعه یابند، داریم. بنابراین نیاز به ارادهٔ بلندپروازی و توانایی‌های لازم برای رسیدن به این هدف وجود دارد که دقیقاً کار من در ساختن شرکت است.

    Sora، برنامهٔ ویدئویی OpenAI، با مجموعه‌ای بسیار کم از ویژگی‌های ایمنی و راهنمایی‌ها راه‌اندازی شد. هدف پشت این روش چه بود؟

    در واقع فکر می‌کنم که این برنامه با مجموعه‌ای نسبتاً خوب از ویژگی‌های ایمنی عرضه شد. ما کنترل‌های والدین را پیاده‌سازی کرده‌ایم که به والدین اجازه می‌دهد نحوه استفاده از تصویر فرزندشان را کنترل کنند. آن‌ها می‌توانند ساعت‌های استفاده از برنامه را تنظیم کنند. کنترل‌گذاری که من می‌توانم بر روی تصویر خودم اعمال کنم پیشرفته و متفکرانه است، حتی برای بزرگسالان.

    در عین حال این یک شکل کاملاً جدید از تعامل است، بنابراین ما بر پایهٔ بازخوردها یاد می‌گیریم و بهبود می‌دهیم.

    به‌موارد حق تکثیر فکر می‌کردم، جایی که به‌نظر می‌رسید شما واکنش‌پذیرتر باشید.

    آنچه از صاحبان حق تکثیر می‌شنویم این است که دربارهٔ این رسانهٔ جدید بسیار هیجان‌زده‌اند و می‌خواهند حقوق مالکیت معنوی‌شان به‌دست هواداران برسد به‌گونه‌ای که مشارکت هواداران را افزایش دهد. اما آن‌ها می‌خواهند اطمینان حاصل کنند که تبادل ارزش به‌درستی برقرار است. ما نیز همین را می‌خواهیم.

    برنامه به‌طور اساسی به عنوان «مخلفات هوش مصنوعی» مورد انتقاد قرار گرفت.

    به‌نظر من هر رسانهٔ جدیدی از مراحل عبور می‌کند. ابتدا تقلید از آنچه وجود دارد است. اگر به سینما نگاه کنیم، در ابتدا صرفاً ضبط افراد روی صحنه بود تا زمانی که نماهای نزدیک‌تر یا صحنه‌های مختلف اضافه شد. اینجا فکر می‌کنم ما در همان مرحله‌ای هستیم که هوش مصنوعی سعی دارد خروجی انسانی را کپی کند، و در برخی موارد نسخهٔ ضعیف‌تری به‌وجود می‌آید. چیزی که من به‌دنبال آن هستم، زمان انتقال به مرحلهٔ بعدی آزمایش واقعی با ویژگی‌های منحصربه‌فرد این رسانه است و شروع به ظهور آن می‌کنیم. گاهی اوقات ویدیوها را مرور می‌کنم و فکر می‌کنم «خب، این همان‌طور است که قبلاً بود»، اما ناگهان متوقف می‌شوم و می‌پرسم: «چه کسی این را ساخته؟»

    من نگران کمی از سلطه‌گرایی پیرامون روایت «مخلفات» هستم. برای برخی افراد، بخشی از این محتوا بسیار سرگرم‌کننده است. دوستی دارم که کسب‌وکار کوچکی دارد و برنامهٔ تجاری که از ChatGPT دریافت می‌کند، بله، همانند Goldman Sachs نیست، اما او هرگز دسترسی به Goldman Sachs نخواهد داشت. و چیزی که از ChatGPT می‌گیرد، ده برابر بهتر از هر چیزی است که قبلاً دسترسی داشته است. ما باید این رسانهٔ جدید را به‌عنوان ارتقاء سطح پایهٔ خلق محتوا پیشین و فراهم‌سازی دسترسی حداقل برای افرادی که پیش از این دسترسی نداشتند، ببینیم.

    نگرانی‌ها دربارهٔ اختلال هوش مصنوعی در مشاغل زیاد است. چه اندازه این موضوع برای شما نگران‌کننده است؟

    من اعتقادم این است که ایجاد مشاغل گسترده‌ای خواهد بود، اما برخی دسته‌های شغلی به‌طور عمیقی تحت تأثیر این تحول قرار می‌گیرند. به همین دلیل یکی از اولین ابتکارات من راه‌اندازی گواهینامه‌های OpenAI بود، که هدف آن صد میلیون کارگر را برای آمادگی هوش مصنوعی گواهی‌گذاری کنیم، و یک بازار کار برای اتصال آن‌ها به فرصت‌های استفاده از مهارت‌هایشان. ما نقش خود را ایفا می‌کنیم، اما معتقدم دولت‌ها و شرکت‌ها نیز نقش بزرگی ایفا خواهند کرد.

    با پیشرفت مداوم هوش مصنوعی، مزیت انسان‌ها به چه شکل است؟

    انسانیت به‌صورت بی‌پایان خلاق است. هوش مصنوعی به ما قدرت‌های فوق‌العاده‌ای می‌دهد تا خلاقیت بیشتری داشته باشیم. بنابراین ایدهٔ اینکه انسان‌ها صرفاً «کارت را تمام کردیم» برای من اصلاً قابل قبول نیست.

    من این رویکرد را با دخترم پیش می‌گیرم. همه ما به‌عنوان خالق متولد می‌شویم، اما گاهی به‌عنوان بزرگسالان این را فراموش می‌کنیم. او را می‌بینم که از ایده به اجرا سریع‌تر از من می‌رود. او تا به‌حال سه کسب‌وکار راه‌اندازی کرده و ۱۰ سال دارد. او یک آهنگ نوشته است و کتابی نوشت، چون برای او این کار بسیار آسان است.

    آیا دخترتان می‌تواند از ChatGPT استفاده کند؟

    بله، حتماً از آن استفاده می‌کند. این سرویس برای زیر ۱۳ سال طراحی نشده اما تحت نظارت والدین، اجازه استفاده به او می‌دهم.

    ترس گسترشی مبنی بر این که هوش مصنوعی تمام بشریت را نابود خواهد کرد وجود دارد. آیا شما این نگرانی را دارید؟

    من پیش از این‌که به‌عمق OpenAI بپیچم، چنین ترسی نداشتم. اما اکنون تمام تلاش خود را می‌کنیم تا مطمئن شویم این اتفاق نیفتد.

    آیا تا به‌حال فکر کرده‌اید که به‌عنوان مدیرعامل کل شرکت نیز منصوب شوید؟

    بیایید واضح باشیم: کاری که سام انجام می‌دهد، من نمی‌توانم انجام دهم. در حوزهٔ کاری من کارهای بسیار زیادی وجود دارد که فکر می‌کنم ده سال یا بیشتر می‌توانم در همان‌جا به آن‌ها بپردازم. من می‌گویم ما به همه نیاز داریم. ما به سام شدیداً نیاز داریم. ما به من نیز نیاز داریم.

    تاپ، پیراهن و کفش از دیور. کت‌جاکتی از موشینو.
    نظر خود را دربارهٔ این مقاله به ما بگویید. نامه‌ای به سرمقاله‌نویس ارسال کنید به mail@wired.com.

  • گمشده در طرح: چطور نویسندگان نوپا توسط پرسنل هوش مصنوعی و دفاتر مجازی در یک کلاه‌برداری ناشرانهٔ جهانی فریب خورده‌اند

    وب‌سایت‌های ناشر کتاب در استرالیا، بریتانیا و نیوزیلند به‌نظر می‌رسد با استفاده از نظرات ساختگی و صفحات پرسنل هوش مصنوعی، نویسندگان نوپا را به تحویل پول خود ترغیب می‌کنند.

    یک نویسنده‌ متقاضی استرالیایی پیش از این‌که دریابد ممکن است قربانی یک طرح مشکوک در حوزهٔ انتشار بین‌المللی شده باشد، به‌صورت چهره‌به‌چهره با فردی که به‌نظر می‌رسید کلاه‌بردار است، ملاقات کرد.

    مرکز ملی مبارزه با تقلب استرالیا هم‌اکنون به بررسی یک مورد می‌پردازد که وب‌سایتی افراد را که به‌دنبال گره‌گیری در فضای به‌تدریج شلوغ خودنشر و انتشارات خودپرست می‌گردند، به خود جذب می‌کند. گار دیان وب‌سایت‌های مشکوک مشابهی را در بریتانیا و نیوزیلند کشف کرده و دو وب‌سایت دیگر در استرالیا شناسایی کرده است.

    این شبکه‌ی ظاهری ناشران – با استفاده از وب‌سایت‌های کپی‌شده، پرسنل تولید‌شده توسط هوش مصنوعی و دفاتر مجازی در استرالیا، بریتانیا و نیوزیلند – شامل وب‌سایت‌هایی با نام‌های Melbourne Book Publisher، First Page Press (UK)، Aussie Book Publisher، Oz Book Publishers و BookPublishers.co.nz می‌شود.

    سازمانی که به نام Melbourne Book Publisher فعالیت می‌کند، نویسندگان نوپایی را که گمان می‌برند با ناشر معتبر Melbourne Books (که یک انتشارات خودپرست نیست) در تعامل هستند، گم می‌کند؛ حتی از نامی شبه‌یکسان و شماره تجاری استرالیا (ABN) آن استفاده می‌کند.

    وب‌سایت «Melbourne Book Publisher»
    وب‌سایت «Melbourne Book Publisher» که نویسندگان نوپا را گم می‌کند و فکر می‌کنند با ناشر معتبر «Melbourne Books» در ارتباط هستند

    به‌نظر می‌رسد این شرکت به یک عملیات مشابه مستقر در لندن به نام First Page Press مرتبط است؛ هر دو پس از تماس گار دیان برای پرسش‌ دربارهٔ استفاده از محتوای تولیدشده توسط هوش مصنوعی، از جمله پروفایل‌های پرسنل و نظرات، بخش‌هایی از وب‌سایت‌های خود را حذف کردند.

    First Page Press، که آدرس‌هایش در لندن و ملبورن فهرست شده است، همچنین کتاب‌هایی را در سایت خود نشان می‌دهد که در واقع توسط یک شرکت خودنشر ایالات‌متحدی به نام Atmosphere Press منتشر شده‌اند. مدیرعامل آن، نیک کورت‌ریت، به گار دیان گفت که این «سرقت جسورانه‌ای» است و از آن زمان یک نامهٔ «متوقف کنید و دست‌بردارید» (cease and desist) به First Page Press صادر کرده و موضوع را به Scamwatch گزارش داده است.

    وب‌سایت «First Page Press»
    وب‌سایت «First Page Press»

    آندریا*، نویسندهٔ نخستین از استرالیای غربی که در حال بهبودی از سرطان بود، تمام انرژی خود را صرف نوشتن یک رمان رمانتیک فانتزی کرد و از دریافت پاسخی سریع به پرسش‌اش در فیسبوک بر صفحهٔ Melbourne Book Publisher خوشنود شد. یک مدیر در شرکت با نام مارکوس هیل مشتاق به‌بحث در مورد دست‌نوشتهٔ ۸۶٬۰۰۰ کلمه‌ای او بود و یک کنفرانس ویدئویی برای بررسی برنامه‌های انتشار و بازاریابی کتاب او ترتیب داد.

    «او را دیدم. او من را دید»، آندریا می‌گوید. «او به تمام سؤال‌های دقیق دربارهٔ قراردادها و درصدهای انتشار پاسخ داد، ما دربارهٔ برنامهٔ یک جلسهٔ امضای کتاب در ملبورن صحبت کردیم، دربارهٔ حضور من در تیک‌توک و برگزاری رونمایی در کتابفروشی محلی‌ام بحث کردیم. من به تمام این‌ها باور داشتم.»

    آندریا تنها ۸۸ دلار هزینه کرد برای آنچه به او گفته شد شماره تجاری (ABN) بخرد، اما معامله به‌زودی گره خورد. او با دفتر Melbourne Books تماس گرفت، که اشتباهاً فکر می‌کرد با آن در تعامل است، تا پیش از امضای قرارداد راهنمایی بیشتری بگیرد. به او گفتند: «مارکوس در اینجا کار نمی‌کند».

    او به این‌نتیجهٔ «دردناک در دل» رسید که کلاه‌بردار را به‌صورت چهره‌به‌چهره ملاقات کرده است. یک نویسنده‌دار دیگر از غرب استرالیا (WA)، پیتر ارتمولر، تأیید کرد که با فردی به نام مارکوس هیل و همچنین هانا پرستون که نام دیگری بود که آندریا می‌گفت در ارتباطاتش با Melbourne Book Publisher دیده بود، در تعامل بوده است. او نیز صفحه را از طریق فیسبوک پیدا کرد، فکر می‌کرد این یک ناشر سنتی است، اما زود متوجه شد که با یک شرکت تقلبی سر و کار دارد و فقط ۱۵۰ دلار از دست داد که او بر این باور بود پیش‌پرداخت اولیه برای یک بستهٔ انتشار است.

    مردی ایستاده در ورودی با بنر بالای آن نوشته «Melbourne Books» و جلدهای کتاب در سمت چپ نمایش داده شده
    دیوید تنن‌بام، بنیان‌گذار شرکت معتبر Melbourne Books، در دفتر خود در خیابان کولینز، ملبورن.

    وقتی آندریا برای بازیابی ۸۸ دلار از بانک خود تماس گرفت، پیام‌های تهدیدآمیزی دریافت کرد که از او می‌خواست اختلاف را لغو کند وگرنه با اقدام قانونی مواجه می‌شود. «یک پروندهٔ قانونی برای ۸۸ دلار چیز خوشایندی نیست»، Melbourne Book Publisher در یک پیام فیسبوک به او هشدار داد. وقتی او برای تأیید قانونی بودن ناشر، شماره ABN آن‌ها را درخواست کرد، شماره Melbourne Books را برای او ارسال کردند.

    تنن‌بام به‌صورت شخصی با شماره‌ای که در صفحهٔ فیسبوک Melbourne Book Publisher فهرست شده بود تماس گرفت و وانمود کرد نویسندهٔ تازه‌کار است. گزینه‌های انتشاری برایش ایمیل شد که از «طرح پیش‌پرداخت جهانی» به‌ارزش ۱٬۴۹۵ دلار تا «طرح پریمیوم جهانی» به‌ارزش ۱٬۷۹۹ دلار متغیر بود. او اشاره کرد که شخصی که او را به این صفحه راهنمایی کرد، تقریباً ۵٬۰۰۰ دلار پرداخت می‌کرد.

    وقتی او اصالت شرکت را به چالش کشید، لینک‌هایی به سه کتاب در آمازون که Melbourne Book Publisher ادعا می‌کرد منتشر کرده است، برایش ارسال شد. آمازون به گار دیان گفت که «هیچ‌سوابقی یافت نشد که نشان دهد کتاب‌های مورد بحث به Melbourne Book Publisher مرتبط هستند».

    «ما متعهد به حفاظت از صاحبان حقوق و مشتریان‌مان در مقابل افراد مخربی هستیم که سعی در سوءاستفاده از خدمات ما دارند»، آمازون در بیانیه‌ای گفت.

    استفادهٔ روزافزون از هوش مصنوعی به کلاه‌برداری‌های ناشرانه امکان می‌دهد تیم‌های کاملاً ساختگی از مدیران جعلی بسازند و هویت‌های نویسندگان واقعی را به کار گیرند تا چهره‌ای شرکتی به‌شدت فریبنده ایجاد کنند.

    صفحهٔ «آشنایی با تیم» در سایت Melbourne Book Publisher از تصاویری که توسط هوش مصنوعی ساخته شده‌اند، نمایش می‌داد؛ این تصاویر نشان‌دهندهٔ مدیران سفیدپوست با ظاهری بی‌نقص و نام‌های متغیری چون جاناتان هیل، مارکوس الیسون و لیدیا پرستون بود. وقتی گار دیان برای اولین بار صفحهٔ تیم Melbourne Book Publisher را در روز دوشنبه بررسی کرد، مارکوس هیل و هانا پرستون در فهرست نبودند. First Page Press نیز از «تیم» مشابهی استفاده می‌کند که ابتدا همان تصاویر تولیدشده توسط هوش مصنوعی را داشت. هیچ‌یک از افراد نام‌برده‌شده در محافل ناشران استرالیا شناخته‌شده نیستند.

    اسکرین‌شات از تصاویر هوش مصنوعی حذف‌شده تحت بنر «آشنایی با تیم» در سایت Melbourne Book Publisher
    اسکرین‌شات از تصاویر هوش مصنوعی حذف‌شده تحت بنر «آشنایی با تیم» در سایت Melbourne Book Publisher

    «آشنایی با تیم»: پرسنل تولیدشده توسط هوش مصنوعی با دفاتر مجازی

    مقیاس واقعی این طرح همچنان غیرقابل اندازه‌گیری است، به‌گواری صاحب Melbourne Books، دیوید تنن‌بام، چرا که تنها قربانیان شناخته‌شده آن افرادی هستند که زودتر دقت کردند و تحقیق لازم را انجام دادند.

    نویسندگان تازه‌کار هدف‌گیری می‌شوند چرا که هیجان به‌دست آوردن چاپ اثرشان اغلب بر احتیاط غلبه می‌کند و آن‌ها را در برابر وعده‌های انتشار فوری و موفقیت در صنعت حساس می‌سازد.

    خودنشر به این معنی است که نویسنده تمام وظایف ناشرهای کوچک (boutique) را بر عهده می‌گیرد، سرمایهٔ خود را برای سفارش خدمات خلاقانه صرف می‌کند و تمام کنترل هنری و سود مالی را حفظ می‌کند. انتشارات خودپرست مدلی است که در آن یک شرکت از نویسنده، مشارکت مالی قابل‌ملاحظه‌ای جهت کمک به انتشار می‌طلبد، اغلب پشتیبانی خلاقانه‌ای ضعیف ارائه می‌دهد و جمع‌آوری سهم اولیهٔ نویسنده را بر ایجاد فروش گسترده کتاب ترجیح می‌دهد.

    «افراد مخرب به‌وسیلهٔ ابزارهای هوش مصنوعی بسیار پیشرفته‌تر می‌شوند؛ این ابزارها به کلاهبرداران این امکان را می‌دهند که متن را بازنویسی یا پارافرِز کنند و تصاویر را تغییر دهند تا تغییرات جزئی ایجاد کنند که ظاهر اصالت را حفظ می‌کند در حالی‌که از تشخیص جلوگیری می‌کند»، دکتر آشی‌ش ناندا، از مرکز تحقیقات و نوآوری سایبری دانشگاه دییکن، می‌گوید.

    در حالی که تمایلی به بیان قطعی اینکه Melbourne Book Publisher یک کلاهبرداری است یا نه ندارد، لوگوهای مختلف، ادعاهای وب‌سایت مبنی بر تأسیس در سال ۱۹۹۹ که جستجوی دامنه نشان داد تنها در ماه گذشته ثبت شده است، و رتبهٔ جعلی ۴٫۷ ستاره در Trustpilot (شرکت هیچ نظری ندارد) همگی موارد مشکوکی هستند، ناندا می‌گوید.

    تا وقتی آندریا با Melbourne Books تماس گرفت، تنن‌بام پیشاپیش هشدار عمومی‌ای در وب‌سایت شرکت خود منتشر کرده بود. دفتر او بیش از یک هفته تماس‌های مربوط به مارکوس هیل و هانا پرستون دریافت می‌کرد.

    وب‌سایت‌های استفاده از نویسندگان واقعی برای جذب افراد

    عملیات‌های شناخته‌شده به نام‌های Aussie Book Publisher و Oz Book Publishers نظرات جعلی ساخته‌اند که با استفاده از تصاویر و نام‌های نویسندگان واقعی ایجاد شده‌اند.

    عکسی از زنی که با کتابی در دست ایستاده است
    نویسندهٔ کتاب‌های کودک آمریکایی بلیر نی ویلیامسون که در وب‌سایت Aussie Books به نام «Kristine» تغییر نام داده شد

    نویسندهٔ کتاب‌های کودک آمریکایی بلیر نی ویلیامسون در وب‌سایت Aussie Books به «Kristine» تغییر نام یافت و در کنار عکسی که او با دست کتاب تصویری کودکانه‌اش به نام «Birthday Bash» را نگه داشته است، توصیفی دربارهٔ «کتاب رهبری» ارائه کرد؛ نام واقعی او همچنان بر روی جلد کتاب دیده می‌شود.

    «به‌عنوان یک نویسنده، برای ایجاد اعتماد با خوانندگان‌تان سخت کار می‌کنید»، او به گار دیان گفت. «بنابراین دیدن استفاده از نام و تصویر من به‌صورت فریبنده احساس ناآرامی عمیقی می‌داد.»

    نویسندهٔ کتاب‌های کودک استرالیایی کاترینا گرگین در صفحهٔ نظرات وب‌سایت Aussie Books به نام «Sarah» تبدیل می‌شود.

    «من در سردرگمی‌های ناشرانه غرق بودم تا وقتی که Aussie Book Publishing را پیدا کردم»، «Sarah» ساختگی می‌گوید. «ارزش هر یک دلار سرمایه‌گذاری شده را داشت.»

    عکسی از زنی که کتابی را بالا نگه داشته است
    نویسندهٔ کتاب‌های کودک استرالیایی کاترینا گرگین که در صفحهٔ نظرات وب‌سایت Aussie Books به نام «Sarah» نام‌گذاری شده است

    پس از اینکه گار دیان به استفادهٔ غیرمجاز و گمراه‌کننده از تصاویر آن‌ها هشدار داد، هر دو نویسنده در جستجوی پاسخ به اطلاعیه‌های «متوقف کنید و دست‌بردارید» (cease and desist) هستند که به Aussie Books ارسال شده و این شرکت را به Scamwatch گزارش داده‌اند.

    در حالی که نظرات دیگر در وب‌سایت‌های Aussie Book Publisher، Oz Book Publisher و Book Publisher NZ به‌نظر می‌رسد شامل نظرات ساختگی یا تولید‌شده توسط هوش مصنوعی از «نویسندگان راضی» باشد، کتاب‌هایی که این وب‌سایت‌ها ادعا می‌کنند منتشر کرده‌اند، واقعی هستند. بیشتر این کتاب‌ها برای فروش در آمازون فهرست شده‌اند و اکثریت بسیار بزرگ آنها به‌عنوان کتاب‌های خودنشر دسته‌بندی می‌شوند.

    تمامی چهار شرکت مشکوکی که گار دیان بررسی کرد، آدرس‌های فیزیکی در مناطق تجاری معتبر یا سطح‌بالای لندن، ملبورن، بریزبن و ولینگتون فهرست می‌کنند که لایه‌ای دیگر از مشروعیت و حرفه‌ایت ظاهری به عملیاتشان می‌افزاید.

    First Page Press، Aussie Book Publisher، Oz Book Publishers و Book Publisher NZ به درخواست‌های کتبی گار دیان، شامل تقاضای ارائهٔ مدارک قرارداد و/یا صورتحساب‌های حق‌التیرافی که با ISBNهای کتاب‌های تبلیغ‌شده در وب‌سایت‌هایشان مطابقت دارد، پاسخ ندادند.

    Melbourne Book Publisher به استعلام اولیهٔ گار دیان پاسخ داد و اعلام کرد که همواره به‌صورت شفاف به‌عنوان یک شرکت خودنشر فعالیت می‌کند و عذرخواهی رسمی به Melbourne Books و آندریا خواهد کرد. این شرکت گفت که شخصی که تهدیدهای قانونی را مطرح کرده، یک کارمند بوده که دیگر در شرکت مشغول به کار نیست. تا جمعه این شرکت هنوز عذرخواهی نکرده بود.

    بیانیه‌ای درباره Melbourne Book Publisher از ناظر مصرف‌کننده استرالیا (ACCC) می‌گوید: «در حالی که گزارش‌های عمومی محدودی دربارهٔ این وب‌سایت به Scamwatch ارائه شده است، مرکز ملی مبارزه با تقلب در حال بررسی این موضوع است و افراد را که با هرگونه کلاه‌برداری ناشرانه‌ای مواجه می‌شوند، تشویق می‌کند تا به سرویس Scamwatch گزارش دهند.»

    «ما می‌دانیم که کلاه‌برداران سایت‌ها را جعل می‌کنند تا از مصرف‌کنندگان سرقت کنند، از جمله از طریق کلاه‌برداری‌های ناشرانه. هر کسی که به یک کلاه‌برداری ناشرانه پول پرداخت کرده است، باید به Scamwatch گزارش دهد، زیرا این اطلاعات به ما کمک می‌کند تا شبکه‌های کلاه‌برداری را متوقف کنیم.»

    *آندریا مایل نبود نام کامل خود را به دلایل حفظ حریم خصوصی استفاده کند

    آیا اطلاعات بیشتری دارید؟ تماس: kelly.burke@theguardian.com

  • شرکت هوش مصنوعی با ارزش یک میلیارد دلار؛ شریک مؤسس اعتراف می‌کند سرویس رونوشت ماهانهٔ ۱۰۰ دلاری‌اش در ابتدا «دو نفر با پیتزا زنده‌مانده» بود و یادداشت‌ها به‌صورت دستی نوشته می‌شدند

    نوشتهٔ اندی ادسر

    و آن مرد بلندقدی که بلیط فیلم می‌خرید، در حقیقت دو بچه شاداب در یک روپوش بلند بودند.

    تصویری از دو شخصیت بازی Final Fantasy 14 که در حال خوردن پیتزا هستند و بسیار خوشحال به‌نظر می‌رسند

    (منبع تصویر: Square Enix)

    استارتاپ هوش مصنوعی برای یادداشت‌برداری Fireflies در اوائل این سال پس از انتشار برنامهٔ «Talk to Fireflies»، برنامه‌ای همراه برای جلسات هوش مصنوعی، به‌ارزش یک میلیارد دلار ارزش‌گذاری شد. این موفقیت چشمگیر برای شرکتی بود که توسط «دو نفر بی‌پول» آغاز شده بود—به‌ویژه وقتی که یکی از شریکان مؤسس، به‌تازگی، افشا کرد که سرویس رونوشت هوش مصنوعی‌شان در ابتدا با تایپ دستی یادداشت‌ها توسط هر دو مؤسس اجرا می‌شد.

    «ما ماهانه ۱۰۰ دلار بابت هوش مصنوعی‌ای می‌گیریم که در واقع فقط دو نفر با پیتزا زنده‌مانده بودیم»، سام اودوتونگ، شریک مؤسس Firefly، با غرور در یک پست لینکدین این هفته (از طریق Futurism) اعلام کرد.

    «ما به مشتریان‌مان گفتیم که یک هوش مصنوعی در جلسات حضور خواهد داشت»، اودوتونگ گفت. «در واقع فقط من و شریک مؤسسم در جلسه حضور می‌داشتیم، ساکت می‌نشستیم و یادداشت‌ها را به‌دست‌نویس می‌کردیم.»

    «ما به‌صورت دستی با نام «فرد از Fireflies.ai» به جلسه می‌پیوندیم»، اودوتونگ ادامه داد. «ما ساکت می‌نشستیم، یادداشت‌های دقیق می‌نوشتیم و ده دقیقه بعد آن‌ها را ارسال می‌کردیم.»

    به‌کارگیری این روش، به گفتهٔ اودوتونگ، به آن‌ها امکان داد تا درآمدی کافی برای پرداخت اجارهٔ ۷۵۰ دلاری‌شان در «یک اتاق کوچک در سان‌فرانسیسکو» به‌دست آورند؛ این همان نقطه‌ای بود که تصمیم گرفتند «همه چیز را متوقف کرده و خودکارسازی کنند.»

    یک مرد و ربات انسان‌نما که روبروی یکدیگر پشت کامپیوترها کار می‌کنند — تصویر استوک
    (منبع تصویر: Malte Mueller از Getty Images)

    یا همان‌طور که می‌دانید، سرویس هوش مصنوعی‌ای را که به مشتریانشان وعده داده بودند، فراهم می‌کنند. و با این‌که وسوسه‌انگیز است موفقیت دو جوان امیدوار را که برای به‌کارگیری اصل «ظاهرِ موفقیت تا وقتی که واقعاً موفق می‌شوید» تا حد افراطی می‌کوشند تشویق کنیم، اما مرور نظرات نشان می‌دهد که این طرح می‌تواند مخاطرات جدی به همراه داشته باشد.

    «حضور بدون دعوت در جلسهٔ دیگران نقض حریم خصوصی است. آن‌ها رباتی در جلسه می‌خواستند، نه شخصی غیردعوت‌شده»، گفت عمر افتاب، کارشناس اتوماسیون. «به این ترتیب اعتماد را خراب می‌کنید و ممکن است با پیامدهای قانونی مواجه شوید.»

    «موفق باشید در تمام دعاوی قضایی»، دیگری افزوده شد. «این ممکن است شبیه داستان پر از مبارزات و تلاش یک مؤسس سخت‌کوش باشد»، مهندس نرم‌افزار ماریوسو ای‌دارراگا گفت. «اما در واقع یکی از پرریسک‌ترین و کم‌حساس‌ترین پست‌هایی است که اخیراً دیدم.»

    در حالی که پست اودوتونگ به‌تدریج در سراسر اینترنت به‌دقت گزارش می‌شود، نمی‌توانم تصور کنم که طولانی باشد تا یکی از مشتریان اولیهٔ Fireflies از این فریب‌نمایی آشکار آگاه شود؛ و شک ندارم که خوشحال خواهند شد. با این حال، برخی از کامنت‌گذاران لینکدین به‌نظر می‌رسد اشکال کمی در شیوه‌های تجاری مبهم اولیهٔ Fireflies می‌بینند.

    «داستان بسیار الهام‌بخش»، یک شریک مؤسس دیگر و مدیرعامل می‌گوید. «دشمنان همیشه خواهند دشمنی کرد. و اکثر دیگران نمی‌دانند چه مقدار تلاش برای ساختن از صفر تا یک، در حالی که سعی در بقا به عنوان انسان دارید، نیاز است. در نهایت، پافشاری شما به‌طرز چشمگیری به‌ثمر نشست—و شما جهان را تغییر دادید.»

    همه‌چند، در مورد این حرف چندان مطمئن نیستم. با این حال، حداقل توانسته است باعث گفتگو شد. آیا واقعاً تبلیغات بد وجود ندارد؟ به‌نظر می‌رسد باید صبر کرد و دید که چه می‌شود.