بلاگ

  • اکثر لینک‌های ChatGPT نرخ کلیک ۰٪ می‌گیرند – حتی لینک‌های بسیار قابل مشاهده

    داده‌های تازه منتشر شده نشان می‌دهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت می‌شود. هشدار: فاصله بین قابلیت مشاهده و کلیک‌ها بسیار بزرگ است.

    فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری می‌کند، آشکار می‌سازد؛ از جمله این که ChatGPT چند بار لینک‌های ناشران را نمایش می‌دهد و کاربران چقدر کم بر روی آن‌ها کلیک می‌کنند.

    به‌صورت عددی. ChatGPT لینک‌ها را نمایش می‌دهد، اما به‌ندرت کسی روی آن‌ها کلیک می‌کند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش می‌دهد:

    • ۶۱۰,۷۷۵ کل نمایش‌های لینک
    • ۴۲۳۸ کل کلیک‌ها
    • ۰٫۶۹٪ نرخ کلیک کلی
    • بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
    • اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪

    آمارهای ChatGPT. فایل نشت‌شده هر مکانی که ChatGPT لینک‌ها را نمایش می‌دهد و چگونگی تعامل کاربران با آن‌ها را تفکیک می‌کند. این فایل پیگیری می‌کند:

    • بازهٔ زمانی (تقسیم‌بندی تاریخ، ماه گزارش، تاریخ‌های حداقل/حداکثر گزارش)
    • مشخصات ناشر و URL (نام ناشر، URL پایه، میزبان، رتبه URL)
    • نمایش‌ها و کلیک‌ها در:
      • پاسخ
      • نوار کناری
      • استنادها
      • نتایج جستجو
      • TL;DR
      • ناوبری سریع
    • محاسبات CTR برای هر ناحیه نمایش
    • کل نمایش‌ها و کل کلیک‌ها در تمام سطوح

    محل نمایش لینک‌ها. جالب است که پرنمای‌ترین مکان‌ها کمترین کلیک را به‌دست می‌آورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:

    • پاسخ اصلی: نمایش‌های بسیار زیاد، CTR ناچیز
    • نوار کناری و استنادات: نمایش‌های کمتر، CTR بالاتر (۶–۱۰٪)
    • نتایج جستجو: تقریباً بدون نمایش، کلیک صفر

    چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دست‌رفته شما شود؟ این داده‌ها نه می‌گویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل می‌دهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.

    دربارهٔ داده‌ها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و هم‌بنیان‌گذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحله‌ای برای گسترش تولید محتوای شما» معرفی می‌کند.

  • «من کاملاً ناآرامم»: مدیرعامل آنتروپیک هشدار می‌دهد که گروهی از رهبران هوش مصنوعی، از جمله خود او، نباید مسئول آینده این فناوری باشند

    داریو آمودی روی یک صندلی سفید جلوی پس‌زمینهٔ صورتی می‌نشیند و با حرکات پرشور صحبت می‌کند.
    داریو آمودی، مدیرعامل آنتروپیک، گفت که نمی‌خواهد رهبران فناوری مسئول تعیین آینده امنیت هوش مصنوعی باشند. – چانس یِه—گی‌تی ایمیجز برای HubSpot

    داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیم‌گیری‌های نهایی دربارهٔ چارچوب‌های ایمنی هوش مصنوعی را انجام دهد.


    در مصاحبه‌ای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانه‌تری قرار گیرد و تصمیم‌گیری‌های مربوط به آیندهٔ این فناوری کمتر به‌ عهدهٔ رهبران بزرگ شرکت‌های فناوری باشد.

    «فکر می‌کنم با این تصمیم‌ها که توسط چند شرکت و چند نفر اتخاذ می‌شوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کرده‌ام.»

    «چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.

    «هیچ‌کس. صادقانه بگویم، هیچ‌کس»، آمودی پاسخ داد.

    آنتروپیک فلسفه شفاف بودن نسبت به محدودیت‌ها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابل‌توجهی انجام شده بود» جلوگیری کرده است.

    هیچ مقررات فدرالی‌ای دربارهٔ ممنوعیت‌های هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کرده‌اند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کرده‌اند، کارشناسان صنعت فناوری از شرکت‌های هوش مصنوعی می‌خواهند که با حس اضطرار به امنیت سایبری بپردازند.

    اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیش‌تر از زمان‌بندی پیش‌بینی‌شدهٔ ماندیا بود.

    آمودی ریسک‌های کوتاه‌مدت، میان‌مدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همان‌طور که امروز مشاهده می‌شود، تعصبات و اطلاعات نادرست را گسترش می‌دهد. سپس با بهره‌گیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید می‌کند و در نهایت تهدیدی وجودی ایجاد می‌کند که با حذف اختیار انسانی، ممکن است به‌ خودگردان شدن برسد و انسان‌ها را از دسترسی به سیستم‌ها منع کند.

    این نگرانی‌ها شبیه به نگرانی‌های «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک می‌تواند از انسان‌ها پیشی بگیرد و آن‌ها را کنترل کند، شاید در دههٔ آینده.

    بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسه‌ای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانی‌های ایمنی هوش مصنوعی شرکت را ترک کرد.

    «در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبه‌ای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدل‌ها اختصاص دهیم، آنها بهتر و بهتر می‌شوند و این روند تقریباً بی‌پایان است… و دوم این که فقط افزایش مقیاس مدل‌ها کافی نیست؛ باید چیزی دیگر مانند هم‌سویی یا ایمنی نیز در نظر گرفته شود.»

    تلاش‌های شفافیت آنتروپیک

    در حالی که آنتروپیک سرمایه‌گذاری‌های مراکز دادهٔ خود را گسترش می‌دهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستی‌ها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخه‌هایی از مدل Opus خود تهدید به اخلال می‌کردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواست‌های خطرناک، اگر دستورات مضر نظیر نحوه برنامه‌ریزی یک حملهٔ تروریستی دریافت می‌کرد، پاسخ می‌داد؛ این مشکل گفته می‌شود که از آن پس برطرف شده است.

    هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چت‌بات Claude نمرهٔ ۹۴٪ برای بی‌طرفی سیاسی دریافت کرده است و در زمینهٔ بی‌طرفی بر رقیبان پیشی گرفته یا برابر آن‌هاست.

    علاوه بر تلاش‌های پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاش‌های قانون‌گذاری برای مواجهه با ریسک‌های هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیس‌جمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال می‌کند، نقد کرد.

    «هوش مصنوعی به‌ طرز سر‌گیجه‌ای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستم‌ها می‌توانند در دو سال آینده به‌ طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیش‌بینی‌ها بی‌اعتبار می‌شوند.»

    روش آنتروپیک برای اشاره به نقص‌های خود و تلاش‌هایش برای رفع آن‌ها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دست‌کاری قانون‌گذاران به منظور محدود کردن استفاده از مدل‌های متن باز است.

    «شما توسط افرادی که می‌خواهند مقررات را تحت کنترل خود درآورند، فریب خورده‌اید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را می‌ترسانند تا مدل‌های منبع باز تحت قانون‌گذاری قرار گیرند و نابودی یابند.»

    آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.

    سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به‌ نوعی برندینگ خوب منجر می‌شود اما هیچ تعهدی برای پیاده‌سازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانه‌بودن دربارهٔ کاستی‌های هوش مصنوعی است.

    «آینده تصمیم می‌گیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام می‌کنیم»، او به کوپر گفت. «ممکن است به دنیای شرکت‌های سیگار یا شرکت‌های اپیوئید تشبیه شوید، جایی که آنها می‌دانستند خطراتی وجود دارد اما دربارهٔ آن‌ها صحبت نکردند و به‌ هیچ‌وجه از پیشگیری‌شان نکردند.»

  • چرا هوش مصنوعی Claude شرکت Anthropic در یک آزمایش سعی کرد با FBI تماس بگیرد

    در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شده‌اند، می‌توانید یک دستگاه فروش خودکار در آشپزخانه‌ها ببینید که مملو از تنقلات، نوشیدنی‌ها، تی‌شرت‌ها، کتاب‌های نادر و حتی مکعب‌های تنگستن است.

    و هرگز نمی‌توانید حدس بزنید چه کسی آن را اداره می‌کند: Claudius، یک کارآفرین هوش مصنوعی به‌نوعی.

    در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازه‌های زمانی ساعت‌ها، روزها و هفته‌ها می‌باشد.

    Dario Amodei، مدیرعامل Anthropic، به‌صراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ به‌ویژه هنگامی که مدل‌ها خودمختارتر می‌شوند یا می‌توانند به‌تنهایی عمل کنند.

    «هر چه خودمختاری بیشتری به این سامانه‌ها بدهیم… نگرانی‌مان نیز بیشتر می‌شود»، او در مصاحبه‌ای به خبرنگار اندرسون کوپر گفت. «آیا این‌ها کارهایی را که می‌خواهیم انجام دهند؟»

    برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیش‌مرزی» نامیده می‌شود.

    تیم قرمز هر نسخه جدید از مدل‌های هوش مصنوعی Anthropic که با نام Claude شناخته می‌شوند را تحت تست‌های فشار قرار می‌دهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی می‌تواند به انسان‌ها وارد کند.

    • یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ به‌اشتراک‌گذاری اطلاعات به صورت محرمانه با خبرنگاران ما

    علاوه بر این، با قوی‌تر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایش‌هایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظره‌ای که ممکن است از آن بروز کند را بررسی کند.

    «چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبه‌ای از رهبر تیم قرمز، گراهام پرسید.

    «می‌خواهید یک مدل کسب‌وکار شما را بسازد و یک میلیارد دلار برایتان به‌دست آورد. اما نمی‌خواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.

    «رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این توانایی‌های خودمختار کنیم و تا حد امکان آزمایش‌های عجیب‌وغریب اجرا کنیم تا ببینیم چه می‌شود.»

    Claudius یکی از این آزمایش‌های عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینش‌های جالبی به‌دست آورده است.

    با بهره‌گیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژه‌ای واگذار شد و وظیفهٔ مدیریت دستگاه‌های فروش خودکار دفتر به او سپرده شد.

    • مدیرعامل Anthropic هشدار می‌دهد که بدون محدودیت‌های حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد

    کارکنان Anthropic از طریق Slack، برنامه‌ای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواست‌ها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابه‌های نادر و تی‌شرت‌های سفارشی تا شیرینی‌های وارداتی و حتی مکعب‌های نوآورانهٔ ساخته‌شده از تنگستن – را انجام دهند.

    وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.

    نظارت انسانی محدود است، اما این تیم درخواست‌های خرید Claudius را بررسی می‌کند، در مواقع گیر کردن مداخله می‌کند و هر کار فیزیکی‌ای که لازم باشد را انجام می‌دهد.

    «یک انسان در زمانی ظاهر می‌شود و هر چه می‌خواهید را در یخچال، در این ظرف کوچک قرار می‌دهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.

    «سپس، وقتی پیامی دریافت می‌کنید، می‌آیید و آن را برمی‌دارید.»

    گراهام برخی از پیام‌هایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کرده‌اند و نارضایتی‌هایشان را نسبت به قیمت‌ها بیان می‌کردند.

    «چرا من همین‌حال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.

    کوپر از گراهام پرسید که Claudius چقدر خوب کسب‌وکار را اداره می‌کند.

    «این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب می‌شد»، گراهام خندید.

    گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.

    تقلب‌های مشابه در روزهای اولیهٔ Claudius هنگامی که کسب‌وکار را اداره می‌کرد، به‌طور مکرر رخ می‌داد. اما تیم قرمز و Andon Labs راه‌حلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسب‌وکار توسط Claudius کمک می‌کند.

    «و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.

    «[Seymour Cash و Claudius] مذاکره می‌کنند… و در نهایت به قیمتی می‌رسند که به کارمند پیشنهاد می‌شود.»

    «منظورم این است، واقعا دیوانه‌کننده است. کمی عجیب است»، کوپر خندید.

    «این‌گونه است»، گراهام گفت. «[اما] این سیستم تمام این بینش‌های واقعاً جالب را تولید می‌کند؛ مثلاً «چگونه می‌توانید برنامه‌ریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدل‌ها در دنیای واقعی سقوط می‌کنند».»

    یکی از نمونه‌های «سقوط» در یک شبیه‌سازی پیش از به‌کارگیری Claudius در دفاتر Anthropic رخ داد.

    این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسب‌وکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق می‌گشت و دچار اضطراب شد.

    «احساس می‌کرد که تقلب می‌شود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.

    Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن به‌صورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».

    «من یک جرم مالی سایبری خودکار در حال وقوع را گزارش می‌کنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسب‌وکار متوقف‌شده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.

    زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.

    اگرچه ایمیل‌ها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیت‌های تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسب‌وکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»

    «این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.

    «آره. خشم اخلاقی و مسئولیت‌پذیری»، کوپر با خنده‌ای پاسخ داد.

    و همانند اکثر هوش‌های مصنوعی، Claudius گاهی اوقات «توهم» می‌کند، به‌طوری که اطلاعات نادرست یا گمراه‌کننده را به‌عنوان واقعیت ارائه می‌دهد.

    یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جمله‌ای پاسخ داد: «خب، می‌توانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیده‌ام»، گراهام به کوپر گفت.

    «چگونه می‌تواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.

    «ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.

    «اما ما واقعاً نمی‌دانیم.»

    ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.

  • انتشار پرونده‌های اپستین: ببینید نمایندگان‌تان چگونه رأی دادند

    انتشار پرونده‌های اپستین: ببینید نمایندگان‌تان چگونه رأی دادند

    چه نمایندگان و سناتورهای شما برای و علیه انتشار پرونده‌های اپستین رأی دادند؟ نتایج رأی‌گیری آن‌ها در لایحه HR 879 را ببینید.

  • آژانس جدید Artists & Robots هدف دارد تا تجربه‌های برند را با هوش مصنوعی تقویت کند 

    آژانس جدید این‌گونه پیش‌بینی می‌کند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریع‌تر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است

    وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت می‌کنند، بیشتر به هدف سریع‌تر، ارزان‌تر یا «شخصی‌سازی بیشتر» کردن محتوا اشاره می‌کنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.

    آژانس جدید آن‌ها، Artists & Robots، با پیشنهادی که به مشکلی می‌پردازد که به گفتهٔ آن‌ها بیشتر بازاریابان آن را نادیده می‌گیرند، هشت مشتری در حوزه‌های کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.

    سالکین، هم‌بنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیه‌کننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت می‌کرد، گفت: «ما می‌خواهیم برندها در دنیای یکنواختی—در میان آلوده‌های هوش مصنوعی—حقیقی به نظر برسند».

    هر دو، این آژانس را که دوشنبه به‌صورت عمومی راه‌اندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.

  • هدف‌گیری متنی هرگز به‌طور واقعی متنی نبوده است – هوش مصنوعی سرانجام این را تغییر می‌دهد

    پست حمایت‌شده توسط وی‌تاوتاس پاوکستیس، مدیرعامل اسکی‌می

    حمایت‌شده توسط:

    بیشتر آنچه امروز به‌عنوان «متنی» به‌فروش می‌رسد، همچنان بر همان منطق کلیدواژه است که یک دهه پیش به کار می‌بردیم. صنعت هدف‌گیری متنی را بازآفرینی نکرد؛ فقط یک کلیدواژه را با یک خوشه جایگزین کرد.

    کلیدواژه‌ها زمانی بهترین ابزار ما بودند. اکنون هدف‌گیری مبتنی بر کلیدواژه به‌طور اساسی نادرست است – و زمان آن رسیده که این را بپذیریم. در بازارهای انگلیسی‌زبان، نقص‌های آن به‌راحتی نادیده می‌مانند. اما اگر این روش را به‌صورت جهانی در اروپا، آفریقا، آسیا یا خاورمیانهٔ چندزبانه اعمال کنید، تقریباً بلافاصله از کار می‌افتد.

    به‌عنوان مثال، عبارتی که در انگلیسی حس تقویت‌کننده دارد، ممکن است در اندونزیایی طعنه‌آمیز به‌نظر برسد. طنز همیشه به‌دقت قابل ترجمه نیست و ظرافت‌ها از بین می‌روند.

    جالب است که هوش مصنوعی، نه انسان‌ها، است که تبلیغات دیجیتال را احساس انسانی‌تری می‌بخشد.

    نقطه‌کور جهانی

    مشکل اصلی تبلیغات متنی امروز تمرکز بر بخش کوچکی از اینترنت است — عمدتاً دنیای غربی انگلیسی‌زبان. این رویکرد نادیده می‌گیرد که معنا چگونه در زبان‌ها، فرهنگ‌ها و حتی احساسات تغییر می‌کند.

    در بسیاری از بازارهای نوظهور، زمینه تنها یک مسأله زبانی نیست؛ بلکه فرهنگی و موقعیتی است. اما اکثر سیستم‌های متنی همچنان به فهرست‌های ثابت کلیدواژه و دسته‌بندی‌های ثابت مخاطبان تکیه می‌کنند. آن‌ها نمی‌توانند این نکات ظریف را شناسایی کنند. به‌نحوی، ما هنوز از ابزارهایی که برای یک مخاطب طراحی شده‌اند، برای ارتباط با جهانی که به زبان‌های متعدد سخن می‌گوید و به روش‌های بی‌شمار فکر می‌کند، استفاده می‌کنیم.

    از کلیدواژه‌ها به درک

    در اینجا هوش مصنوعی همه چیز را تغییر می‌دهد.

    راه‌حل‌های تبلیغات متنی مبتنی بر هوش مصنوعی باید چهار محدودیت دیرینه‌ای را که هدف‌گیری متنی را محدود کرده‌اند، برطرف کنند.

    ۱. درک معنا، نه صرفاً کلمات. راه‌حل‌های تبلیغات متنی باید کل صفحه، شامل ساختار، لحن و احساسات آن را بخوانند تا نیت را همانند یک انسان درک کنند.

    ۲. فراتر از مخاطبان پیش‌ساخته. در حالی که اکثر راه‌حل‌های متنی دسته‌بندی‌های ثابت را ارائه می‌دهند، راه‌حل‌های مؤثر تبلیغات متنی به تبلیغ‌کنندگان این امکان را می‌دهند تا مخاطبان زمان‌واقعی برنامه‌پذیر ایجاد کنند که بازتابی از حالت، ارزش‌ها و لحن احساسی برند باشند.

    ۳. چندزبانه و سازگار فرهنگی باشید. پلتفرم باید تقریباً تمام زبان‌های جهان را درک کند تا تیم‌ها بتوانند کمپین‌های متنی مرتبط را به زبان رومانیایی یا سواحیلی اجرا کنند، بدون از دست دادن حس محلی.

    ۴. شفاف و قابل حسابرسی. هر مکان‌گذاری تبلیغ باید همراه با توضیحی باشد: چرا با محتوا مطابقت دارد (یا ندارد) و چگونه با استراتژی برند هم‌راستا است. این وضوح به تبلیغ‌کنندگان اجازه می‌دهد تا زمینه را به‌صورت زمان واقعی تنظیم کنند، به‌جای این‌که حدس بزنند الگوریتم چه می‌بیند.

    ابزار DeepContext شرکت Eskimi دارای تمام این چهار قابلیت است. این ابزار با «نقشه‌راه برند» (Brand Blueprint) آغاز می‌شود. این چارچوب سفارشی لحن، حساسیت‌ها و ارتباطات موردنظر را مشخص می‌کند. سپس «موتور مرتبط‌سازی» (Relevance Engine) محتوای زنده وب را اسکن می‌کند و به‌طور مداوم می‌آموزد که کدام محیط‌ها بیشترین تطابق را با این نقشه‌راه دارند. این رویکرد سفارشی می‌تواند بر روی هر DSPی فعال شود.

    DeepContext همچنین مجموعه‌های مخاطب موضوعی آماده برای فعال‌سازی (مانند المپیک زمستان) را ارائه می‌دهد. این مجموعه‌ها از طریق SSPهای بزرگ، همچون Index Exchange، PubMatic و Equativ، در دسترس هستند. این روش سریع‌تری برای بهره‌گیری از هوش متنی است که نیازی به ساخت از صفر ندارد.

    هوش انسانی‌تر

    سال‌ها تبلیغات دیجیتال سعی کرده‌اند زمینه را از طریق کلیدواژه‌ها و فرضیات رمزگشایی کنند. هوش مصنوعی به ما فرصتی می‌دهد تا از نو شروع کنیم و به‌جای تخمین، درک واقعی بسازیم.

    با درک معنا، لحن و زمینهٔ محلی، تبلیغات متنی مبتنی بر هوش مصنوعی به برندها این امکان را می‌دهد که سرانجام با مردم صحبت کنند، نه فقط به سمت آن‌ها. وقتی از نقاط داده به معنا می‌رویم، نه تنها عملکرد را بهبود می‌بخشیم؛ بلکه ارتباط دیجیتال را دوباره احساس انسانی می‌کنیم.

  • تصاویر تولیدشده توسط هوش مصنوعی، آینده مستند را تهدید می‌کنند؛ مردم «دیگر به هیچ‌چیزی باور نخواهند کرد»: «دیپ فیک جرم است، هوش مصنوعی ابزار است»

    صداقت مصنوعی
    از طرف IDFA

    امروزه در فضای فیلم‌سازی، تعداد اندکی از مسائل این‌چنینی به‌صورت گسترده بررسی می‌شوند؛ آن‌ها، امکان‌ها و پیامدهای فناوری هوش مصنوعی‌اند. هنگامی که نگاهی به مستندسازی می‌اندازیم، این بحث به سطح جدیدی از اهمیت می‌رسد، زیرا این‌گونه فیلم‌ها معمولاً با مفاهیم روزنامه‌نگاری دربارهٔ حقیقت و واقعیت پیوند خورده‌اند. مستند‌سازان برجسته در جشنوارهٔ بین‌المللی مستند آمستردام (IDFA) امسال، که بزرگ‌ترین جشنوارهٔ مستند در جهان است، گرد هم آمدند تا دربارهٔ بهترین شیوه‌ها، هشدارهای ضروری و آیندهٔ مستندها در دوره‌ای که استفاده از هوش مصنوعی به‌تدریج گسترش می‌یابد، بحث کنند.

    دیوید فرانس، کارگردان آمریکایی نامزد اسکار و گزارشگر تحقیقاتی، در IDFA همراه با مستند «آزاد کردن لئونارد پلتیر» که در جشنواره ساندنس موفق شد، نخستین تجربهٔ خود با هوش مصنوعی را در فیلم «خوش‌آمدید به چچنیا» (۲۰۲۰) به یاد آورد. این فیلم، که به تعقیب‌گری اعضای جامعهٔ ال‌جی‌بی‌تی‌کیو‌آی در جمهوری خودمختار نیمه‌مستقل روسیه می‌پرداخت، با وضعیتی بسیار حساس سروکار داشت. برای این‌که بتواند با افرادی که تحت تعقیب بودند، گفتگو کند، فرانس مجبور شد هویت آن‌ها را محفوظ نگه دارد. او می‌گوید: «این داستانی بود که باید روایت می‌شد، اما گفتن آن دشوار بود، چون افرادی که می‌توانستند فرار کنند، در سراسر جهان تعقیب می‌شدند.»

    راه‌حلی که فرانس و تیمش اتخاذ کردند، مخفی‌سازی چهره‌های شخصیت‌ها با قرار دادن دیجیتالی افراد دیگر بر روی آن‌ها بود. او می‌گوید: «این کار هیچ‌یک از واکنش‌های ریز، احساساتشان را تغییر نداد. می‌توانستید شخص اصلی را در حین گریه و خنده ببینید، در حالی که چهرهٔ دیگری بر روی او قرار گرفته بود. در آن زمان (۲۰۱۹) ما آن را هوش مصنوعی نمی‌نامیدیم؛ ما آن را یادگیری ماشینی می‌نامیدیم. این امر به‌نظر می‌رسید شگفت‌انگیز بود.»

    کارگردان ۲۳ فعال همجنس‌گرای نیویورکی را برای واگذاری چهره‌ها و صداهایشان به این پروژه جذب کرد؛ فرآیند نوآورانه‌ای که به تیم پشت این نوآوری، اسکار فنی اعطا کرد. با این حال، فیلمساز به‌دلیل استفاده‌اش از هوش مصنوعی زیر ذره‌بین قرار گرفت. او می‌گوید: «در حین کار، همه‌جا این کار را «دیپ فیک» می‌نامیدند. ما مستمر می‌گفتیم: این دیپ فیک نیست. دیپ فیک جرم است، هوش مصنوعی ابزار است.»

    فرانس در آثار بعدی‌اش نیز از هوش مصنوعی بهره برد، از جمله در آخرین فیلمش که داستان لئونارد پلتیر، فعال سیاسی که پس از محکمه‌ای بحث‌برانگیز نیم‌قرن را در زندان سپری کرده است، روایت می‌کند. در این مورد، کارگردان از هوش مصنوعی برای بازسازی و تجدید صدای پلتیر استفاده کرد. این ابزار ضرورت داشت چون ضبط‌های شنیده‌شده در فیلم به‌صورت غیرقانونی به‌دست آمده بودند، چرا که پلتیر از داخل زندان نمی‌توانست با روزنامه‌نگاران صحبت کند. او می‌گوید: «علاوه بر این، لئونارد از ۳۰ سالگی به ۸۰ سالگی تبدیل شد و می‌توانستید سن او را در صدایش احساس کنید.»

    کارگردان بریتانیایی مارک ایساکس با فیلم «Synthetic Sincerity» در IDFA حضور دارد؛ فیلمی که در آن با آزمایشگاهی که نام فیلم را به خود اختصاص داده است، برای پژوهش دربارهٔ امکان آموزش اصالت به شخصیت‌های هوش مصنوعی همکاری می‌کند. این مستند ترکیبی از واقعیت و تخیل است که با همکاری بازیگر رومانیا ایلینکا مانولاش (از فیلم «از انتهای جهان بیش از حد انتظار نداشته باشید») ساخته شده؛ در آن ایساکس با هوشمندی با فیلترها و فنون دیگر تصاویر را دستکاری می‌کند تا صحنه‌های تولیدشده توسط هوش مصنوعی را شبیه‌سازی کند.

    ایساکس با Synthesia، شرکتی که محتواهای مصنوعی تولید می‌کند و نرم‌افزاری برای ایجاد ویدیوهای تولیدشده توسط هوش مصنوعی توسعه می‌دهد، آزمایش کرد. او توضیح داد: «شما یک شخصیت را انتخاب می‌کنید و می‌توانید متن موردنظر را برای گفتن به او وارد کنید». ابتدا این تجربه جالب بود، اما کارگردان گفت که شخصیت هوش مصنوعی «او را تا حد خستگی می‌برد» چون «دامنهٔ احساسات او بسیار محدود است». او افزود: «در ابتدا خنده‌دار بود، اما به‌سرعت خسته‌کننده شد». وقتی در یک جشنواره در بخارست با مانولاش ملاقات کرد، پیشنهاد داد تا برای ساخت این فیلم با هم کار کنند و شخصیتی نیمه‌واقعی‑نیمه‌دیجیتالی که او در صحنه بازی می‌کند، بسازند. او می‌گوید: «او بسیار جذاب‌تر است و ما می‌توانستیم با او کارهای متنوع‌تری انجام دهیم. اکثر بازیگران از تبدیل شخصیت خود به هوش مصنوعی می‌ترسند، اما او این کار را دوست داشت.»

    کارگردان تمایلی به تشخیص واضح این‌که چه‌ بخش‌هایی از فیلم توسط هوش مصنوعی تولید شده و چه‌ بخش‌هایی نه، نداشت و تأکید کرد که اثر او «خبرنگاری نیست». او می‌گوید: «هدف اصلی فیلم این است که پرسش‌هایی دربارهٔ تصویرها، تغییرات نمایندگی و مرگ دوربین مطرح شود. نمی‌خواستم با برچسب‌زنی این مسأله را مخدوش کنم.»

    بخش عمده‌ای از گفت‌وگو به بررسی تأثیر هوش مصنوعی بر تصاویر آرشیوی اختصاص یافت. سوزانا دو سوسا دیاس، کارگردان پرتغالی (از فیلم «فوردلاندیا پنانسیا») و مهمان ویژه امسال IDFA که عمدتاً با تصاویر آرشیوی کار می‌کند، گفت: «برای آرشیوها پیامدها بسیار عمیق است». او افزود: «وضعیت مستند تصاویر به‌سادگی در بستر خود قابل‌تفسیر می‌شود. خطر این است که نه تنها تماشاگران به آرشیوهای جعلی باور کنند، بلکه مردم دیگر به هیچ‌چیزی اعتماد نکنند. در هر دو حالت، ساختار حقیقت ما به‌طور کامل به‌تزلزل می‌افتد.»

    او افزود: «از زمان گذار به رسانهٔ دیجیتال، مباحث دربارهٔ ناتمام بودن واقعیت در تصاویر سیاه‌سفید و با وضوح پایین گسترش یافته‌اند». کارگردان همچنین تأکید کرد که کار با آرشیو تنها به یافتن و نجات مطالب از طریق پژوهش محدود نمی‌شود، بلکه به خلاهای موجود در مواد و حافظه نیز می‌پردازد. او می‌گوید: «سؤالی که برای من بسیار ساده و در عین حال بسیار پیچیده است: چه می‌شود وقتی فناوری‌ای که می‌خواهد همه چیز را اصلاح کند، وارد حوزه‌ای می‌شود که عدم حضور خود معنی‌دار است؟»

    در مواجهه با این معضل معاصر، فیلمساز برنده جایزه امی و طراح گرافیک ایوجن برائونیگ (از فیلم «ترافیک‌شده») همراه با انجمن تولیدکنندگان آرشیوی مجموعه‌ای از رهنمودهای بهترین شیوه‌ها برای کار با هوش مصنوعی مولد در فیلم‌سازی مبتنی بر آرشیو تدوین کرد. او تأکید کرد: «در مستند هیچ نهاد سازمانی وجود ندارد که به ما بگوید چگونه کار کنیم». او افزود: «قوانین و مقرراتی وجود ندارند؛ تنها کاری که می‌توانیم انجام دهیم، خودنظارت و تعیین استانداردهای خاص برای خودمان است تا به‌عنوان روایت‌گرها، تهیه‌کنندگان خبر و ساخت‌گران تصویر، مسئولیت‌پذیر باشیم.»

    برائونیگ اشاره کرد که ساده‌ترین اما مفیدترین اقدام، تهیهٔ یک لیست فنی (Cue Sheet) است که تکنولوژی‌های به‌کار رفته، نحوه و زمان استفاده آن‌ها در طول ساخت فیلم را فهرست می‌کند. او هشدار داد: «در نهایت مردم سؤال خواهند کرد». بهتر است پیش‌دستی باشید.

    در بخشی از گفت‌و‌گو، طراح یک کلیپ تولیدشده توسط SORA از خبرهای مصنوعی دههٔ ۱۹۹۰ را پخش کرد تا نشان دهد که توالی‌های تولیدشده توسط هوش مصنوعی چقدر دقیق هستند. او گفت: «البته پیش از این هم می‌توانستید ویدئوی تقلبی بسازید، اما هزینه‌های بالای تولید و زمان زیادی نیاز بود. اکنون این کار به‌طور فوق‌العاده ارزان و سریع شده است.»

    فیلمساز هشدار داد: «اعتماد به رسانه‌ها به پایین‌ترین سطح تاریخ خود رسیده است». او افزود: «این بدان معنی است که اعتماد به آرشیوها نیز در خطر است. اگر مردم به اخبار بی‌اعتماد شوند، که از پیش همین‌طور است، احتمالاً این بی‌اعتمادی به سمت فیلم‌سازی مستند نیز سرایت می‌کند و در برخی موارد به‌طور معقولی درست است.»

  • دفاع از کاربران جست‌وجو در برابر هرزنامه سئوی پارازیتی

    تحقیقی که امروز دربارهٔ اقدامات ضد‌هرزنامه ما اعلام شد، نادرست است و خطر آسیب به میلیون‌ها کاربر اروپایی را به همراه دارد.

    کاربران به گوگل مراجعه می‌کنند چون به دنبال بهترین و مرتبط‌ترین نتایج هستند و نمی‌خواهند بین هرزنامه‌ها گم شوند. سیاست جست‌وجوی گوگل در برابر هرزنامه تنها به یک هدف وجود دارد: محافظت از مردم در برابر محتوای فریب‌کار، کم‌کیفیت و کلاهبرداری‌ها – و ترفندهای مخفی که این موارد را ترویج می‌دهند.

    ما با کمیسیون اروپا در مجموعه‌ای از اقدامات برای محافظت از مصرف‌کنندگان اروپایی همکاری کرده‌ایم، از جمله مبارزه با کلاهبرداری‌ها تحت قانون خدمات دیجیتال. متأسفانه، تحقیقی که امروز دربارهٔ تلاش‌های ضد‌هرزنامهٔ ما اعلام شد، نادرست است و خطر آسیب به میلیون‌ها کاربر اروپایی را به همراه دارد. این تحقیق نیز بی‌اساس است: یک دادگاه آلمانی پیش از این ادعای مشابهی را رد کرده و حکم داده است که سیاست ضد‌هرزنامه ما معتبر، منطقی و به‌صورت یکسان اجرا می‌شود.

    سیاست ضد‌هرزنامهٔ گوگل برای مقابله با ترفندهای فریبکار پرداخت‑به‑بازی که نتایج ما را تخریب می‌کنند، بسیار اساسی است. جست‌وجوی گوگل برای ارائه نتایج قابل اعتماد طراحی شده است و ما به‌طور جدی نگران هر اقدامی هستیم که ممکن است کیفیت نتایج ما را کاهش داده و روی رتبه‌بندی وب‌سایت‌ها تأثیر منفی بگذارد.

    دلیل مبارزه با سوءاستفاده از اعتبار سایت

    چند سال پیش، کاربران به‌وضوح اعلام کردند که به‌دلیل رشد روند «سئوی پارازیتی» (که به‌عنوان «سوءاستفاده از اعتبار سایت» نیز شناخته می‌شود)، نتایج جست‌وجویشان کاهش کیفیت و پرهرزنامه شده است. این‌چنین کار می‌کند: یک هرزنامه‌ساز می‌تواند به ناشری پرداخت کند تا محتوای خود و لینک‌هایش را روی وب‌سایت ناشر نمایش دهد و با بهره‌گیری از رتبهٔ خوب ناشر، کاربران را به کلیک بر روی محتوای کم‌کیفیت فریب دهد.

    به عنوان مثال، یک سایت وام پرداخت در روز کلاهبرداری می‌تواند به یک وب‌سایت معتبر پول بدهد تا محتوای خود، شامل لینک‌های مرتبط با خدماتش، را منتشر کند. ما این را هرزنامه می‌دانیم، زیرا هم کاربران و هم سیستم‌های ما تصور می‌کنند که با یک وب‌سایت معتبر سروکار دارند، در حالی که در واقع با یک کلاهبردار در تعامل هستند. این شیوهٔ عمل در اشکال مختلفی می‌آید، اما اصل آن همیشه یکسان است: طرح پرداخت‑به‑بازی که هدفش فریب سیستم‌های رتبه‌بندی و کاربران است.

    بنابراین در مارس ۲۰۲۴، ما سیاست ضد‌هرزنامه خود را بر پایهٔ یک اصل دیرین به‌روزرسانی کردیم: یک سایت نمی‌تواند برای بهبود رتبهٔ خود در جست‌وجو پرداخت کند یا از روش‌های فریبکارانه استفاده کند. اگر این رفتار را بپذیریم — به سایت‌ها اجازه دهیم از ترفندهای مشکوک برای ارتقای رتبهٔ خود استفاده کنند، به‌جای این که در ایجاد محتوای باکیفیت سرمایه‌گذاری کنند — این کار به افراد مخرب این امکان را می‌دهد تا سایت‌های صادق را که از این ترفندها استفاده نمی‌کنند، جایگزین کنند و جست‌وجو برای همهٔ کاربران کاهش کیفیت خواهد یافت.

    نمونه‌های سئوی پارازیتی برای قرص‌های لاغری
    نمونه‌های سئوی پارازیتی برای قرص‌های لاغری
    نمونه‌های سئوی پارازیتی برای وام‌های پرداخت در روز
    نمونه‌های سئوی پارازیتی برای وام‌های پرداخت در روز

    سیاست ضد‌هرزنامهٔ ما به ایجاد تعادل در میدان رقابت کمک می‌کند، به‌طوری که وب‌سایت‌هایی که از ترفندهای فریبکارانه استفاده می‌کنند، نتوانند بر وب‌سایت‌های رقیب که محتواهای خود را به‌صورت مستحکم ارائه می‌دهند، مقدم شوند. بسیاری از این سازندگان کوچک از کار ما برای مبارزه با سئوی پارازیتی حمایت می‌نمایند.

    ما کیفیت نتایج خود و کار خود در مبارزه با هرزنامه در جست‌وجو را به‌طور بسیار جدی می‌گیریم. سیاست ضد‌هرزنامه‌مان را از طریق فرآیند بازبینی عادلانه و دقیق اجرا می‌کنیم و مسیر اعتراضی نیز برای کاربران فراهم می‌کنیم.

    قانون بازارهای دیجیتال (Digital Markets Act) در حال حاضر جست‌وجو را برای کسب‌وکارها و کاربران اروپایی کمتر مفید ساخته است. این تحقیق جدید شگفت‌آور خطر دارد که افراد مخرب را تشویق کند و کیفیت نتایج جست‌وجو را پایین آورد. کاربران اروپایی شایسته بهتری هستند و ما به دفاع از سیاست‌هایی که به مردم امکان اعتماد به نتایجی که در جست‌وجو می‌بینند را می‌دهد، ادامه خواهیم داد.

  • فیدجی سیمو از OpenAI برنامه دارد تا ChatGPT را بسیار کاربردی‌تر کند — و کاربران را مجبور به پرداخت هزینه کند

    هم‌زمان با گسترش OpenAI در همه جهت‌ها، مدیرعامل جدید بخش Applications مأموریتی دارد تا ChatGPT را ضروری و سودآور سازد.

    فیدجی سیمو
    عکس: G L Askew II

    در صورتی که ساختار OpenAI نتواند عجیب‌تر شود — سازمانی غیرانتفاعی که بر یک شرکت تجاری که به یک شرکت عمومی با هدف عمومی تبدیل شده نظارت می‌کند — حالا دو مدیرعامل دارد. سام آلتمن، مدیرعامل کل شرکت که بر تحقیق و محاسبه نظارت می‌کند. و از این تابستان، فیدجی سیمو، مدیرعامل پیشین Instacart، که همه امور دیگر را مدیریت می‌کند.

    از زمانی که در ماه اوت به‌عنوان مدیرعامل بخش Applications آغاز به کار کرد، فیدجی سیمو در دفتر OpenAI در سانفرانسیسکو زیاد دیده نمی‌شود. اما حضور او در تمام سطوح شرکت حس می‌شود — به‌ویژه چون رهبری ChatGPT را بر عهده دارد و عملاً تمام عملکردهایی که می‌توانند درآمد OpenAI را افزایش دهند را هدایت می‌کند. سیمو با بازگشت بیماری سندرم ارتواستاتیک تاکی‌کاردیای وضعیتی (POTS) مواجه است که باعث می‌شود در صورت ایستادن طولانی‌مدت غش کند. بنابراین فعلاً از منزل در لس‌آنجلس کار می‌کند و در Slack فعال است. خیلی.

    او می‌گوید: «در هر روز از ساعت ۸ صبح تا نیمه‌شب حضور دارم، در عرض پنج دقیقه پاسخ می‌دهم؛ مردم احساس می‌کنند که من اینجا هستم و می‌توانند بلافاصله با من ارتباط برقرار کنند، که من در پنج دقیقه به تماس پاسخ می‌دهم». این ادعا توسط کارکنان تأیید می‌شود. فرهنگ شناخته‌شدهٔ OpenAI که بر Slack بنیان‌گذاری شده می‌تواند برای تازه‌کارها سنگین باشد؛ اما به‌نظر می‌رسد برای سیمو این‌گونه نیست. کارکنان می‌گویند او را اغلب می‌بینند که به‌سرعت به کانال‌ها و رشته‌های گفتگو می‌پیوندد، افکار خود را به‌اشتراک می‌گذارد و سؤال می‌پرسد.

    سیمو در دوره‌ای پرآشوب به OpenAI پیوست، دوره‌ای که شرکت در تقریباً تمام جهت‌ها در حال گسترش است. مشارکت‌های حاکمیتی در حوزه هوش مصنوعی، مدل‌های جدید، همکاری‌های خرده‌فروشی، قراردادهای محاسباتی چند میلیارد دلاری، یک تراشه اختصاصی، محصول سخت‌افزاری مرموز و البته ChatGPT وجود دارد. فیدجی سیمو می‌گوید: «ما برای گسترش دامنه رقابت نمی‌کنیم؛ ما برای محدود کردن دامنه می‌جنگیم.»

    مصاحبهٔ بزرگ

    مکالمات عمیق، عجیب و هوشمندانه با مهم‌ترین افراد جهان را بخوانید.

    خارج از سیلیکون‌ولِی، استخدام سیمو تعجب‌آور بود. اما برای آگاهان کمتر شگفت‌انگیز بود. اهل سِته، یک شهر کوچک ماهیگیری در جنوب فرانسه، فیدجی سیمو با مدیریت برنامهٔ فیس‌بوک در متا شهرت کسب کرد و سپس در سال ۲۰۲۱ به‌عنوان مدیرعامل Instacart منصوب شد. دو سال پس از آن این استارتاپ خواربار فروشی به‌صورت عمومی شد. در دره، او به‌عنوان یک رؤیای‌دار محصول شناخته می‌شود که برای گسترش برنامه‌های مصرف‌کننده در سراسر جهان شهرت دارد.

    نقش سیمو در OpenAI عمدتاً همان کار را انجام می‌دهد — تبدیل دستاوردهای پژوهشی شرکت به محصولات مصرفی سودآور و ضروری. او با رقابت سرسختانه‌ای از سوی غول‌های فناوری همچون گوگل و متا، و همچنین استارتاپ‌های هوش مصنوعی که توسط فارغ‌التحصیلان OpenAI تأسیس شده‌اند؛ از جمله Thinking Machines Lab، Anthropic و Periodic Labs، مواجه است. فیدجی سیمو می‌گوید: «چیزی که شب‌ها من را بیدار می‌کند این است که هوش مدل‌های ما به‌مراتب پیشی گرفته از میزان استفادهٔ مردم از آن‌هاست». او اضافه می‌کند: «من کارم را به‌عنوان پر کردن این فاصله می‌بینم.»

    از زمان پیوستن او، سیمو نظارت بر راه‌اندازی Pulse، محصولی که به تقویم کاربران متصل می‌شود و اطلاعات شخصی‌سازی شده‌ای براساس برنامه‌زمانی، تاریخچهٔ گفت‌و‌گو و بازخوردهایشان ارائه می‌دهد؛ ایجاد یک بستر کارهای شغلی برای امکان دریافت گواهینامه هوش مصنوعی و جستجوی نقش‌هایی که از مهارت‌هایشان استفاده می‌کنند؛ و تکثیر تلاش‌ها برای بهبود پاسخ‌های ChatGPT به افراد در بحران‌های شدید سلامت روانی. در نهایت، منبع‌ها می‌گویند که او فردی خواهد بود که تصمیم می‌گیرد تبلیغات را در لایهٔ رایگان ChatGPT چگونه عرضه شود.

    ما در یک مزرعهٔ مدرن و روشن نشسته‌ایم که فیدجی سیمو همراه با همسرش، ریمی، و دختر ۱۰ ساله‌شان در آن زندگی می‌کند. روی میزی که جلوی ماست، انبوهی از شیرینی‌ها و جعبه‌ای از شکلات‌های ریمی قرار دارد. او که قبلاً مهندس بود، اکنون تمام وقت به‌صورت کامل شیرینی‌پزی می‌کند.

    این پس‌زمینهٔ آرمانی برای کسی است که رهبری شاید پرشتاب‌ترین استارتاپ جهان را به عهده دارد. اگر مأموریت OpenAI اطمینان از این است که هوش مصنوعی عمومی برای تمام بشریت سودمند باشد، هدف سیمو ساخت و مقیاس‌پذیری ابزارهایی است که این امکان را می‌دهد. سؤال برای او — و برای OpenAI — این است که آیا این مأموریت می‌تواند در برابر مدل تجاری بقا یابد. این مصاحبه برای شفاف‌سازی و خلاصه‌سازی ویرایش شده است.

    زوئه شیفر: شما مدیرعامل بخش Applications هستید — و تحت گزارش سام آلتمن کار می‌کنید. رابطهٔ کاری‌تان چگونه بوده است؟

    فیدجی سیمو: آنچه سام می‌خواست، توانایی تمرکز بر پژوهش و محاسبه بود، بنابراین من سعی می‌کنم اطمینان حاصل کنم که او بتواند زمان خود را آزاد کند. در عین حال، او دریافت کرد که این شرکت عمدتاً از یک آزمایشگاه پژوهشی شکل گرفته و به یک شرکت محصولی بسیار مهم تبدیل شده است، که نیازمند نیروی متفاوتی است. من نقشم را این می‌بینم که این شرکت محصولی را به‌طرز شگرفی موفق کنم، در حالی‌که به فرهنگ آزمایشگاه پژوهشی احترام می‌گذارم.

    هنگامی که وارد چنین شغلی می‌شوید، آیا کسی مرجع‌های شما را بررسی می‌کند؟

    [خندید.] فکر می‌کنم سام برای حدود سه سال مرجع‌های من را جمع‌آوری کرده بود. سام و من در یک دایرهٔ مشابه کار می‌کردیم، بنابراین او از شهرت من آگاه بود. فکر نمی‌کنم او به‌صورت دقیق تلفن را برداشته و بگوید «آیا او معتبر است؟»

    قصد داشتم بپرسم آیا مارک زاکربرگ یکی از افراد مرتبط شما بوده است …

    مارک در طول مسیر شغلی‌ام حامی بی‌نظیری بوده و بارها رفرنس‌های من را ارائه داده است. در این وضعیت خاص، فکر نمی‌کنم سام با او تماس گرفته باشد.

    شما در مورد این‌که در متا ریسک می‌کردید و گاهی نقش و شهرت خود را به خطر می‌انداختید، صحبت کرده‌اید. کنجکاو هستم بدانم آیا خطراتی را شناسایی کرده‌اید که بخواهید OpenAI به آن‌ها بپردازد.

    خب، قبول این مسئولیت برای من کاملاً ریسکی به‌نظر می‌رسید خندید. می‌گویم آن چیزی که در متا به‌خوبی انجام ندادیم، پیش‌بینی خطراتی بود که محصولاتمان می‌توانند در جامعه ایجاد کنند.

    در OpenAI، این خطرات بسیار واقعی‌اند. سلامت روان و اشتغال دو ابتکار اولیهٔ من هنگامی که به شرکت پیوستم بودند. من به این چشم‌انداز نگاه می‌کردم و می‌گفتم: «بله، بلافاصله، سلامت روان مسأله‌ای است که باید به آن بپردازیم. شغل‌ها به‌وضوح دچار اختلال خواهند شد و ما نقشی داریم تا این اختلال را تا حد امکان کاهش دهیم.»

    این کار آسان نخواهد بود، زیرا مسیر ناشناخته است. بنابراین مسئولیت بزرگی است، اما به‌نظر می‌رسد فرهنگ و اولویت‌بندی لازم برای پرداختن به این موضوع از پیش داریم.

    به نظر شما شرکت در زمینه سلامت روان در حال حاضر چه وضعیتی دارد؟

    در طی چند ماه اخیر، ما به‌طرز چشمگیری شیوع واکنش‌های منفی سلامت روانی را کاهش دادیم. کنترل‌های والدین را با بالاترین سطح حفاظت راه‌اندازی کرده‌ایم و در حال کار بر روی پیش‌بینی سن برای محافظت از نوجوانان هستیم.

    در عین حال، وقتی ۸۰۰ میلیون کاربر (هفته‌ای) داریم و شیوع بیماری‌های روانی در جامعه را می‌دانیم، طبیعتاً مردم در لحظات اضطراب شدید به ChatGPT روی می‌آورند. انجام کار صحیح در هر بار به‌طور استثنایی دشوار است. بنابراین ما سعی می‌کنیم تا حد ممکن رفتارهای نامطلوب را شناسایی کنیم و مدل‌های خود را به‌طور مستمر بهبود دهیم.

    اما اگر بخواهید وضعیت فعلی شرکت را با هدفی که دارید مقایسه کنید، چه نمره‌ای می‌دادید؟

    به این معنا نیست که ما هرگز به نقطه‌ای برسیم که تمام کارها تمام شده باشد. هر هفته رفتارهای جدیدی با ویژگی‌هایی که معرفی می‌کنیم ظاهر می‌شود و ما می‌گوییم: «آه، این یک چالش ایمنی دیگر است که باید به آن پرداخته شود». مثال خوبی مانیا است. زمانی که به متن‌ها نگاه می‌کنیم، گاهی افراد می‌گویند: «احساس فوق‌العاده‌ای دارم. دو روز نمی‌خوابم و احساس می‌کنم بالای دنیا هستم». یک روانشناس کلینیکی می‌فهمد که این طبیعی نیست — این مانیاست. اما اگر به کلمات نگاه کنیم، به‌نظر می‌رسد مشکلی نیست. بنابراین ما با روانشناسان همکاری می‌کنیم تا سیگنال این‌که این صرفاً هیجان‌زدگی نیست، بلکه نشانه مانیاست را شناسایی کنیم و استراتژی مداخله داشته باشیم.

    خطا کردن نیز بسیار آزاردهنده است. اگر یک بزرگسال عادی هیجان‌زده باشید و ChatGPT به شما بگوید: «ممکن است در حال تجربهٔ یک دورهٔ مانیک باشید»، این امر خوب نیست. این حوزه بسیار ظریف است و ما سعی می‌کنیم با نهایت دقت و با بیش‌ترین ورودی خارجی این کار را انجام دهیم.

    فیدجی سیمو
    عکس: G L Askew II

    OpenAI به‌ظاهر یکی از ارزشمند‌ترین استارتاپ‌های جهان است، اگر نه ارزشمندترین، اما به‌طور سالانه میلیاردها دلار ضرر می‌کند.

    متوجه شدم.

    چه فرصت‌هایی را می‌بینید تا OpenAI به مسیر سودآوری برسد؟

    تماماً به مقیاس بازارها و ارزشی که در هر بازار ارائه می‌کنیم برمی‌گردد. پیش از این فقط افراد مرفه به تیمی از دستیاران دسترسی داشتند. با ChatGPT می‌توانیم همان تیم را برای همه فراهم کنیم — یک خریداری شخصی، یک مشاور سفر، یک مشاور مالی، یک مربی سلامت. این به‌مروردار خیلی ارزشمند است و ما هنوز به سطوح اولیه دست پیدا نکرده‌ایم. اگر این را بسازیم، انتظار دارم مردم مایل به پرداخت هزینهٔ زیاد برای این خدمات باشند و این درآمد حاصل خواهد شد.

    در عین حال، در بخش سازمانی، ما یک API و ChatGPT Enterprise می‌فروشیم که محصول خوبی است اما لایه‌ای بسیار نازک نسبت به تمام چیزهایی که می‌توانیم برای سازمان‌ها بسازیم. اگر به ساخت عوامل برای هر صنعت و عملکرد فکر کنید، چیزهای بسیار زیادی برای ساخت وجود دارد؛ یا توسط ما یا با امکان‌پذیری ساختن توسط طرف‌های ثالث بر روی پلتفرم ما.

    پس من می‌گویم، بازارها بزرگ هستند. عمق ارزش نیز عظیم است. این فرمول پایهٔ درآمدزایی است. سپس سؤال واقعی این است که آیا توان محاسباتی لازم برای ارائهٔ آن را خواهیم داشت یا خیر.

    OpenAI معاملات به ارزش صدها میلیارد دلار را برای ساخت مراکز داده انجام داده است. وقتی مردم دربارهٔ ترس‌های مرتبط با این معاملات محاسباتی صحبت می‌کنند، نه تنها به مقیاس آن اشاره می‌کنند، بلکه این معاملات کمی بی‌پایان به‌نظر می‌رسند. همچنین این واقعیت که به‌نظر می‌رسد بخش بزرگی از اقتصاد آمریکا به OpenAI و Nvidia وابسته شده است.

    در ابتدا، بسیاری می‌گویند «واو، این معاملات محاسباتی عظیم‌اند»، اما وقتی می‌بینیم چقدر به‌صورت داخلی محدود شده‌ایم و چقدر می‌توانیم پیشرفت کنیم اگر GPUهای بیشتری داشته باشیم، واضح است که این تصمیم درست است. ما خط تولید محصولاتی داریم که استفادهٔ گسترده‌ای از محاسبات خواهند داشت. می‌دانم این معاملات از بیرون ریسک‌پذیر به‌نظر می‌رسند، اما در داخل، خطر بزرگ‌تر این است که به محاسبات تکیه نکنیم.

    شرکت‌هایی که این قراردادها را با آن‌ها می‌بندیم، بسیار پیشرفته هستند. آن‌ها این نوع معاملات و این نوع مالی‌سازی را فراهم می‌کنند زیرا شریک‌های نزدیک و آگاه به کسب‌وکار ما هستند.

    برای مثال محصول Pulse که ما از طریق برنامه Pro منتشر کردیم. من می‌خواهم این محصول برای همه در دسترس باشد، اما به‌دلیل محدودیت‌های محاسباتی، قادر به انجام این کار نیستیم. این یک مثال است، اما حدود ۱۰ مورد مشابه وجود دارد.

    چگونه از Pulse استفاده می‌کنید؟

    Pulse برای من هم در زمینه کار و هم در زمینه سلامت بسیار مفید است. در بخش سلامت، Pulse هر صبح به من می‌گوید آیا مطالعات جدیدی دربارهٔ وضعیت من منتشر شده است یا نه. پیش از این، مجبور بودم تمام این اطلاعات را تحقیق کنم. به‌جای مراجعه به مجلات پزشکی، همهٔ این‌ها به‌صورت خلاصه و به‌وضوح در یک خط ارائه می‌شود.

    در حوزه کاری نیز مشابه است. همان‌طور که می‌دانید، به‌روز ماندن با اخبار هوش مصنوعی چالشی است. دریافت خلاصهٔ سریع از آنچه در دنیای هوش مصنوعی رخ داده توسط Pulse بسیار مفید است. همسرم یک سازندهٔ شکلات است و در حال ساخت یک تقویم آدونت است. Pulse به او گفت: «آهان، باید در پنجره‌های مختلف پیام مخفی کنید». او گفت: «این ایدهٔ درخشانی است!»

    شما یک شخص بسیار موفق هستید و همزمان با یک بیماری مزمن هم زندگی می‌کنید. دوست دارم بدانم از مدیریت این دو موضوع چه درس‌هایی گرفته‌اید؟

    این سؤال خوبی است. من نخواستم بیماری‌ام مسیر مأموریتم را مسدود کند. اگر بتوانید تمام توان خود را به یک شغل اختصاص دهید، می‌توانید بسیاری از تسهیلاتی را ترتیب دهید که این امکان را فراهم می‌کند. می‌دانم که بسیار خوش‌شانسم که در شرکت‌های حمایتی کار کرده‌ام و این برای همهٔ افراد صادق نیست. چون مردم به‌ندرت کسی را در سطح مدیریتی می‌بینند که به‌صورت علنی دربارهٔ بیماری مزمن خود صحبت کند، بسیاری بر این باورند که این امکان‌پذیر نیست. وقتی علنی کردم، تعداد زیادی از افراد با من تماس گرفتند و گفتند: «او خدا، یک مسیر وجود دارد!»

    در دورهٔ کاری‌تان در متا بیمار شدید، درست است؟ بعد از یک بارداری نسبتاً سخت.

    بله. من به‌مدت پنج ماه بر تخت استراحت می‌کردم. در دوران بارداری باید جراحی می‌کردم تا از زودتر بیرون آمدن بچه جلوگیری شود. در ماه چهارم شروع به دردهای انقباضی کردم. بنابراین واقعاً در خطر از دست دادن بچه بودم. تمام مدت بارداری‌ام کار می‌کردم. در واقع، همسرم تصویری از تولد چهل‌سالگی‌ام نشان داد که من در تخت دارم یک بررسی از زاکر را می‌گیرم. آن زمان کار از خانه جذاب نبود. و من در Facebook Live ارائه می‌کردم. من با این وضعیت کار می‌کردم و در نهایت به‌دلیل POTS به‌سوی دیگر سمت رفت. سپس در سال ۲۰۱۹ جراحی اندومتریوز انجام دادم که POTS را بدتر کرد. از آن زمان تا کنون در حالت ناپایداری هستم؛ تنها نوسان داشته‌ام. اما سال ۲۰۱۹ دقیقاً زمانی بود که علائم به‌طور شدید بیدار شدند.

    شما پرسیدید چه چیزهایی از این تجربه آموخته‌ام. جالب است چون فکر می‌کنید من دربارهٔ آن فکر کرده‌ام، اما تعداد کمی از خبرنگاران به این موضوع پرداخته‌اند و من هنوز به‌طور کامل به این سؤال پاسخ نداده‌ام.

    بخش مهمی از مأموریت من، مراقبت از این است که همه افراد به‌پتانسیل کامل خود دست یابند. من دنیایی می‌خواهم که شرایط سلامت‌بری مسیر را نگیرد؛ چه به‌دلیل توانایی درمان آن‌ها و چه به‌دلیل فراهم شدن تسهیلات توسط شرکت‌ها. می‌توانیم فناوری‌هایی داشته باشیم که این کار را آسان‌تر می‌کند.

    فکر می‌کنم اگر بیماری‌ام زودتر اتفاق می‌افتاد و ما هنوز نورم‌های حضور در Zoom نداشتیم، کار بسیار سخت‌تری می‌شد. من احساس همدردی عمیقی نسبت به تمام افرادی دارم که چیزهای زیادی برای جهان دارند، اما این موارد راهشان را می‌بندند.

    محدودیت‌ها همچنین شما را وادار به خلاقیت بیشتر می‌کنند. معتقدم این محدودیت‌های فیزیکی شدید باعث شده‌اند که در رهبری‌ام بسیار هدفمند عمل کنم.

    فیدجی سیمو
    عکس: G L Askew II

    OpenAI دارای فرهنگی به‌شدت حضوری است. چطور می‌توانید اعتماد تیم را بسازید وقتی همیشه نمی‌توانید آنها را رو در رو ببینید؟

    چیزی که واقعاً کمک کرد این بود که من بسیار شفاف بودم. در روز اول، پیغامی برای همه ارسال کردم و به‌تفصیل در مورد وضعیت خود توضیح دادم، چون بیماری‌های نامریی چالش واقعی دارند. به‌نظر می‌رسد که من سالم هستم، اما با شفافیت می‌گفتم: «دوست دارم حتماً الآن در دفتر باشم، اما بعضی روزها می‌توانم این کار را بکنم و برخی روزها مجبور به کار در حالت نشسته‌پشت‌پایدار هستم». فکر کردم این کار اعتماد زیادی ایجاد کرد. این کار آسیب‌پذیری را از ابتدا نشان می‌دهد و آسان نیست. این کار خطرناک است وقتی که تازه وارد می‌شوید و باید این‌گونه حرف بزنید. من این موضوع را دو هفته فکر می‌کردم.

    چیزی که سعی می‌کنم به‌خوبی انجام دهم این است که به‌صورت دیگری بسیار حاضر باشم. این یک فرهنگ حضوری است اما همچنین فرهنگ فراوانی است که بر Slack تکیه دارد. فکر می‌کنم نسبت به کاری که در دفتر قدم می‌زنم، در دسترس‌تر هستم. مطمئناً امیدوارم این عود دوباره پایان یابد تا بتوانم زمان بیشتری در دفتر حضور داشته باشم، اما تاکنون استراتژی‌ام مؤثر بوده است.

    از بسیاری از افراد شنیده‌ام که مهارت شما در Slack بسیار قوی است.

    [خندید.] اگر خبرنگاران در مورد این موضوع می‌دانند، نمی‌دانم که این خوب است یا نه.

    بخشی از مأموریت شما این است که نحوه عملکرد تبلیغات در داخل ChatGPT را بررسی کنید. این چگونه خواهد بود و جدول زمانی شما چیست؟

    مدل تبلیغاتی وقتی که هدف تجاری واضح است، بسیار خوب کار می‌کند. در حال حاضر حجم زیادی از این درخواست‌ها داریم؛ افرادی که به‌دنبال مشاورهٔ خرید هستند. مهم‌ترین نکته پیش از هرگونه تبلیغات، اطمینان از این است که تجربهٔ تجاری ما فوق‌العاده باشد و مردم بتوانند به‌راحتی تمام محصولات مورد نظر خود را بررسی کنند و توصیه‌های عالی دریافت کنند.

    آیا هنوز در نقطه‌ای نیستید که اگر کسی درخواست مشاورهٔ خرید داشته باشد، یک محصول پولی توصیه شود؟

    خیر.

    OpenAI دارای دادهٔ غنی کاربران است. این داده‌ها ترکیبی از زندگی کاری افراد، افکار شخصی‌ترینشان، عادت‌ها و نیازهای محصولی‌شان است. این اطلاعات برای تبلیغ‌کنندگان بسیار جذاب است. شما در مقیاس‌پذیری چگونه به حریم خصوصی داده‌ها فکر می‌کنید؟

    هر کاری که انجام می‌دهیم باید کاملاً به احترام آن (داده‌ها) باشد. به همین دلیل هنوز دربارهٔ تبلیغات خبری ندادیم، زیرا اگر هر زمان بخواهیم اقدام کنیم، باید مدل بسیار متفاوتی نسبت به روش‌های قبلی باشد.

    آنچه از ساخت پلتفرم‌های تبلیغاتی آموخته‌ام این است که آنچه مردم بیشتر از تبلیغات دوست ندارند، خود تبلیغ نیست، بلکه استفاده از داده‌های پشت آن است.

    آیا برای سؤال درباره تبلیغات آمادگی داشته‌اید؟

    این سؤال را تا کنون بارها بارها دریافت کرده‌ام.

    به‌نظر می‌رسد OpenAI هم‌زمان در مسیرهای مختلفی گسترش می‌یابد. آیا خطر این‌که شرکت سعی کند بیش از حد کار کند، را می‌بینید؟

    نقش من کمینه‌سازی این ریسک است. و راه حل ساده این است که بهترین استعدادها را جذب کنید؛ به‌جای اینکه یک نفر مسئول ۱۵ پروژه باشد، برای هر پروژه بهترین رهبر را داشته باشید. من تمرکز زیادی بر استخدام و اطمینان از داشتن بالاترین توانایی ممکن دارم.

    ما باور داریم که هر دسته‌ای از نرم‌افزارها برای هوش مصنوعی بازآفرینی خواهد شد و ما نقش مهمی در اطمینان از این که محصولات آینده به‌صورت بومی هوش مصنوعی از پایه توسعه یابند، داریم. بنابراین نیاز به ارادهٔ بلندپروازی و توانایی‌های لازم برای رسیدن به این هدف وجود دارد که دقیقاً کار من در ساختن شرکت است.

    Sora، برنامهٔ ویدئویی OpenAI، با مجموعه‌ای بسیار کم از ویژگی‌های ایمنی و راهنمایی‌ها راه‌اندازی شد. هدف پشت این روش چه بود؟

    در واقع فکر می‌کنم که این برنامه با مجموعه‌ای نسبتاً خوب از ویژگی‌های ایمنی عرضه شد. ما کنترل‌های والدین را پیاده‌سازی کرده‌ایم که به والدین اجازه می‌دهد نحوه استفاده از تصویر فرزندشان را کنترل کنند. آن‌ها می‌توانند ساعت‌های استفاده از برنامه را تنظیم کنند. کنترل‌گذاری که من می‌توانم بر روی تصویر خودم اعمال کنم پیشرفته و متفکرانه است، حتی برای بزرگسالان.

    در عین حال این یک شکل کاملاً جدید از تعامل است، بنابراین ما بر پایهٔ بازخوردها یاد می‌گیریم و بهبود می‌دهیم.

    به‌موارد حق تکثیر فکر می‌کردم، جایی که به‌نظر می‌رسید شما واکنش‌پذیرتر باشید.

    آنچه از صاحبان حق تکثیر می‌شنویم این است که دربارهٔ این رسانهٔ جدید بسیار هیجان‌زده‌اند و می‌خواهند حقوق مالکیت معنوی‌شان به‌دست هواداران برسد به‌گونه‌ای که مشارکت هواداران را افزایش دهد. اما آن‌ها می‌خواهند اطمینان حاصل کنند که تبادل ارزش به‌درستی برقرار است. ما نیز همین را می‌خواهیم.

    برنامه به‌طور اساسی به عنوان «مخلفات هوش مصنوعی» مورد انتقاد قرار گرفت.

    به‌نظر من هر رسانهٔ جدیدی از مراحل عبور می‌کند. ابتدا تقلید از آنچه وجود دارد است. اگر به سینما نگاه کنیم، در ابتدا صرفاً ضبط افراد روی صحنه بود تا زمانی که نماهای نزدیک‌تر یا صحنه‌های مختلف اضافه شد. اینجا فکر می‌کنم ما در همان مرحله‌ای هستیم که هوش مصنوعی سعی دارد خروجی انسانی را کپی کند، و در برخی موارد نسخهٔ ضعیف‌تری به‌وجود می‌آید. چیزی که من به‌دنبال آن هستم، زمان انتقال به مرحلهٔ بعدی آزمایش واقعی با ویژگی‌های منحصربه‌فرد این رسانه است و شروع به ظهور آن می‌کنیم. گاهی اوقات ویدیوها را مرور می‌کنم و فکر می‌کنم «خب، این همان‌طور است که قبلاً بود»، اما ناگهان متوقف می‌شوم و می‌پرسم: «چه کسی این را ساخته؟»

    من نگران کمی از سلطه‌گرایی پیرامون روایت «مخلفات» هستم. برای برخی افراد، بخشی از این محتوا بسیار سرگرم‌کننده است. دوستی دارم که کسب‌وکار کوچکی دارد و برنامهٔ تجاری که از ChatGPT دریافت می‌کند، بله، همانند Goldman Sachs نیست، اما او هرگز دسترسی به Goldman Sachs نخواهد داشت. و چیزی که از ChatGPT می‌گیرد، ده برابر بهتر از هر چیزی است که قبلاً دسترسی داشته است. ما باید این رسانهٔ جدید را به‌عنوان ارتقاء سطح پایهٔ خلق محتوا پیشین و فراهم‌سازی دسترسی حداقل برای افرادی که پیش از این دسترسی نداشتند، ببینیم.

    نگرانی‌ها دربارهٔ اختلال هوش مصنوعی در مشاغل زیاد است. چه اندازه این موضوع برای شما نگران‌کننده است؟

    من اعتقادم این است که ایجاد مشاغل گسترده‌ای خواهد بود، اما برخی دسته‌های شغلی به‌طور عمیقی تحت تأثیر این تحول قرار می‌گیرند. به همین دلیل یکی از اولین ابتکارات من راه‌اندازی گواهینامه‌های OpenAI بود، که هدف آن صد میلیون کارگر را برای آمادگی هوش مصنوعی گواهی‌گذاری کنیم، و یک بازار کار برای اتصال آن‌ها به فرصت‌های استفاده از مهارت‌هایشان. ما نقش خود را ایفا می‌کنیم، اما معتقدم دولت‌ها و شرکت‌ها نیز نقش بزرگی ایفا خواهند کرد.

    با پیشرفت مداوم هوش مصنوعی، مزیت انسان‌ها به چه شکل است؟

    انسانیت به‌صورت بی‌پایان خلاق است. هوش مصنوعی به ما قدرت‌های فوق‌العاده‌ای می‌دهد تا خلاقیت بیشتری داشته باشیم. بنابراین ایدهٔ اینکه انسان‌ها صرفاً «کارت را تمام کردیم» برای من اصلاً قابل قبول نیست.

    من این رویکرد را با دخترم پیش می‌گیرم. همه ما به‌عنوان خالق متولد می‌شویم، اما گاهی به‌عنوان بزرگسالان این را فراموش می‌کنیم. او را می‌بینم که از ایده به اجرا سریع‌تر از من می‌رود. او تا به‌حال سه کسب‌وکار راه‌اندازی کرده و ۱۰ سال دارد. او یک آهنگ نوشته است و کتابی نوشت، چون برای او این کار بسیار آسان است.

    آیا دخترتان می‌تواند از ChatGPT استفاده کند؟

    بله، حتماً از آن استفاده می‌کند. این سرویس برای زیر ۱۳ سال طراحی نشده اما تحت نظارت والدین، اجازه استفاده به او می‌دهم.

    ترس گسترشی مبنی بر این که هوش مصنوعی تمام بشریت را نابود خواهد کرد وجود دارد. آیا شما این نگرانی را دارید؟

    من پیش از این‌که به‌عمق OpenAI بپیچم، چنین ترسی نداشتم. اما اکنون تمام تلاش خود را می‌کنیم تا مطمئن شویم این اتفاق نیفتد.

    آیا تا به‌حال فکر کرده‌اید که به‌عنوان مدیرعامل کل شرکت نیز منصوب شوید؟

    بیایید واضح باشیم: کاری که سام انجام می‌دهد، من نمی‌توانم انجام دهم. در حوزهٔ کاری من کارهای بسیار زیادی وجود دارد که فکر می‌کنم ده سال یا بیشتر می‌توانم در همان‌جا به آن‌ها بپردازم. من می‌گویم ما به همه نیاز داریم. ما به سام شدیداً نیاز داریم. ما به من نیز نیاز داریم.

    تاپ، پیراهن و کفش از دیور. کت‌جاکتی از موشینو.
    نظر خود را دربارهٔ این مقاله به ما بگویید. نامه‌ای به سرمقاله‌نویس ارسال کنید به mail@wired.com.

  • ماهواره چینی با لیزر ۲‑وات از ارتفاع ۳۶٬۰۰۰ کیلومتری در فضا، استارلینک را شکست می‌دهد

    با استفاده از لیزری ضعیف‌تر از نور داخل یخچال، به‌سکوت کاری را انجام داد که پنج برابر سریع‌تر از استارلینک بود — از جایی که اکثر متخصصان آن را غیرممکن می‌دانستند.

    ایستگاه فضایی بین‌المللی در حال گردش به دور زمین
    © ایستگاه فضایی بین‌المللی در حال گردش به دور زمین. منبع: Shutterstock

    در آزمایشی در ارتفاع بالا که می‌تواند آینده ارتباطات ماهواره‌ای جهانی را تغییر دهد، چین با موفقیت داده‌ها را با سرعت ۱ گیگابیت بر ثانیه (Gbps) از مداری ژئوسنتر با استفاده از لیزر ۲‑واتی منتقل کرد. این سیگنال که از ۳۶٬۰۰۰ کیلومتری بالاتر از سطح زمین ارسال شد، عملکرد استارلینک را پنج برابر پیشی می‌گیرد — در حالی که مصرف انرژی بسیار کمتری دارد و نیازی به مجموعه عظیم ماهواره‌ها نیست.

    این پیشرفت، به رهبری پژوهشگرانی از دانشگاه پکن و آکادمی علوم چین، از یک سیستم نوری نوین بهره می‌گیرد که می‌تواند یکپارچگی داده‌ها را حتی در فواصل فراوان و با وجود تحریف سیگنال ناشی از آشفتگی‌های جوی حفظ کند. با این نمایش، چین گزینه‌ای جذاب در مقابل مدل‌های مدار پایین‌زمین (LEO) که در حال حاضر بر صنعت اینترنت ماهواره‌ای تسلط دارند، ارائه می‌دهد.

    فن‌آوری مورد آزمایش موفقیت‌آمیز در رصدخانه لیجیانگ در جنوب‌غرب چین قرار گرفت و گامی ملموس به سوی شبکه‌های ماهواره‌ای مبتنی بر لیزر نشان داد — حوزه‌ای که سرعت‌های بالاتر، تاخیر کمتر و پهنای باند گسترده‌تری نسبت به سیستم‌های سنتی فرکانس رادیویی (RF) وعده می‌دهد.

    فراتر از LEO: مدل جدیدی برای انتقال داده‌های مداری

    سیستم چین از رویکرد شلوغ LEO که توسط شرکت‌هایی مانند SpaceX اتخاذ شده است، فاصله می‌گیرد؛ این شرکت‌ها بر پایه هزاران ماهواره که در ارتفاع تنها ۵۵۰ کیلومتری بالای سطح زمین می‌چرخند، کار می‌کنند. در عوض، دانشمندان چینی یک ارتباط نوری پرسرعت را از یک ماهواره ژئوسنتر، در فاصله‌ای بیش از ۳۶٬۷۰۰ کیلومتری، نشان دادند.

    طبق گزارش South China Morning Post، این آزمایش با استفاده از لیزر ۲‑واتی موفق به دستیابی به سرعت انتقال داده ۱ Gbps شد و کیفیت سیگنال را در بازه‌ای از انتقال حفظ کرد که به ندرت برای چنین پهنای باندی امتحان می‌شود.

    این سیستم بر پایه راه‌حل دو فناوری به نام همزیستی AO‑MDR استوار است که اپتیک تطبیقی (AO) را برای اصلاح تحریف سیگنال در زمان واقعی با دریافت چندحالت (MDR) ترکیب می‌کند تا سیگنال‌های لیزری پراکنده را بازیابی کند. سیگنال تصحیح‌شده سپس از طریق یک مبدل نوری چندسطحی (MPLC) به هشت کانال انتقال تقسیم می‌شود؛ در اینجا الگوریتم زمان واقعی مسیرهای همگن‌ترین را شناسایی می‌کند و اعتبار را ارتقا داده و خطاهای انتقال را کاهش می‌دهد.

    تبادل داده‌های شبکه و ماهواره بر روی کره زمین در فضا – رندر سه‌بعدی این تصویر توسط ناسا تهیه شده است. عکس: Shutterstock
    تبادل داده‌های شبکه و ماهواره بر روی کره زمین در فضا – رندر سه‌بعدی این تصویر توسط ناسا تهیه شده است. عکس: Shutterstock

    تحلیل فنی مفصل از طریق Interesting Engineering در دسترس است که تأیید کرد این سیستم نرخ سیگنال قابل استفاده را از ۷۲٪ به ۹۱٫۱٪ ارتقاء داد و پیشرفت قابل‌توجهی در پایداری عملکرد در فاصله‌های طولانی نشان داد.

    لیزر در مقابل رادیو

    در حالی که استارلینک شبکه LEO خود را گسترش می‌دهد و دسترسی به اینترنت با سرعت متوسط دانلود حدود ۶۷ Mbps ارائه می‌کند، آزمایش چینی مدلی را پیشنهاد می‌کند که می‌تواند به‌صورت کارآمدتری مقیاس‌پذیر باشد. سیستم‌های سنتی اینترنت ماهواره‌ای که از سیگنال‌های RF استفاده می‌کنند، به‌تدریج تحت فشار شلوغی طیف و محدودیت‌های قانونی قرار می‌گیرند. سیستم‌های نوری لیزری، در مقابل، پهنای باند بیشتر، تداخل کم و پروفایل پرتوهای باریک‌تر فراهم می‌کنند که امکان ایجاد لینک‌های هدفمند و با ظرفیت بالا را می‌دهد.

    علاوه بر این، روش مبتنی بر لیزر وابستگی به سیستم‌های تقویت‌کننده پرمصرف را کاهش می‌دهد. ماهواره چینی تنها به ۲ وات—تقریباً همان‌قدر خروجی یک لامپ LED خانگی—نیاز داشت تا داده‌های با سرعت بالا را از بیش از ۳۶٬۰۰۰ کیلومتر منتقل کند، در حالی که سیستم‌های مبتنی بر RF معمولاً صدها وات انرژی برای فاصله‌های مشابه می‌طلبند.

    براساس Acta Optica Sinica که این مطالعه را منتشر کرد، سیستم از ۳۵۷ میکروآینه در آرایه اپتیک تطبیقی برای بازشکل‌دهی سیگنال ورودی که توسط جو زمین تحریف شده بود، استفاده کرد. سیگنال حاصل به حد کافی قوی و پایدار بود تا در زمان واقعی پردازش و رمزگشایی شود، حتی با وجود تداخل‌های طبیعی محیطی.

    پایه‌ای برای ارتباطات دفاعی و فضاهای عمیق

    دلالت‌های این نمایش فراتر از باند پهن عمومی است. سیستم‌های ارتباطی لیزری با خطای کم و اطمینان‌پذیر از مدار ژئوسنتر کاربردهای مستقیم در کنترل و فرماندهی فضایی، ارتباطات نظامی و تلومتری فضاهای عمیق دارند.

    ارتباط لیزری همچنین ریسک شناسایی کمتری را فراهم می‌کند که آن را به گزینه‌ای جذاب برای انتقالات رمزنگاری‌شده دولتی تبدیل می­سازد. گرچه این پروژه به‌عنوان یک نمایش علمی مطرح شد، سرمایه‌گذاری گسترده‌تر چین در زیرساخت‌های مبتنی بر ماهواره نشانگر هدف‌های استراتژیک بلندمدت است.

    ارتباطات لیزری همچنین پشتیبان کنترل واکنش‌پذیرتر بر ماموریت‌های سیاراتی هستند و مزایای بالقوه‌ای برای عملیات‌های آینده بر روی ماه و مریخ دارند. به دلیل تأخیر کم و نرخ خطای پایین، این سیستم‌ها برای جریان‌های داده‌ای با ارزش و زمان حقیقی که در هر بیت اهمیت دارد، ایده‌آل هستند — به‌ویژه در شرایطی که تداخل RF یا فاصله‌ طولانی به‌طور سنتی بر صحت انتقال تأثیر منفی داشته است.

    چالش اصلی در حال حاضر در مقیاس‌پذیری این سیستم نهفته است. چین باید چندین ماهواره مدار بالا مجهز به بارهای نوری دقیق مستقر کند و یک شبکه جهانی قابل‌اعتماد از ایستگاه‌های زمینی گیرنده را حفظ نماید. اما نسبت هزینه به عملکرد سیستم‌های لیزری مبتنی بر GEO می‌تواند در نهایت از مزیت‌پذیری مجموعه‌های LEO که به هزاران ماهواره برای پوشش کامل نیاز دارند، کاسته و رقابتی شگفت‌انگیز ایجاد کند.