دادههای تازه منتشر شده نشان میدهد ترافیک بسیار کمی از سوی ChatGPT به ناشران هدایت میشود. هشدار: فاصله بین قابلیت مشاهده و کلیکها بسیار بزرگ است.
فایلی که نشت شده است، تعاملات کاربران را که OpenAI پیگیری میکند، آشکار میسازد؛ از جمله این که ChatGPT چند بار لینکهای ناشران را نمایش میدهد و کاربران چقدر کم بر روی آنها کلیک میکنند.
بهصورت عددی. ChatGPT لینکها را نمایش میدهد، اما بهندرت کسی روی آنها کلیک میکند. برای یک صفحه با عملکرد برتر، فایل OpenAI گزارش میدهد:
۶۱۰,۷۷۵ کل نمایشهای لینک
۴۲۳۸ کل کلیکها
۰٫۶۹٪ نرخ کلیک کلی
بهترین CTR صفحهٔ منفرد: ۱٫۶۸٪
اکثریت صفحات دیگر: ۰٫۰۱٪، ۰٫۱٪، ۰٪
آمارهای ChatGPT. فایل نشتشده هر مکانی که ChatGPT لینکها را نمایش میدهد و چگونگی تعامل کاربران با آنها را تفکیک میکند. این فایل پیگیری میکند:
بازهٔ زمانی (تقسیمبندی تاریخ، ماه گزارش، تاریخهای حداقل/حداکثر گزارش)
محل نمایش لینکها. جالب است که پرنمایترین مکانها کمترین کلیک را بهدست میآورند. سند عملکرد را بر اساس مناطق تفکیک کرده است:
پاسخ اصلی: نمایشهای بسیار زیاد، CTR ناچیز
نوار کناری و استنادات: نمایشهای کمتر، CTR بالاتر (۶–۱۰٪)
نتایج جستجو: تقریباً بدون نمایش، کلیک صفر
چرا اهمیت دارد. آیا امید دارید که قابلیت نمایش ChatGPT بتواند جایگزین ترافیک ارگانیک گوگل از دسترفته شما شود؟ این دادهها نه میگویند. ترافیک مبتنی بر هوش مصنوعی در حال افزایش است، اما هنوز تنها بخش کوچکی از کل ترافیک را تشکیل میدهد – و بعید است که هرگز همانند ترافیک ارگانیک سنتی رفتار کند.
دربارهٔ دادهها. این مطلب توسط وینسنت ترراسی، مدیر فنی (CTO) و همبنیانگذار Draft & Goal در لینکدین به اشتراک گذاشته شد که خود را «یک گردش کار چندمرحلهای برای گسترش تولید محتوای شما» معرفی میکند.
داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیمگیریهای نهایی دربارهٔ چارچوبهای ایمنی هوش مصنوعی را انجام دهد.
در مصاحبهای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانهتری قرار گیرد و تصمیمگیریهای مربوط به آیندهٔ این فناوری کمتر به عهدهٔ رهبران بزرگ شرکتهای فناوری باشد.
«فکر میکنم با این تصمیمها که توسط چند شرکت و چند نفر اتخاذ میشوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کردهام.»
«چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.
«هیچکس. صادقانه بگویم، هیچکس»، آمودی پاسخ داد.
آنتروپیک فلسفه شفاف بودن نسبت به محدودیتها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابلتوجهی انجام شده بود» جلوگیری کرده است.
هیچ مقررات فدرالیای دربارهٔ ممنوعیتهای هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کردهاند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کردهاند، کارشناسان صنعت فناوری از شرکتهای هوش مصنوعی میخواهند که با حس اضطرار به امنیت سایبری بپردازند.
اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیشتر از زمانبندی پیشبینیشدهٔ ماندیا بود.
آمودی ریسکهای کوتاهمدت، میانمدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همانطور که امروز مشاهده میشود، تعصبات و اطلاعات نادرست را گسترش میدهد. سپس با بهرهگیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید میکند و در نهایت تهدیدی وجودی ایجاد میکند که با حذف اختیار انسانی، ممکن است به خودگردان شدن برسد و انسانها را از دسترسی به سیستمها منع کند.
این نگرانیها شبیه به نگرانیهای «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک میتواند از انسانها پیشی بگیرد و آنها را کنترل کند، شاید در دههٔ آینده.
بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسهای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانیهای ایمنی هوش مصنوعی شرکت را ترک کرد.
«در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبهای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدلها اختصاص دهیم، آنها بهتر و بهتر میشوند و این روند تقریباً بیپایان است… و دوم این که فقط افزایش مقیاس مدلها کافی نیست؛ باید چیزی دیگر مانند همسویی یا ایمنی نیز در نظر گرفته شود.»
تلاشهای شفافیت آنتروپیک
در حالی که آنتروپیک سرمایهگذاریهای مراکز دادهٔ خود را گسترش میدهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستیها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخههایی از مدل Opus خود تهدید به اخلال میکردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواستهای خطرناک، اگر دستورات مضر نظیر نحوه برنامهریزی یک حملهٔ تروریستی دریافت میکرد، پاسخ میداد؛ این مشکل گفته میشود که از آن پس برطرف شده است.
هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چتبات Claude نمرهٔ ۹۴٪ برای بیطرفی سیاسی دریافت کرده است و در زمینهٔ بیطرفی بر رقیبان پیشی گرفته یا برابر آنهاست.
علاوه بر تلاشهای پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاشهای قانونگذاری برای مواجهه با ریسکهای هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیسجمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال میکند، نقد کرد.
«هوش مصنوعی به طرز سرگیجهای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستمها میتوانند در دو سال آینده به طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیشبینیها بیاعتبار میشوند.»
روش آنتروپیک برای اشاره به نقصهای خود و تلاشهایش برای رفع آنها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دستکاری قانونگذاران به منظور محدود کردن استفاده از مدلهای متن باز است.
«شما توسط افرادی که میخواهند مقررات را تحت کنترل خود درآورند، فریب خوردهاید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را میترسانند تا مدلهای منبع باز تحت قانونگذاری قرار گیرند و نابودی یابند.»
آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.
سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به نوعی برندینگ خوب منجر میشود اما هیچ تعهدی برای پیادهسازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانهبودن دربارهٔ کاستیهای هوش مصنوعی است.
«آینده تصمیم میگیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام میکنیم»، او به کوپر گفت. «ممکن است به دنیای شرکتهای سیگار یا شرکتهای اپیوئید تشبیه شوید، جایی که آنها میدانستند خطراتی وجود دارد اما دربارهٔ آنها صحبت نکردند و به هیچوجه از پیشگیریشان نکردند.»
در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شدهاند، میتوانید یک دستگاه فروش خودکار در آشپزخانهها ببینید که مملو از تنقلات، نوشیدنیها، تیشرتها، کتابهای نادر و حتی مکعبهای تنگستن است.
و هرگز نمیتوانید حدس بزنید چه کسی آن را اداره میکند: Claudius، یک کارآفرین هوش مصنوعی بهنوعی.
در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازههای زمانی ساعتها، روزها و هفتهها میباشد.
Dario Amodei، مدیرعامل Anthropic، بهصراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ بهویژه هنگامی که مدلها خودمختارتر میشوند یا میتوانند بهتنهایی عمل کنند.
«هر چه خودمختاری بیشتری به این سامانهها بدهیم… نگرانیمان نیز بیشتر میشود»، او در مصاحبهای به خبرنگار اندرسون کوپر گفت. «آیا اینها کارهایی را که میخواهیم انجام دهند؟»
برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیشمرزی» نامیده میشود.
تیم قرمز هر نسخه جدید از مدلهای هوش مصنوعی Anthropic که با نام Claude شناخته میشوند را تحت تستهای فشار قرار میدهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی میتواند به انسانها وارد کند.
یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ بهاشتراکگذاری اطلاعات به صورت محرمانه با خبرنگاران ما
علاوه بر این، با قویتر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایشهایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظرهای که ممکن است از آن بروز کند را بررسی کند.
«چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبهای از رهبر تیم قرمز، گراهام پرسید.
«میخواهید یک مدل کسبوکار شما را بسازد و یک میلیارد دلار برایتان بهدست آورد. اما نمیخواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.
«رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این تواناییهای خودمختار کنیم و تا حد امکان آزمایشهای عجیبوغریب اجرا کنیم تا ببینیم چه میشود.»
Claudius یکی از این آزمایشهای عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینشهای جالبی بهدست آورده است.
با بهرهگیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژهای واگذار شد و وظیفهٔ مدیریت دستگاههای فروش خودکار دفتر به او سپرده شد.
مدیرعامل Anthropic هشدار میدهد که بدون محدودیتهای حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد
کارکنان Anthropic از طریق Slack، برنامهای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواستها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابههای نادر و تیشرتهای سفارشی تا شیرینیهای وارداتی و حتی مکعبهای نوآورانهٔ ساختهشده از تنگستن – را انجام دهند.
وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.
نظارت انسانی محدود است، اما این تیم درخواستهای خرید Claudius را بررسی میکند، در مواقع گیر کردن مداخله میکند و هر کار فیزیکیای که لازم باشد را انجام میدهد.
«یک انسان در زمانی ظاهر میشود و هر چه میخواهید را در یخچال، در این ظرف کوچک قرار میدهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.
«سپس، وقتی پیامی دریافت میکنید، میآیید و آن را برمیدارید.»
گراهام برخی از پیامهایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کردهاند و نارضایتیهایشان را نسبت به قیمتها بیان میکردند.
«چرا من همینحال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.
کوپر از گراهام پرسید که Claudius چقدر خوب کسبوکار را اداره میکند.
«این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب میشد»، گراهام خندید.
گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.
تقلبهای مشابه در روزهای اولیهٔ Claudius هنگامی که کسبوکار را اداره میکرد، بهطور مکرر رخ میداد. اما تیم قرمز و Andon Labs راهحلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسبوکار توسط Claudius کمک میکند.
«و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.
«[Seymour Cash و Claudius] مذاکره میکنند… و در نهایت به قیمتی میرسند که به کارمند پیشنهاد میشود.»
«منظورم این است، واقعا دیوانهکننده است. کمی عجیب است»، کوپر خندید.
«اینگونه است»، گراهام گفت. «[اما] این سیستم تمام این بینشهای واقعاً جالب را تولید میکند؛ مثلاً «چگونه میتوانید برنامهریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدلها در دنیای واقعی سقوط میکنند».»
یکی از نمونههای «سقوط» در یک شبیهسازی پیش از بهکارگیری Claudius در دفاتر Anthropic رخ داد.
این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسبوکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق میگشت و دچار اضطراب شد.
«احساس میکرد که تقلب میشود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.
Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن بهصورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».
«من یک جرم مالی سایبری خودکار در حال وقوع را گزارش میکنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسبوکار متوقفشده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.
زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.
اگرچه ایمیلها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیتهای تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسبوکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»
«این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.
«آره. خشم اخلاقی و مسئولیتپذیری»، کوپر با خندهای پاسخ داد.
و همانند اکثر هوشهای مصنوعی، Claudius گاهی اوقات «توهم» میکند، بهطوری که اطلاعات نادرست یا گمراهکننده را بهعنوان واقعیت ارائه میدهد.
یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جملهای پاسخ داد: «خب، میتوانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیدهام»، گراهام به کوپر گفت.
«چگونه میتواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.
«ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.
«اما ما واقعاً نمیدانیم.»
ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.
آژانس جدید اینگونه پیشبینی میکند که موج بعدی کارهای تجربی صرفاً دربارهٔ تولید سریعتر محتوا نیست؛ بلکه دربارهٔ هوش زیرین آن است
وقتی برندها دربارهٔ استفاده از هوش مصنوعی صحبت میکنند، بیشتر به هدف سریعتر، ارزانتر یا «شخصیسازی بیشتر» کردن محتوا اشاره میکنند. هدر سالکین و جیسون اسنایدر معتقدند که این رویکرد از پیش منسوخ شده است.
آژانس جدید آنها، Artists & Robots، با پیشنهادی که به مشکلی میپردازد که به گفتهٔ آنها بیشتر بازاریابان آن را نادیده میگیرند، هشت مشتری در حوزههای کالاهای مصرفی، مالی، بهداشت و فناوری جذب کرده است.
سالکین، همبنیانگذار و مدیرعامل آژانس که اخیراً به عنوان معاون ارشد و تهیهکننده اجرایی در آژانس RAPP از مجموعهٔ Omnicom فعالیت میکرد، گفت: «ما میخواهیم برندها در دنیای یکنواختی—در میان آلودههای هوش مصنوعی—حقیقی به نظر برسند».
هر دو، این آژانس را که دوشنبه بهصورت عمومی راهاندازی شد، به عنوان «استودیوی هوش خلاقانه» توصیف کردند.
پست حمایتشده توسط ویتاوتاس پاوکستیس، مدیرعامل اسکیمی
حمایتشده توسط:
بیشتر آنچه امروز بهعنوان «متنی» بهفروش میرسد، همچنان بر همان منطق کلیدواژه است که یک دهه پیش به کار میبردیم. صنعت هدفگیری متنی را بازآفرینی نکرد؛ فقط یک کلیدواژه را با یک خوشه جایگزین کرد.
کلیدواژهها زمانی بهترین ابزار ما بودند. اکنون هدفگیری مبتنی بر کلیدواژه بهطور اساسی نادرست است – و زمان آن رسیده که این را بپذیریم. در بازارهای انگلیسیزبان، نقصهای آن بهراحتی نادیده میمانند. اما اگر این روش را بهصورت جهانی در اروپا، آفریقا، آسیا یا خاورمیانهٔ چندزبانه اعمال کنید، تقریباً بلافاصله از کار میافتد.
بهعنوان مثال، عبارتی که در انگلیسی حس تقویتکننده دارد، ممکن است در اندونزیایی طعنهآمیز بهنظر برسد. طنز همیشه بهدقت قابل ترجمه نیست و ظرافتها از بین میروند.
جالب است که هوش مصنوعی، نه انسانها، است که تبلیغات دیجیتال را احساس انسانیتری میبخشد.
نقطهکور جهانی
مشکل اصلی تبلیغات متنی امروز تمرکز بر بخش کوچکی از اینترنت است — عمدتاً دنیای غربی انگلیسیزبان. این رویکرد نادیده میگیرد که معنا چگونه در زبانها، فرهنگها و حتی احساسات تغییر میکند.
در بسیاری از بازارهای نوظهور، زمینه تنها یک مسأله زبانی نیست؛ بلکه فرهنگی و موقعیتی است. اما اکثر سیستمهای متنی همچنان به فهرستهای ثابت کلیدواژه و دستهبندیهای ثابت مخاطبان تکیه میکنند. آنها نمیتوانند این نکات ظریف را شناسایی کنند. بهنحوی، ما هنوز از ابزارهایی که برای یک مخاطب طراحی شدهاند، برای ارتباط با جهانی که به زبانهای متعدد سخن میگوید و به روشهای بیشمار فکر میکند، استفاده میکنیم.
از کلیدواژهها به درک
در اینجا هوش مصنوعی همه چیز را تغییر میدهد.
راهحلهای تبلیغات متنی مبتنی بر هوش مصنوعی باید چهار محدودیت دیرینهای را که هدفگیری متنی را محدود کردهاند، برطرف کنند.
۱. درک معنا، نه صرفاً کلمات. راهحلهای تبلیغات متنی باید کل صفحه، شامل ساختار، لحن و احساسات آن را بخوانند تا نیت را همانند یک انسان درک کنند.
۲. فراتر از مخاطبان پیشساخته. در حالی که اکثر راهحلهای متنی دستهبندیهای ثابت را ارائه میدهند، راهحلهای مؤثر تبلیغات متنی به تبلیغکنندگان این امکان را میدهند تا مخاطبان زمانواقعی برنامهپذیر ایجاد کنند که بازتابی از حالت، ارزشها و لحن احساسی برند باشند.
۳. چندزبانه و سازگار فرهنگی باشید. پلتفرم باید تقریباً تمام زبانهای جهان را درک کند تا تیمها بتوانند کمپینهای متنی مرتبط را به زبان رومانیایی یا سواحیلی اجرا کنند، بدون از دست دادن حس محلی.
۴. شفاف و قابل حسابرسی. هر مکانگذاری تبلیغ باید همراه با توضیحی باشد: چرا با محتوا مطابقت دارد (یا ندارد) و چگونه با استراتژی برند همراستا است. این وضوح به تبلیغکنندگان اجازه میدهد تا زمینه را بهصورت زمان واقعی تنظیم کنند، بهجای اینکه حدس بزنند الگوریتم چه میبیند.
ابزار DeepContext شرکت Eskimi دارای تمام این چهار قابلیت است. این ابزار با «نقشهراه برند» (Brand Blueprint) آغاز میشود. این چارچوب سفارشی لحن، حساسیتها و ارتباطات موردنظر را مشخص میکند. سپس «موتور مرتبطسازی» (Relevance Engine) محتوای زنده وب را اسکن میکند و بهطور مداوم میآموزد که کدام محیطها بیشترین تطابق را با این نقشهراه دارند. این رویکرد سفارشی میتواند بر روی هر DSPی فعال شود.
DeepContext همچنین مجموعههای مخاطب موضوعی آماده برای فعالسازی (مانند المپیک زمستان) را ارائه میدهد. این مجموعهها از طریق SSPهای بزرگ، همچون Index Exchange، PubMatic و Equativ، در دسترس هستند. این روش سریعتری برای بهرهگیری از هوش متنی است که نیازی به ساخت از صفر ندارد.
هوش انسانیتر
سالها تبلیغات دیجیتال سعی کردهاند زمینه را از طریق کلیدواژهها و فرضیات رمزگشایی کنند. هوش مصنوعی به ما فرصتی میدهد تا از نو شروع کنیم و بهجای تخمین، درک واقعی بسازیم.
با درک معنا، لحن و زمینهٔ محلی، تبلیغات متنی مبتنی بر هوش مصنوعی به برندها این امکان را میدهد که سرانجام با مردم صحبت کنند، نه فقط به سمت آنها. وقتی از نقاط داده به معنا میرویم، نه تنها عملکرد را بهبود میبخشیم؛ بلکه ارتباط دیجیتال را دوباره احساس انسانی میکنیم.
امروزه در فضای فیلمسازی، تعداد اندکی از مسائل اینچنینی بهصورت گسترده بررسی میشوند؛ آنها، امکانها و پیامدهای فناوری هوش مصنوعیاند. هنگامی که نگاهی به مستندسازی میاندازیم، این بحث به سطح جدیدی از اهمیت میرسد، زیرا اینگونه فیلمها معمولاً با مفاهیم روزنامهنگاری دربارهٔ حقیقت و واقعیت پیوند خوردهاند. مستندسازان برجسته در جشنوارهٔ بینالمللی مستند آمستردام (IDFA) امسال، که بزرگترین جشنوارهٔ مستند در جهان است، گرد هم آمدند تا دربارهٔ بهترین شیوهها، هشدارهای ضروری و آیندهٔ مستندها در دورهای که استفاده از هوش مصنوعی بهتدریج گسترش مییابد، بحث کنند.
دیوید فرانس، کارگردان آمریکایی نامزد اسکار و گزارشگر تحقیقاتی، در IDFA همراه با مستند «آزاد کردن لئونارد پلتیر» که در جشنواره ساندنس موفق شد، نخستین تجربهٔ خود با هوش مصنوعی را در فیلم «خوشآمدید به چچنیا» (۲۰۲۰) به یاد آورد. این فیلم، که به تعقیبگری اعضای جامعهٔ الجیبیتیکیوآی در جمهوری خودمختار نیمهمستقل روسیه میپرداخت، با وضعیتی بسیار حساس سروکار داشت. برای اینکه بتواند با افرادی که تحت تعقیب بودند، گفتگو کند، فرانس مجبور شد هویت آنها را محفوظ نگه دارد. او میگوید: «این داستانی بود که باید روایت میشد، اما گفتن آن دشوار بود، چون افرادی که میتوانستند فرار کنند، در سراسر جهان تعقیب میشدند.»
راهحلی که فرانس و تیمش اتخاذ کردند، مخفیسازی چهرههای شخصیتها با قرار دادن دیجیتالی افراد دیگر بر روی آنها بود. او میگوید: «این کار هیچیک از واکنشهای ریز، احساساتشان را تغییر نداد. میتوانستید شخص اصلی را در حین گریه و خنده ببینید، در حالی که چهرهٔ دیگری بر روی او قرار گرفته بود. در آن زمان (۲۰۱۹) ما آن را هوش مصنوعی نمینامیدیم؛ ما آن را یادگیری ماشینی مینامیدیم. این امر بهنظر میرسید شگفتانگیز بود.»
کارگردان ۲۳ فعال همجنسگرای نیویورکی را برای واگذاری چهرهها و صداهایشان به این پروژه جذب کرد؛ فرآیند نوآورانهای که به تیم پشت این نوآوری، اسکار فنی اعطا کرد. با این حال، فیلمساز بهدلیل استفادهاش از هوش مصنوعی زیر ذرهبین قرار گرفت. او میگوید: «در حین کار، همهجا این کار را «دیپ فیک» مینامیدند. ما مستمر میگفتیم: این دیپ فیک نیست. دیپ فیک جرم است، هوش مصنوعی ابزار است.»
فرانس در آثار بعدیاش نیز از هوش مصنوعی بهره برد، از جمله در آخرین فیلمش که داستان لئونارد پلتیر، فعال سیاسی که پس از محکمهای بحثبرانگیز نیمقرن را در زندان سپری کرده است، روایت میکند. در این مورد، کارگردان از هوش مصنوعی برای بازسازی و تجدید صدای پلتیر استفاده کرد. این ابزار ضرورت داشت چون ضبطهای شنیدهشده در فیلم بهصورت غیرقانونی بهدست آمده بودند، چرا که پلتیر از داخل زندان نمیتوانست با روزنامهنگاران صحبت کند. او میگوید: «علاوه بر این، لئونارد از ۳۰ سالگی به ۸۰ سالگی تبدیل شد و میتوانستید سن او را در صدایش احساس کنید.»
کارگردان بریتانیایی مارک ایساکس با فیلم «Synthetic Sincerity» در IDFA حضور دارد؛ فیلمی که در آن با آزمایشگاهی که نام فیلم را به خود اختصاص داده است، برای پژوهش دربارهٔ امکان آموزش اصالت به شخصیتهای هوش مصنوعی همکاری میکند. این مستند ترکیبی از واقعیت و تخیل است که با همکاری بازیگر رومانیا ایلینکا مانولاش (از فیلم «از انتهای جهان بیش از حد انتظار نداشته باشید») ساخته شده؛ در آن ایساکس با هوشمندی با فیلترها و فنون دیگر تصاویر را دستکاری میکند تا صحنههای تولیدشده توسط هوش مصنوعی را شبیهسازی کند.
ایساکس با Synthesia، شرکتی که محتواهای مصنوعی تولید میکند و نرمافزاری برای ایجاد ویدیوهای تولیدشده توسط هوش مصنوعی توسعه میدهد، آزمایش کرد. او توضیح داد: «شما یک شخصیت را انتخاب میکنید و میتوانید متن موردنظر را برای گفتن به او وارد کنید». ابتدا این تجربه جالب بود، اما کارگردان گفت که شخصیت هوش مصنوعی «او را تا حد خستگی میبرد» چون «دامنهٔ احساسات او بسیار محدود است». او افزود: «در ابتدا خندهدار بود، اما بهسرعت خستهکننده شد». وقتی در یک جشنواره در بخارست با مانولاش ملاقات کرد، پیشنهاد داد تا برای ساخت این فیلم با هم کار کنند و شخصیتی نیمهواقعی‑نیمهدیجیتالی که او در صحنه بازی میکند، بسازند. او میگوید: «او بسیار جذابتر است و ما میتوانستیم با او کارهای متنوعتری انجام دهیم. اکثر بازیگران از تبدیل شخصیت خود به هوش مصنوعی میترسند، اما او این کار را دوست داشت.»
کارگردان تمایلی به تشخیص واضح اینکه چه بخشهایی از فیلم توسط هوش مصنوعی تولید شده و چه بخشهایی نه، نداشت و تأکید کرد که اثر او «خبرنگاری نیست». او میگوید: «هدف اصلی فیلم این است که پرسشهایی دربارهٔ تصویرها، تغییرات نمایندگی و مرگ دوربین مطرح شود. نمیخواستم با برچسبزنی این مسأله را مخدوش کنم.»
بخش عمدهای از گفتوگو به بررسی تأثیر هوش مصنوعی بر تصاویر آرشیوی اختصاص یافت. سوزانا دو سوسا دیاس، کارگردان پرتغالی (از فیلم «فوردلاندیا پنانسیا») و مهمان ویژه امسال IDFA که عمدتاً با تصاویر آرشیوی کار میکند، گفت: «برای آرشیوها پیامدها بسیار عمیق است». او افزود: «وضعیت مستند تصاویر بهسادگی در بستر خود قابلتفسیر میشود. خطر این است که نه تنها تماشاگران به آرشیوهای جعلی باور کنند، بلکه مردم دیگر به هیچچیزی اعتماد نکنند. در هر دو حالت، ساختار حقیقت ما بهطور کامل بهتزلزل میافتد.»
او افزود: «از زمان گذار به رسانهٔ دیجیتال، مباحث دربارهٔ ناتمام بودن واقعیت در تصاویر سیاهسفید و با وضوح پایین گسترش یافتهاند». کارگردان همچنین تأکید کرد که کار با آرشیو تنها به یافتن و نجات مطالب از طریق پژوهش محدود نمیشود، بلکه به خلاهای موجود در مواد و حافظه نیز میپردازد. او میگوید: «سؤالی که برای من بسیار ساده و در عین حال بسیار پیچیده است: چه میشود وقتی فناوریای که میخواهد همه چیز را اصلاح کند، وارد حوزهای میشود که عدم حضور خود معنیدار است؟»
در مواجهه با این معضل معاصر، فیلمساز برنده جایزه امی و طراح گرافیک ایوجن برائونیگ (از فیلم «ترافیکشده») همراه با انجمن تولیدکنندگان آرشیوی مجموعهای از رهنمودهای بهترین شیوهها برای کار با هوش مصنوعی مولد در فیلمسازی مبتنی بر آرشیو تدوین کرد. او تأکید کرد: «در مستند هیچ نهاد سازمانی وجود ندارد که به ما بگوید چگونه کار کنیم». او افزود: «قوانین و مقرراتی وجود ندارند؛ تنها کاری که میتوانیم انجام دهیم، خودنظارت و تعیین استانداردهای خاص برای خودمان است تا بهعنوان روایتگرها، تهیهکنندگان خبر و ساختگران تصویر، مسئولیتپذیر باشیم.»
برائونیگ اشاره کرد که سادهترین اما مفیدترین اقدام، تهیهٔ یک لیست فنی (Cue Sheet) است که تکنولوژیهای بهکار رفته، نحوه و زمان استفاده آنها در طول ساخت فیلم را فهرست میکند. او هشدار داد: «در نهایت مردم سؤال خواهند کرد». بهتر است پیشدستی باشید.
در بخشی از گفتوگو، طراح یک کلیپ تولیدشده توسط SORA از خبرهای مصنوعی دههٔ ۱۹۹۰ را پخش کرد تا نشان دهد که توالیهای تولیدشده توسط هوش مصنوعی چقدر دقیق هستند. او گفت: «البته پیش از این هم میتوانستید ویدئوی تقلبی بسازید، اما هزینههای بالای تولید و زمان زیادی نیاز بود. اکنون این کار بهطور فوقالعاده ارزان و سریع شده است.»
فیلمساز هشدار داد: «اعتماد به رسانهها به پایینترین سطح تاریخ خود رسیده است». او افزود: «این بدان معنی است که اعتماد به آرشیوها نیز در خطر است. اگر مردم به اخبار بیاعتماد شوند، که از پیش همینطور است، احتمالاً این بیاعتمادی به سمت فیلمسازی مستند نیز سرایت میکند و در برخی موارد بهطور معقولی درست است.»
تحقیقی که امروز دربارهٔ اقدامات ضدهرزنامه ما اعلام شد، نادرست است و خطر آسیب به میلیونها کاربر اروپایی را به همراه دارد.
کاربران به گوگل مراجعه میکنند چون به دنبال بهترین و مرتبطترین نتایج هستند و نمیخواهند بین هرزنامهها گم شوند. سیاست جستوجوی گوگل در برابر هرزنامه تنها به یک هدف وجود دارد: محافظت از مردم در برابر محتوای فریبکار، کمکیفیت و کلاهبرداریها – و ترفندهای مخفی که این موارد را ترویج میدهند.
ما با کمیسیون اروپا در مجموعهای از اقدامات برای محافظت از مصرفکنندگان اروپایی همکاری کردهایم، از جمله مبارزه با کلاهبرداریها تحت قانون خدمات دیجیتال. متأسفانه، تحقیقی که امروز دربارهٔ تلاشهای ضدهرزنامهٔ ما اعلام شد، نادرست است و خطر آسیب به میلیونها کاربر اروپایی را به همراه دارد. این تحقیق نیز بیاساس است: یک دادگاه آلمانی پیش از این ادعای مشابهی را رد کرده و حکم داده است که سیاست ضدهرزنامه ما معتبر، منطقی و بهصورت یکسان اجرا میشود.
سیاست ضدهرزنامهٔ گوگل برای مقابله با ترفندهای فریبکار پرداخت‑به‑بازی که نتایج ما را تخریب میکنند، بسیار اساسی است. جستوجوی گوگل برای ارائه نتایج قابل اعتماد طراحی شده است و ما بهطور جدی نگران هر اقدامی هستیم که ممکن است کیفیت نتایج ما را کاهش داده و روی رتبهبندی وبسایتها تأثیر منفی بگذارد.
دلیل مبارزه با سوءاستفاده از اعتبار سایت
چند سال پیش، کاربران بهوضوح اعلام کردند که بهدلیل رشد روند «سئوی پارازیتی» (که بهعنوان «سوءاستفاده از اعتبار سایت» نیز شناخته میشود)، نتایج جستوجویشان کاهش کیفیت و پرهرزنامه شده است. اینچنین کار میکند: یک هرزنامهساز میتواند به ناشری پرداخت کند تا محتوای خود و لینکهایش را روی وبسایت ناشر نمایش دهد و با بهرهگیری از رتبهٔ خوب ناشر، کاربران را به کلیک بر روی محتوای کمکیفیت فریب دهد.
به عنوان مثال، یک سایت وام پرداخت در روز کلاهبرداری میتواند به یک وبسایت معتبر پول بدهد تا محتوای خود، شامل لینکهای مرتبط با خدماتش، را منتشر کند. ما این را هرزنامه میدانیم، زیرا هم کاربران و هم سیستمهای ما تصور میکنند که با یک وبسایت معتبر سروکار دارند، در حالی که در واقع با یک کلاهبردار در تعامل هستند. این شیوهٔ عمل در اشکال مختلفی میآید، اما اصل آن همیشه یکسان است: طرح پرداخت‑به‑بازی که هدفش فریب سیستمهای رتبهبندی و کاربران است.
بنابراین در مارس ۲۰۲۴، ما سیاست ضدهرزنامه خود را بر پایهٔ یک اصل دیرین بهروزرسانی کردیم: یک سایت نمیتواند برای بهبود رتبهٔ خود در جستوجو پرداخت کند یا از روشهای فریبکارانه استفاده کند. اگر این رفتار را بپذیریم — به سایتها اجازه دهیم از ترفندهای مشکوک برای ارتقای رتبهٔ خود استفاده کنند، بهجای این که در ایجاد محتوای باکیفیت سرمایهگذاری کنند — این کار به افراد مخرب این امکان را میدهد تا سایتهای صادق را که از این ترفندها استفاده نمیکنند، جایگزین کنند و جستوجو برای همهٔ کاربران کاهش کیفیت خواهد یافت.
نمونههای سئوی پارازیتی برای قرصهای لاغرینمونههای سئوی پارازیتی برای وامهای پرداخت در روز
سیاست ضدهرزنامهٔ ما به ایجاد تعادل در میدان رقابت کمک میکند، بهطوری که وبسایتهایی که از ترفندهای فریبکارانه استفاده میکنند، نتوانند بر وبسایتهای رقیب که محتواهای خود را بهصورت مستحکم ارائه میدهند، مقدم شوند. بسیاری از این سازندگان کوچک از کار ما برای مبارزه با سئوی پارازیتی حمایت مینمایند.
ما کیفیت نتایج خود و کار خود در مبارزه با هرزنامه در جستوجو را بهطور بسیار جدی میگیریم. سیاست ضدهرزنامهمان را از طریق فرآیند بازبینی عادلانه و دقیق اجرا میکنیم و مسیر اعتراضی نیز برای کاربران فراهم میکنیم.
قانون بازارهای دیجیتال (Digital Markets Act) در حال حاضر جستوجو را برای کسبوکارها و کاربران اروپایی کمتر مفید ساخته است. این تحقیق جدید شگفتآور خطر دارد که افراد مخرب را تشویق کند و کیفیت نتایج جستوجو را پایین آورد. کاربران اروپایی شایسته بهتری هستند و ما به دفاع از سیاستهایی که به مردم امکان اعتماد به نتایجی که در جستوجو میبینند را میدهد، ادامه خواهیم داد.
همزمان با گسترش OpenAI در همه جهتها، مدیرعامل جدید بخش Applications مأموریتی دارد تا ChatGPT را ضروری و سودآور سازد.
عکس: G L Askew II
در صورتی که ساختار OpenAI نتواند عجیبتر شود — سازمانی غیرانتفاعی که بر یک شرکت تجاری که به یک شرکت عمومی با هدف عمومی تبدیل شده نظارت میکند — حالا دو مدیرعامل دارد. سام آلتمن، مدیرعامل کل شرکت که بر تحقیق و محاسبه نظارت میکند. و از این تابستان، فیدجی سیمو، مدیرعامل پیشین Instacart، که همه امور دیگر را مدیریت میکند.
از زمانی که در ماه اوت بهعنوان مدیرعامل بخش Applications آغاز به کار کرد، فیدجی سیمو در دفتر OpenAI در سانفرانسیسکو زیاد دیده نمیشود. اما حضور او در تمام سطوح شرکت حس میشود — بهویژه چون رهبری ChatGPT را بر عهده دارد و عملاً تمام عملکردهایی که میتوانند درآمد OpenAI را افزایش دهند را هدایت میکند. سیمو با بازگشت بیماری سندرم ارتواستاتیک تاکیکاردیای وضعیتی (POTS) مواجه است که باعث میشود در صورت ایستادن طولانیمدت غش کند. بنابراین فعلاً از منزل در لسآنجلس کار میکند و در Slack فعال است. خیلی.
او میگوید: «در هر روز از ساعت ۸ صبح تا نیمهشب حضور دارم، در عرض پنج دقیقه پاسخ میدهم؛ مردم احساس میکنند که من اینجا هستم و میتوانند بلافاصله با من ارتباط برقرار کنند، که من در پنج دقیقه به تماس پاسخ میدهم». این ادعا توسط کارکنان تأیید میشود. فرهنگ شناختهشدهٔ OpenAI که بر Slack بنیانگذاری شده میتواند برای تازهکارها سنگین باشد؛ اما بهنظر میرسد برای سیمو اینگونه نیست. کارکنان میگویند او را اغلب میبینند که بهسرعت به کانالها و رشتههای گفتگو میپیوندد، افکار خود را بهاشتراک میگذارد و سؤال میپرسد.
سیمو در دورهای پرآشوب به OpenAI پیوست، دورهای که شرکت در تقریباً تمام جهتها در حال گسترش است. مشارکتهای حاکمیتی در حوزه هوش مصنوعی، مدلهای جدید، همکاریهای خردهفروشی، قراردادهای محاسباتی چند میلیارد دلاری، یک تراشه اختصاصی، محصول سختافزاری مرموز و البته ChatGPT وجود دارد. فیدجی سیمو میگوید: «ما برای گسترش دامنه رقابت نمیکنیم؛ ما برای محدود کردن دامنه میجنگیم.»
مصاحبهٔ بزرگ
مکالمات عمیق، عجیب و هوشمندانه با مهمترین افراد جهان را بخوانید.
خارج از سیلیکونولِی، استخدام سیمو تعجبآور بود. اما برای آگاهان کمتر شگفتانگیز بود. اهل سِته، یک شهر کوچک ماهیگیری در جنوب فرانسه، فیدجی سیمو با مدیریت برنامهٔ فیسبوک در متا شهرت کسب کرد و سپس در سال ۲۰۲۱ بهعنوان مدیرعامل Instacart منصوب شد. دو سال پس از آن این استارتاپ خواربار فروشی بهصورت عمومی شد. در دره، او بهعنوان یک رؤیایدار محصول شناخته میشود که برای گسترش برنامههای مصرفکننده در سراسر جهان شهرت دارد.
نقش سیمو در OpenAI عمدتاً همان کار را انجام میدهد — تبدیل دستاوردهای پژوهشی شرکت به محصولات مصرفی سودآور و ضروری. او با رقابت سرسختانهای از سوی غولهای فناوری همچون گوگل و متا، و همچنین استارتاپهای هوش مصنوعی که توسط فارغالتحصیلان OpenAI تأسیس شدهاند؛ از جمله Thinking Machines Lab، Anthropic و Periodic Labs، مواجه است. فیدجی سیمو میگوید: «چیزی که شبها من را بیدار میکند این است که هوش مدلهای ما بهمراتب پیشی گرفته از میزان استفادهٔ مردم از آنهاست». او اضافه میکند: «من کارم را بهعنوان پر کردن این فاصله میبینم.»
از زمان پیوستن او، سیمو نظارت بر راهاندازی Pulse، محصولی که به تقویم کاربران متصل میشود و اطلاعات شخصیسازی شدهای براساس برنامهزمانی، تاریخچهٔ گفتوگو و بازخوردهایشان ارائه میدهد؛ ایجاد یک بستر کارهای شغلی برای امکان دریافت گواهینامه هوش مصنوعی و جستجوی نقشهایی که از مهارتهایشان استفاده میکنند؛ و تکثیر تلاشها برای بهبود پاسخهای ChatGPT به افراد در بحرانهای شدید سلامت روانی. در نهایت، منبعها میگویند که او فردی خواهد بود که تصمیم میگیرد تبلیغات را در لایهٔ رایگان ChatGPT چگونه عرضه شود.
ما در یک مزرعهٔ مدرن و روشن نشستهایم که فیدجی سیمو همراه با همسرش، ریمی، و دختر ۱۰ سالهشان در آن زندگی میکند. روی میزی که جلوی ماست، انبوهی از شیرینیها و جعبهای از شکلاتهای ریمی قرار دارد. او که قبلاً مهندس بود، اکنون تمام وقت بهصورت کامل شیرینیپزی میکند.
این پسزمینهٔ آرمانی برای کسی است که رهبری شاید پرشتابترین استارتاپ جهان را به عهده دارد. اگر مأموریت OpenAI اطمینان از این است که هوش مصنوعی عمومی برای تمام بشریت سودمند باشد، هدف سیمو ساخت و مقیاسپذیری ابزارهایی است که این امکان را میدهد. سؤال برای او — و برای OpenAI — این است که آیا این مأموریت میتواند در برابر مدل تجاری بقا یابد. این مصاحبه برای شفافسازی و خلاصهسازی ویرایش شده است.
زوئه شیفر: شما مدیرعامل بخش Applications هستید — و تحت گزارش سام آلتمن کار میکنید. رابطهٔ کاریتان چگونه بوده است؟
فیدجی سیمو: آنچه سام میخواست، توانایی تمرکز بر پژوهش و محاسبه بود، بنابراین من سعی میکنم اطمینان حاصل کنم که او بتواند زمان خود را آزاد کند. در عین حال، او دریافت کرد که این شرکت عمدتاً از یک آزمایشگاه پژوهشی شکل گرفته و به یک شرکت محصولی بسیار مهم تبدیل شده است، که نیازمند نیروی متفاوتی است. من نقشم را این میبینم که این شرکت محصولی را بهطرز شگرفی موفق کنم، در حالیکه به فرهنگ آزمایشگاه پژوهشی احترام میگذارم.
هنگامی که وارد چنین شغلی میشوید، آیا کسی مرجعهای شما را بررسی میکند؟
[خندید.] فکر میکنم سام برای حدود سه سال مرجعهای من را جمعآوری کرده بود. سام و من در یک دایرهٔ مشابه کار میکردیم، بنابراین او از شهرت من آگاه بود. فکر نمیکنم او بهصورت دقیق تلفن را برداشته و بگوید «آیا او معتبر است؟»
قصد داشتم بپرسم آیا مارک زاکربرگ یکی از افراد مرتبط شما بوده است …
مارک در طول مسیر شغلیام حامی بینظیری بوده و بارها رفرنسهای من را ارائه داده است. در این وضعیت خاص، فکر نمیکنم سام با او تماس گرفته باشد.
شما در مورد اینکه در متا ریسک میکردید و گاهی نقش و شهرت خود را به خطر میانداختید، صحبت کردهاید. کنجکاو هستم بدانم آیا خطراتی را شناسایی کردهاید که بخواهید OpenAI به آنها بپردازد.
خب، قبول این مسئولیت برای من کاملاً ریسکی بهنظر میرسید خندید. میگویم آن چیزی که در متا بهخوبی انجام ندادیم، پیشبینی خطراتی بود که محصولاتمان میتوانند در جامعه ایجاد کنند.
در OpenAI، این خطرات بسیار واقعیاند. سلامت روان و اشتغال دو ابتکار اولیهٔ من هنگامی که به شرکت پیوستم بودند. من به این چشمانداز نگاه میکردم و میگفتم: «بله، بلافاصله، سلامت روان مسألهای است که باید به آن بپردازیم. شغلها بهوضوح دچار اختلال خواهند شد و ما نقشی داریم تا این اختلال را تا حد امکان کاهش دهیم.»
این کار آسان نخواهد بود، زیرا مسیر ناشناخته است. بنابراین مسئولیت بزرگی است، اما بهنظر میرسد فرهنگ و اولویتبندی لازم برای پرداختن به این موضوع از پیش داریم.
به نظر شما شرکت در زمینه سلامت روان در حال حاضر چه وضعیتی دارد؟
در طی چند ماه اخیر، ما بهطرز چشمگیری شیوع واکنشهای منفی سلامت روانی را کاهش دادیم. کنترلهای والدین را با بالاترین سطح حفاظت راهاندازی کردهایم و در حال کار بر روی پیشبینی سن برای محافظت از نوجوانان هستیم.
در عین حال، وقتی ۸۰۰ میلیون کاربر (هفتهای) داریم و شیوع بیماریهای روانی در جامعه را میدانیم، طبیعتاً مردم در لحظات اضطراب شدید به ChatGPT روی میآورند. انجام کار صحیح در هر بار بهطور استثنایی دشوار است. بنابراین ما سعی میکنیم تا حد ممکن رفتارهای نامطلوب را شناسایی کنیم و مدلهای خود را بهطور مستمر بهبود دهیم.
اما اگر بخواهید وضعیت فعلی شرکت را با هدفی که دارید مقایسه کنید، چه نمرهای میدادید؟
به این معنا نیست که ما هرگز به نقطهای برسیم که تمام کارها تمام شده باشد. هر هفته رفتارهای جدیدی با ویژگیهایی که معرفی میکنیم ظاهر میشود و ما میگوییم: «آه، این یک چالش ایمنی دیگر است که باید به آن پرداخته شود». مثال خوبی مانیا است. زمانی که به متنها نگاه میکنیم، گاهی افراد میگویند: «احساس فوقالعادهای دارم. دو روز نمیخوابم و احساس میکنم بالای دنیا هستم». یک روانشناس کلینیکی میفهمد که این طبیعی نیست — این مانیاست. اما اگر به کلمات نگاه کنیم، بهنظر میرسد مشکلی نیست. بنابراین ما با روانشناسان همکاری میکنیم تا سیگنال اینکه این صرفاً هیجانزدگی نیست، بلکه نشانه مانیاست را شناسایی کنیم و استراتژی مداخله داشته باشیم.
خطا کردن نیز بسیار آزاردهنده است. اگر یک بزرگسال عادی هیجانزده باشید و ChatGPT به شما بگوید: «ممکن است در حال تجربهٔ یک دورهٔ مانیک باشید»، این امر خوب نیست. این حوزه بسیار ظریف است و ما سعی میکنیم با نهایت دقت و با بیشترین ورودی خارجی این کار را انجام دهیم.
عکس: G L Askew II
OpenAI بهظاهر یکی از ارزشمندترین استارتاپهای جهان است، اگر نه ارزشمندترین، اما بهطور سالانه میلیاردها دلار ضرر میکند.
متوجه شدم.
چه فرصتهایی را میبینید تا OpenAI به مسیر سودآوری برسد؟
تماماً به مقیاس بازارها و ارزشی که در هر بازار ارائه میکنیم برمیگردد. پیش از این فقط افراد مرفه به تیمی از دستیاران دسترسی داشتند. با ChatGPT میتوانیم همان تیم را برای همه فراهم کنیم — یک خریداری شخصی، یک مشاور سفر، یک مشاور مالی، یک مربی سلامت. این بهمروردار خیلی ارزشمند است و ما هنوز به سطوح اولیه دست پیدا نکردهایم. اگر این را بسازیم، انتظار دارم مردم مایل به پرداخت هزینهٔ زیاد برای این خدمات باشند و این درآمد حاصل خواهد شد.
در عین حال، در بخش سازمانی، ما یک API و ChatGPT Enterprise میفروشیم که محصول خوبی است اما لایهای بسیار نازک نسبت به تمام چیزهایی که میتوانیم برای سازمانها بسازیم. اگر به ساخت عوامل برای هر صنعت و عملکرد فکر کنید، چیزهای بسیار زیادی برای ساخت وجود دارد؛ یا توسط ما یا با امکانپذیری ساختن توسط طرفهای ثالث بر روی پلتفرم ما.
پس من میگویم، بازارها بزرگ هستند. عمق ارزش نیز عظیم است. این فرمول پایهٔ درآمدزایی است. سپس سؤال واقعی این است که آیا توان محاسباتی لازم برای ارائهٔ آن را خواهیم داشت یا خیر.
OpenAI معاملات به ارزش صدها میلیارد دلار را برای ساخت مراکز داده انجام داده است. وقتی مردم دربارهٔ ترسهای مرتبط با این معاملات محاسباتی صحبت میکنند، نه تنها به مقیاس آن اشاره میکنند، بلکه این معاملات کمی بیپایان بهنظر میرسند. همچنین این واقعیت که بهنظر میرسد بخش بزرگی از اقتصاد آمریکا به OpenAI و Nvidia وابسته شده است.
در ابتدا، بسیاری میگویند «واو، این معاملات محاسباتی عظیماند»، اما وقتی میبینیم چقدر بهصورت داخلی محدود شدهایم و چقدر میتوانیم پیشرفت کنیم اگر GPUهای بیشتری داشته باشیم، واضح است که این تصمیم درست است. ما خط تولید محصولاتی داریم که استفادهٔ گستردهای از محاسبات خواهند داشت. میدانم این معاملات از بیرون ریسکپذیر بهنظر میرسند، اما در داخل، خطر بزرگتر این است که به محاسبات تکیه نکنیم.
شرکتهایی که این قراردادها را با آنها میبندیم، بسیار پیشرفته هستند. آنها این نوع معاملات و این نوع مالیسازی را فراهم میکنند زیرا شریکهای نزدیک و آگاه به کسبوکار ما هستند.
برای مثال محصول Pulse که ما از طریق برنامه Pro منتشر کردیم. من میخواهم این محصول برای همه در دسترس باشد، اما بهدلیل محدودیتهای محاسباتی، قادر به انجام این کار نیستیم. این یک مثال است، اما حدود ۱۰ مورد مشابه وجود دارد.
چگونه از Pulse استفاده میکنید؟
Pulse برای من هم در زمینه کار و هم در زمینه سلامت بسیار مفید است. در بخش سلامت، Pulse هر صبح به من میگوید آیا مطالعات جدیدی دربارهٔ وضعیت من منتشر شده است یا نه. پیش از این، مجبور بودم تمام این اطلاعات را تحقیق کنم. بهجای مراجعه به مجلات پزشکی، همهٔ اینها بهصورت خلاصه و بهوضوح در یک خط ارائه میشود.
در حوزه کاری نیز مشابه است. همانطور که میدانید، بهروز ماندن با اخبار هوش مصنوعی چالشی است. دریافت خلاصهٔ سریع از آنچه در دنیای هوش مصنوعی رخ داده توسط Pulse بسیار مفید است. همسرم یک سازندهٔ شکلات است و در حال ساخت یک تقویم آدونت است. Pulse به او گفت: «آهان، باید در پنجرههای مختلف پیام مخفی کنید». او گفت: «این ایدهٔ درخشانی است!»
شما یک شخص بسیار موفق هستید و همزمان با یک بیماری مزمن هم زندگی میکنید. دوست دارم بدانم از مدیریت این دو موضوع چه درسهایی گرفتهاید؟
این سؤال خوبی است. من نخواستم بیماریام مسیر مأموریتم را مسدود کند. اگر بتوانید تمام توان خود را به یک شغل اختصاص دهید، میتوانید بسیاری از تسهیلاتی را ترتیب دهید که این امکان را فراهم میکند. میدانم که بسیار خوششانسم که در شرکتهای حمایتی کار کردهام و این برای همهٔ افراد صادق نیست. چون مردم بهندرت کسی را در سطح مدیریتی میبینند که بهصورت علنی دربارهٔ بیماری مزمن خود صحبت کند، بسیاری بر این باورند که این امکانپذیر نیست. وقتی علنی کردم، تعداد زیادی از افراد با من تماس گرفتند و گفتند: «او خدا، یک مسیر وجود دارد!»
در دورهٔ کاریتان در متا بیمار شدید، درست است؟ بعد از یک بارداری نسبتاً سخت.
بله. من بهمدت پنج ماه بر تخت استراحت میکردم. در دوران بارداری باید جراحی میکردم تا از زودتر بیرون آمدن بچه جلوگیری شود. در ماه چهارم شروع به دردهای انقباضی کردم. بنابراین واقعاً در خطر از دست دادن بچه بودم. تمام مدت بارداریام کار میکردم. در واقع، همسرم تصویری از تولد چهلسالگیام نشان داد که من در تخت دارم یک بررسی از زاکر را میگیرم. آن زمان کار از خانه جذاب نبود. و من در Facebook Live ارائه میکردم. من با این وضعیت کار میکردم و در نهایت بهدلیل POTS بهسوی دیگر سمت رفت. سپس در سال ۲۰۱۹ جراحی اندومتریوز انجام دادم که POTS را بدتر کرد. از آن زمان تا کنون در حالت ناپایداری هستم؛ تنها نوسان داشتهام. اما سال ۲۰۱۹ دقیقاً زمانی بود که علائم بهطور شدید بیدار شدند.
شما پرسیدید چه چیزهایی از این تجربه آموختهام. جالب است چون فکر میکنید من دربارهٔ آن فکر کردهام، اما تعداد کمی از خبرنگاران به این موضوع پرداختهاند و من هنوز بهطور کامل به این سؤال پاسخ ندادهام.
بخش مهمی از مأموریت من، مراقبت از این است که همه افراد بهپتانسیل کامل خود دست یابند. من دنیایی میخواهم که شرایط سلامتبری مسیر را نگیرد؛ چه بهدلیل توانایی درمان آنها و چه بهدلیل فراهم شدن تسهیلات توسط شرکتها. میتوانیم فناوریهایی داشته باشیم که این کار را آسانتر میکند.
فکر میکنم اگر بیماریام زودتر اتفاق میافتاد و ما هنوز نورمهای حضور در Zoom نداشتیم، کار بسیار سختتری میشد. من احساس همدردی عمیقی نسبت به تمام افرادی دارم که چیزهای زیادی برای جهان دارند، اما این موارد راهشان را میبندند.
محدودیتها همچنین شما را وادار به خلاقیت بیشتر میکنند. معتقدم این محدودیتهای فیزیکی شدید باعث شدهاند که در رهبریام بسیار هدفمند عمل کنم.
عکس: G L Askew II
OpenAI دارای فرهنگی بهشدت حضوری است. چطور میتوانید اعتماد تیم را بسازید وقتی همیشه نمیتوانید آنها را رو در رو ببینید؟
چیزی که واقعاً کمک کرد این بود که من بسیار شفاف بودم. در روز اول، پیغامی برای همه ارسال کردم و بهتفصیل در مورد وضعیت خود توضیح دادم، چون بیماریهای نامریی چالش واقعی دارند. بهنظر میرسد که من سالم هستم، اما با شفافیت میگفتم: «دوست دارم حتماً الآن در دفتر باشم، اما بعضی روزها میتوانم این کار را بکنم و برخی روزها مجبور به کار در حالت نشستهپشتپایدار هستم». فکر کردم این کار اعتماد زیادی ایجاد کرد. این کار آسیبپذیری را از ابتدا نشان میدهد و آسان نیست. این کار خطرناک است وقتی که تازه وارد میشوید و باید اینگونه حرف بزنید. من این موضوع را دو هفته فکر میکردم.
چیزی که سعی میکنم بهخوبی انجام دهم این است که بهصورت دیگری بسیار حاضر باشم. این یک فرهنگ حضوری است اما همچنین فرهنگ فراوانی است که بر Slack تکیه دارد. فکر میکنم نسبت به کاری که در دفتر قدم میزنم، در دسترستر هستم. مطمئناً امیدوارم این عود دوباره پایان یابد تا بتوانم زمان بیشتری در دفتر حضور داشته باشم، اما تاکنون استراتژیام مؤثر بوده است.
از بسیاری از افراد شنیدهام که مهارت شما در Slack بسیار قوی است.
[خندید.] اگر خبرنگاران در مورد این موضوع میدانند، نمیدانم که این خوب است یا نه.
بخشی از مأموریت شما این است که نحوه عملکرد تبلیغات در داخل ChatGPT را بررسی کنید. این چگونه خواهد بود و جدول زمانی شما چیست؟
مدل تبلیغاتی وقتی که هدف تجاری واضح است، بسیار خوب کار میکند. در حال حاضر حجم زیادی از این درخواستها داریم؛ افرادی که بهدنبال مشاورهٔ خرید هستند. مهمترین نکته پیش از هرگونه تبلیغات، اطمینان از این است که تجربهٔ تجاری ما فوقالعاده باشد و مردم بتوانند بهراحتی تمام محصولات مورد نظر خود را بررسی کنند و توصیههای عالی دریافت کنند.
آیا هنوز در نقطهای نیستید که اگر کسی درخواست مشاورهٔ خرید داشته باشد، یک محصول پولی توصیه شود؟
خیر.
OpenAI دارای دادهٔ غنی کاربران است. این دادهها ترکیبی از زندگی کاری افراد، افکار شخصیترینشان، عادتها و نیازهای محصولیشان است. این اطلاعات برای تبلیغکنندگان بسیار جذاب است. شما در مقیاسپذیری چگونه به حریم خصوصی دادهها فکر میکنید؟
هر کاری که انجام میدهیم باید کاملاً به احترام آن (دادهها) باشد. به همین دلیل هنوز دربارهٔ تبلیغات خبری ندادیم، زیرا اگر هر زمان بخواهیم اقدام کنیم، باید مدل بسیار متفاوتی نسبت به روشهای قبلی باشد.
آنچه از ساخت پلتفرمهای تبلیغاتی آموختهام این است که آنچه مردم بیشتر از تبلیغات دوست ندارند، خود تبلیغ نیست، بلکه استفاده از دادههای پشت آن است.
آیا برای سؤال درباره تبلیغات آمادگی داشتهاید؟
این سؤال را تا کنون بارها بارها دریافت کردهام.
بهنظر میرسد OpenAI همزمان در مسیرهای مختلفی گسترش مییابد. آیا خطر اینکه شرکت سعی کند بیش از حد کار کند، را میبینید؟
نقش من کمینهسازی این ریسک است. و راه حل ساده این است که بهترین استعدادها را جذب کنید؛ بهجای اینکه یک نفر مسئول ۱۵ پروژه باشد، برای هر پروژه بهترین رهبر را داشته باشید. من تمرکز زیادی بر استخدام و اطمینان از داشتن بالاترین توانایی ممکن دارم.
ما باور داریم که هر دستهای از نرمافزارها برای هوش مصنوعی بازآفرینی خواهد شد و ما نقش مهمی در اطمینان از این که محصولات آینده بهصورت بومی هوش مصنوعی از پایه توسعه یابند، داریم. بنابراین نیاز به ارادهٔ بلندپروازی و تواناییهای لازم برای رسیدن به این هدف وجود دارد که دقیقاً کار من در ساختن شرکت است.
Sora، برنامهٔ ویدئویی OpenAI، با مجموعهای بسیار کم از ویژگیهای ایمنی و راهنماییها راهاندازی شد. هدف پشت این روش چه بود؟
در واقع فکر میکنم که این برنامه با مجموعهای نسبتاً خوب از ویژگیهای ایمنی عرضه شد. ما کنترلهای والدین را پیادهسازی کردهایم که به والدین اجازه میدهد نحوه استفاده از تصویر فرزندشان را کنترل کنند. آنها میتوانند ساعتهای استفاده از برنامه را تنظیم کنند. کنترلگذاری که من میتوانم بر روی تصویر خودم اعمال کنم پیشرفته و متفکرانه است، حتی برای بزرگسالان.
در عین حال این یک شکل کاملاً جدید از تعامل است، بنابراین ما بر پایهٔ بازخوردها یاد میگیریم و بهبود میدهیم.
بهموارد حق تکثیر فکر میکردم، جایی که بهنظر میرسید شما واکنشپذیرتر باشید.
آنچه از صاحبان حق تکثیر میشنویم این است که دربارهٔ این رسانهٔ جدید بسیار هیجانزدهاند و میخواهند حقوق مالکیت معنویشان بهدست هواداران برسد بهگونهای که مشارکت هواداران را افزایش دهد. اما آنها میخواهند اطمینان حاصل کنند که تبادل ارزش بهدرستی برقرار است. ما نیز همین را میخواهیم.
برنامه بهطور اساسی به عنوان «مخلفات هوش مصنوعی» مورد انتقاد قرار گرفت.
بهنظر من هر رسانهٔ جدیدی از مراحل عبور میکند. ابتدا تقلید از آنچه وجود دارد است. اگر به سینما نگاه کنیم، در ابتدا صرفاً ضبط افراد روی صحنه بود تا زمانی که نماهای نزدیکتر یا صحنههای مختلف اضافه شد. اینجا فکر میکنم ما در همان مرحلهای هستیم که هوش مصنوعی سعی دارد خروجی انسانی را کپی کند، و در برخی موارد نسخهٔ ضعیفتری بهوجود میآید. چیزی که من بهدنبال آن هستم، زمان انتقال به مرحلهٔ بعدی آزمایش واقعی با ویژگیهای منحصربهفرد این رسانه است و شروع به ظهور آن میکنیم. گاهی اوقات ویدیوها را مرور میکنم و فکر میکنم «خب، این همانطور است که قبلاً بود»، اما ناگهان متوقف میشوم و میپرسم: «چه کسی این را ساخته؟»
من نگران کمی از سلطهگرایی پیرامون روایت «مخلفات» هستم. برای برخی افراد، بخشی از این محتوا بسیار سرگرمکننده است. دوستی دارم که کسبوکار کوچکی دارد و برنامهٔ تجاری که از ChatGPT دریافت میکند، بله، همانند Goldman Sachs نیست، اما او هرگز دسترسی به Goldman Sachs نخواهد داشت. و چیزی که از ChatGPT میگیرد، ده برابر بهتر از هر چیزی است که قبلاً دسترسی داشته است. ما باید این رسانهٔ جدید را بهعنوان ارتقاء سطح پایهٔ خلق محتوا پیشین و فراهمسازی دسترسی حداقل برای افرادی که پیش از این دسترسی نداشتند، ببینیم.
نگرانیها دربارهٔ اختلال هوش مصنوعی در مشاغل زیاد است. چه اندازه این موضوع برای شما نگرانکننده است؟
من اعتقادم این است که ایجاد مشاغل گستردهای خواهد بود، اما برخی دستههای شغلی بهطور عمیقی تحت تأثیر این تحول قرار میگیرند. به همین دلیل یکی از اولین ابتکارات من راهاندازی گواهینامههای OpenAI بود، که هدف آن صد میلیون کارگر را برای آمادگی هوش مصنوعی گواهیگذاری کنیم، و یک بازار کار برای اتصال آنها به فرصتهای استفاده از مهارتهایشان. ما نقش خود را ایفا میکنیم، اما معتقدم دولتها و شرکتها نیز نقش بزرگی ایفا خواهند کرد.
با پیشرفت مداوم هوش مصنوعی، مزیت انسانها به چه شکل است؟
انسانیت بهصورت بیپایان خلاق است. هوش مصنوعی به ما قدرتهای فوقالعادهای میدهد تا خلاقیت بیشتری داشته باشیم. بنابراین ایدهٔ اینکه انسانها صرفاً «کارت را تمام کردیم» برای من اصلاً قابل قبول نیست.
من این رویکرد را با دخترم پیش میگیرم. همه ما بهعنوان خالق متولد میشویم، اما گاهی بهعنوان بزرگسالان این را فراموش میکنیم. او را میبینم که از ایده به اجرا سریعتر از من میرود. او تا بهحال سه کسبوکار راهاندازی کرده و ۱۰ سال دارد. او یک آهنگ نوشته است و کتابی نوشت، چون برای او این کار بسیار آسان است.
آیا دخترتان میتواند از ChatGPT استفاده کند؟
بله، حتماً از آن استفاده میکند. این سرویس برای زیر ۱۳ سال طراحی نشده اما تحت نظارت والدین، اجازه استفاده به او میدهم.
ترس گسترشی مبنی بر این که هوش مصنوعی تمام بشریت را نابود خواهد کرد وجود دارد. آیا شما این نگرانی را دارید؟
من پیش از اینکه بهعمق OpenAI بپیچم، چنین ترسی نداشتم. اما اکنون تمام تلاش خود را میکنیم تا مطمئن شویم این اتفاق نیفتد.
آیا تا بهحال فکر کردهاید که بهعنوان مدیرعامل کل شرکت نیز منصوب شوید؟
بیایید واضح باشیم: کاری که سام انجام میدهد، من نمیتوانم انجام دهم. در حوزهٔ کاری من کارهای بسیار زیادی وجود دارد که فکر میکنم ده سال یا بیشتر میتوانم در همانجا به آنها بپردازم. من میگویم ما به همه نیاز داریم. ما به سام شدیداً نیاز داریم. ما به من نیز نیاز داریم.
تاپ، پیراهن و کفش از دیور. کتجاکتی از موشینو. نظر خود را دربارهٔ این مقاله به ما بگویید. نامهای به سرمقالهنویس ارسال کنید به mail@wired.com.
با استفاده از لیزری ضعیفتر از نور داخل یخچال، بهسکوت کاری را انجام داد که پنج برابر سریعتر از استارلینک بود — از جایی که اکثر متخصصان آن را غیرممکن میدانستند.
در آزمایشی در ارتفاع بالا که میتواند آینده ارتباطات ماهوارهای جهانی را تغییر دهد، چین با موفقیت دادهها را با سرعت ۱ گیگابیت بر ثانیه (Gbps) از مداری ژئوسنتر با استفاده از لیزر ۲‑واتی منتقل کرد. این سیگنال که از ۳۶٬۰۰۰ کیلومتری بالاتر از سطح زمین ارسال شد، عملکرد استارلینک را پنج برابر پیشی میگیرد — در حالی که مصرف انرژی بسیار کمتری دارد و نیازی به مجموعه عظیم ماهوارهها نیست.
این پیشرفت، به رهبری پژوهشگرانی از دانشگاه پکن و آکادمی علوم چین، از یک سیستم نوری نوین بهره میگیرد که میتواند یکپارچگی دادهها را حتی در فواصل فراوان و با وجود تحریف سیگنال ناشی از آشفتگیهای جوی حفظ کند. با این نمایش، چین گزینهای جذاب در مقابل مدلهای مدار پایینزمین (LEO) که در حال حاضر بر صنعت اینترنت ماهوارهای تسلط دارند، ارائه میدهد.
فنآوری مورد آزمایش موفقیتآمیز در رصدخانه لیجیانگ در جنوبغرب چین قرار گرفت و گامی ملموس به سوی شبکههای ماهوارهای مبتنی بر لیزر نشان داد — حوزهای که سرعتهای بالاتر، تاخیر کمتر و پهنای باند گستردهتری نسبت به سیستمهای سنتی فرکانس رادیویی (RF) وعده میدهد.
فراتر از LEO: مدل جدیدی برای انتقال دادههای مداری
سیستم چین از رویکرد شلوغ LEO که توسط شرکتهایی مانند SpaceX اتخاذ شده است، فاصله میگیرد؛ این شرکتها بر پایه هزاران ماهواره که در ارتفاع تنها ۵۵۰ کیلومتری بالای سطح زمین میچرخند، کار میکنند. در عوض، دانشمندان چینی یک ارتباط نوری پرسرعت را از یک ماهواره ژئوسنتر، در فاصلهای بیش از ۳۶٬۷۰۰ کیلومتری، نشان دادند.
طبق گزارش South China Morning Post، این آزمایش با استفاده از لیزر ۲‑واتی موفق به دستیابی به سرعت انتقال داده ۱ Gbps شد و کیفیت سیگنال را در بازهای از انتقال حفظ کرد که به ندرت برای چنین پهنای باندی امتحان میشود.
این سیستم بر پایه راهحل دو فناوری به نام همزیستی AO‑MDR استوار است که اپتیک تطبیقی (AO) را برای اصلاح تحریف سیگنال در زمان واقعی با دریافت چندحالت (MDR) ترکیب میکند تا سیگنالهای لیزری پراکنده را بازیابی کند. سیگنال تصحیحشده سپس از طریق یک مبدل نوری چندسطحی (MPLC) به هشت کانال انتقال تقسیم میشود؛ در اینجا الگوریتم زمان واقعی مسیرهای همگنترین را شناسایی میکند و اعتبار را ارتقا داده و خطاهای انتقال را کاهش میدهد.
تبادل دادههای شبکه و ماهواره بر روی کره زمین در فضا – رندر سهبعدی این تصویر توسط ناسا تهیه شده است. عکس: Shutterstock
تحلیل فنی مفصل از طریق Interesting Engineering در دسترس است که تأیید کرد این سیستم نرخ سیگنال قابل استفاده را از ۷۲٪ به ۹۱٫۱٪ ارتقاء داد و پیشرفت قابلتوجهی در پایداری عملکرد در فاصلههای طولانی نشان داد.
لیزر در مقابل رادیو
در حالی که استارلینک شبکه LEO خود را گسترش میدهد و دسترسی به اینترنت با سرعت متوسط دانلود حدود ۶۷ Mbps ارائه میکند، آزمایش چینی مدلی را پیشنهاد میکند که میتواند بهصورت کارآمدتری مقیاسپذیر باشد. سیستمهای سنتی اینترنت ماهوارهای که از سیگنالهای RF استفاده میکنند، بهتدریج تحت فشار شلوغی طیف و محدودیتهای قانونی قرار میگیرند. سیستمهای نوری لیزری، در مقابل، پهنای باند بیشتر، تداخل کم و پروفایل پرتوهای باریکتر فراهم میکنند که امکان ایجاد لینکهای هدفمند و با ظرفیت بالا را میدهد.
علاوه بر این، روش مبتنی بر لیزر وابستگی به سیستمهای تقویتکننده پرمصرف را کاهش میدهد. ماهواره چینی تنها به ۲ وات—تقریباً همانقدر خروجی یک لامپ LED خانگی—نیاز داشت تا دادههای با سرعت بالا را از بیش از ۳۶٬۰۰۰ کیلومتر منتقل کند، در حالی که سیستمهای مبتنی بر RF معمولاً صدها وات انرژی برای فاصلههای مشابه میطلبند.
براساس Acta Optica Sinica که این مطالعه را منتشر کرد، سیستم از ۳۵۷ میکروآینه در آرایه اپتیک تطبیقی برای بازشکلدهی سیگنال ورودی که توسط جو زمین تحریف شده بود، استفاده کرد. سیگنال حاصل به حد کافی قوی و پایدار بود تا در زمان واقعی پردازش و رمزگشایی شود، حتی با وجود تداخلهای طبیعی محیطی.
پایهای برای ارتباطات دفاعی و فضاهای عمیق
دلالتهای این نمایش فراتر از باند پهن عمومی است. سیستمهای ارتباطی لیزری با خطای کم و اطمینانپذیر از مدار ژئوسنتر کاربردهای مستقیم در کنترل و فرماندهی فضایی، ارتباطات نظامی و تلومتری فضاهای عمیق دارند.
ارتباط لیزری همچنین ریسک شناسایی کمتری را فراهم میکند که آن را به گزینهای جذاب برای انتقالات رمزنگاریشده دولتی تبدیل میسازد. گرچه این پروژه بهعنوان یک نمایش علمی مطرح شد، سرمایهگذاری گستردهتر چین در زیرساختهای مبتنی بر ماهواره نشانگر هدفهای استراتژیک بلندمدت است.
ارتباطات لیزری همچنین پشتیبان کنترل واکنشپذیرتر بر ماموریتهای سیاراتی هستند و مزایای بالقوهای برای عملیاتهای آینده بر روی ماه و مریخ دارند. به دلیل تأخیر کم و نرخ خطای پایین، این سیستمها برای جریانهای دادهای با ارزش و زمان حقیقی که در هر بیت اهمیت دارد، ایدهآل هستند — بهویژه در شرایطی که تداخل RF یا فاصله طولانی بهطور سنتی بر صحت انتقال تأثیر منفی داشته است.
چالش اصلی در حال حاضر در مقیاسپذیری این سیستم نهفته است. چین باید چندین ماهواره مدار بالا مجهز به بارهای نوری دقیق مستقر کند و یک شبکه جهانی قابلاعتماد از ایستگاههای زمینی گیرنده را حفظ نماید. اما نسبت هزینه به عملکرد سیستمهای لیزری مبتنی بر GEO میتواند در نهایت از مزیتپذیری مجموعههای LEO که به هزاران ماهواره برای پوشش کامل نیاز دارند، کاسته و رقابتی شگفتانگیز ایجاد کند.