انحصاری: مدل‌های جدید OpenAI احتمالاً خطر امنیت‌سایبری «بالا» دارند، شرکت می‌گوید

  • Ina Fried
تصویرسازی دو دست ساخته شده از کد دودویی درخشان که بر روی صفحه‌کلید می‌نویسند

تصویر: آیدا امر/آکسیوس

OpenAI می‌گوید توانمندی‌های سایبری مدل‌های پیشرو هوش مصنوعی خود در حال تسریع هستند و روز چهارشنبه هشدار می‌دهد که مدل‌های آینده احتمالاً خطر «بالا» ایجاد می‌کنند؛ این گزارش ابتدا با Axios به اشتراک گذاشته شد.

چرا مهم است: قابلیت‌های رو به رشد این مدل‌ها می‌توانند به‌صورت قابل‌توجهی تعداد افرادی که قادر به انجام حملات سایبری هستند را افزایش دهند.

دلیل خبر: OpenAI اعلام کرد که در نسخه‌های اخیر شاهد افزایش چشمگیری در قابلیت‌ها بوده است، به‌ویژه این‌که مدل‌ها قادر به کار خودکار در مدت زمان طولانی‌تر هستند، که زمینه‌ساز حملات بروت‌فورس می‌شود.

  • شرکت اشاره می‌کند که GPT-5 در یک تمرین Capture‑the‑Flag در ماه اوت ۲۷٪ امتیاز کسب کرد؛ در حالی که GPT‑5.1‑Codex‑Max ماه گذشته ۷۶٪ امتیاز به‌دست آورد.
  • «ما انتظار داریم مدل‌های آیندهٔ هوش مصنوعی این مسیر را ادامه دهند»، شرکت در گزارش می‌گوید. «در جهت آمادگی، ما برنامه‌ریزی و ارزیابی می‌کنیم به‌گونه‌ای که هر مدل جدید می‌تواند به سطوح «بالا» از توانایی‌های امنیت‌سایبری دست یابد، همان‌طور که در چارچوب آمادگی ما سنجیده می‌شود.»

به‌سرعت پیگیری کنید: OpenAI در ماه ژوئن هشدار مشابهی در خصوص خطر سلاح‌های زیستی صادر کرد؛ سپس در ماه ژوئیه ChatGPT Agent را عرضه کرد که در سطوح خطر خود «بالا» ارزیابی شد.

  • «بالا» دومین سطح است که پایین‌تر از سطح «بحرانی» قرار دارد؛ در این سطح مدل‌ها برای انتشار عمومی ایمن نیستند.

بله، اما: شرکت به‌طور دقیق زمان انتظار اولین مدل‌های دارای خطر امنیت‌سایبری «بالا» یا انواع مدل‌های آینده‌ای که می‌توانند چنین خطری داشته باشند را مشخص نکرد.

آنچه می‌گویند: «چیزی که می‌توانم به‌وضوح به‌عنوان عامل اصلی این وضعیت نام ببرم، توانایی مدل برای کار کردن به‌صورت طولانی‌مدت است»، فوئاد متین از OpenAI در مصاحبهٔ انحصاری با Axios گفت.

  • این گونه حملات بروت‌فورس که به این زمان طولانی متکی‌اند، راحت‌تر قابل دفاع هستند، متین می‌گوید.
  • «در هر محیطی که از لحاظ دفاعی مجهز باشد، این به‌راحتی شناسایی می‌شود»، او افزود.

تصویر کلی: مدل‌های پیشرو در شناسایی آسیب‌پذیری‌های امنیتی بهتر می‌شوند — و نه تنها مدل‌های OpenAI.

  • در نتیجه، OpenAI اعلام می‌کند که تلاش‌های خود برای همکاری در سطح صنعت در حوزه تهدیدات امنیت‌سایبری را افزایش داده است؛ از جمله از طریق فوروم مدل‌های مرزی (Frontier Model Forum) که در سال ۲۰۲۳ با سایر آزمایشگاه‌های پیشرو راه‌اندازی کرد.
  • شرکت می‌گوید یک شورای ریسک مرزی جداگانه ایجاد خواهد کرد؛ یک گروه مشاوره‌ای که «دفاع‌کنندگان باتجربه امنیت سایبری و متخصصان امنیتی را به همکاری نزدیک با تیم‌های OpenAI می‌ارزد».
  • همچنین در مرحلهٔ تست خصوصی برای Aardvark است؛ ابزاری که توسعه‌دهندگان می‌توانند برای شناسایی نقاط ضعف امنیتی در محصولات خود استفاده کنند. برای دسترسی به Aardvark توسعه‌دهندگان باید درخواست دهند؛ این ابزار که OpenAI می‌گوید قبلاً آسیب‌پذیری‌های بحرانی را کشف کرده است.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *