
- Ina Fried

تصویر: آیدا امر/آکسیوس
OpenAI میگوید توانمندیهای سایبری مدلهای پیشرو هوش مصنوعی خود در حال تسریع هستند و روز چهارشنبه هشدار میدهد که مدلهای آینده احتمالاً خطر «بالا» ایجاد میکنند؛ این گزارش ابتدا با Axios به اشتراک گذاشته شد.
چرا مهم است: قابلیتهای رو به رشد این مدلها میتوانند بهصورت قابلتوجهی تعداد افرادی که قادر به انجام حملات سایبری هستند را افزایش دهند.
دلیل خبر: OpenAI اعلام کرد که در نسخههای اخیر شاهد افزایش چشمگیری در قابلیتها بوده است، بهویژه اینکه مدلها قادر به کار خودکار در مدت زمان طولانیتر هستند، که زمینهساز حملات بروتفورس میشود.
- شرکت اشاره میکند که GPT-5 در یک تمرین Capture‑the‑Flag در ماه اوت ۲۷٪ امتیاز کسب کرد؛ در حالی که GPT‑5.1‑Codex‑Max ماه گذشته ۷۶٪ امتیاز بهدست آورد.
- «ما انتظار داریم مدلهای آیندهٔ هوش مصنوعی این مسیر را ادامه دهند»، شرکت در گزارش میگوید. «در جهت آمادگی، ما برنامهریزی و ارزیابی میکنیم بهگونهای که هر مدل جدید میتواند به سطوح «بالا» از تواناییهای امنیتسایبری دست یابد، همانطور که در چارچوب آمادگی ما سنجیده میشود.»
بهسرعت پیگیری کنید: OpenAI در ماه ژوئن هشدار مشابهی در خصوص خطر سلاحهای زیستی صادر کرد؛ سپس در ماه ژوئیه ChatGPT Agent را عرضه کرد که در سطوح خطر خود «بالا» ارزیابی شد.
- «بالا» دومین سطح است که پایینتر از سطح «بحرانی» قرار دارد؛ در این سطح مدلها برای انتشار عمومی ایمن نیستند.
بله، اما: شرکت بهطور دقیق زمان انتظار اولین مدلهای دارای خطر امنیتسایبری «بالا» یا انواع مدلهای آیندهای که میتوانند چنین خطری داشته باشند را مشخص نکرد.
آنچه میگویند: «چیزی که میتوانم بهوضوح بهعنوان عامل اصلی این وضعیت نام ببرم، توانایی مدل برای کار کردن بهصورت طولانیمدت است»، فوئاد متین از OpenAI در مصاحبهٔ انحصاری با Axios گفت.
- این گونه حملات بروتفورس که به این زمان طولانی متکیاند، راحتتر قابل دفاع هستند، متین میگوید.
- «در هر محیطی که از لحاظ دفاعی مجهز باشد، این بهراحتی شناسایی میشود»، او افزود.
تصویر کلی: مدلهای پیشرو در شناسایی آسیبپذیریهای امنیتی بهتر میشوند — و نه تنها مدلهای OpenAI.
- در نتیجه، OpenAI اعلام میکند که تلاشهای خود برای همکاری در سطح صنعت در حوزه تهدیدات امنیتسایبری را افزایش داده است؛ از جمله از طریق فوروم مدلهای مرزی (Frontier Model Forum) که در سال ۲۰۲۳ با سایر آزمایشگاههای پیشرو راهاندازی کرد.
- شرکت میگوید یک شورای ریسک مرزی جداگانه ایجاد خواهد کرد؛ یک گروه مشاورهای که «دفاعکنندگان باتجربه امنیت سایبری و متخصصان امنیتی را به همکاری نزدیک با تیمهای OpenAI میارزد».
- همچنین در مرحلهٔ تست خصوصی برای Aardvark است؛ ابزاری که توسعهدهندگان میتوانند برای شناسایی نقاط ضعف امنیتی در محصولات خود استفاده کنند. برای دسترسی به Aardvark توسعهدهندگان باید درخواست دهند؛ این ابزار که OpenAI میگوید قبلاً آسیبپذیریهای بحرانی را کشف کرده است.
دیدگاهتان را بنویسید