«من کاملاً ناآرامم»: مدیرعامل آنتروپیک هشدار می‌دهد که گروهی از رهبران هوش مصنوعی، از جمله خود او، نباید مسئول آینده این فناوری باشند

داریو آمودی روی یک صندلی سفید جلوی پس‌زمینهٔ صورتی می‌نشیند و با حرکات پرشور صحبت می‌کند.
داریو آمودی، مدیرعامل آنتروپیک، گفت که نمی‌خواهد رهبران فناوری مسئول تعیین آینده امنیت هوش مصنوعی باشند. – چانس یِه—گی‌تی ایمیجز برای HubSpot

داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیم‌گیری‌های نهایی دربارهٔ چارچوب‌های ایمنی هوش مصنوعی را انجام دهد.


در مصاحبه‌ای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانه‌تری قرار گیرد و تصمیم‌گیری‌های مربوط به آیندهٔ این فناوری کمتر به‌ عهدهٔ رهبران بزرگ شرکت‌های فناوری باشد.

«فکر می‌کنم با این تصمیم‌ها که توسط چند شرکت و چند نفر اتخاذ می‌شوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کرده‌ام.»

«چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.

«هیچ‌کس. صادقانه بگویم، هیچ‌کس»، آمودی پاسخ داد.

آنتروپیک فلسفه شفاف بودن نسبت به محدودیت‌ها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابل‌توجهی انجام شده بود» جلوگیری کرده است.

هیچ مقررات فدرالی‌ای دربارهٔ ممنوعیت‌های هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کرده‌اند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کرده‌اند، کارشناسان صنعت فناوری از شرکت‌های هوش مصنوعی می‌خواهند که با حس اضطرار به امنیت سایبری بپردازند.

اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیش‌تر از زمان‌بندی پیش‌بینی‌شدهٔ ماندیا بود.

آمودی ریسک‌های کوتاه‌مدت، میان‌مدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همان‌طور که امروز مشاهده می‌شود، تعصبات و اطلاعات نادرست را گسترش می‌دهد. سپس با بهره‌گیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید می‌کند و در نهایت تهدیدی وجودی ایجاد می‌کند که با حذف اختیار انسانی، ممکن است به‌ خودگردان شدن برسد و انسان‌ها را از دسترسی به سیستم‌ها منع کند.

این نگرانی‌ها شبیه به نگرانی‌های «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک می‌تواند از انسان‌ها پیشی بگیرد و آن‌ها را کنترل کند، شاید در دههٔ آینده.

بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسه‌ای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانی‌های ایمنی هوش مصنوعی شرکت را ترک کرد.

«در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبه‌ای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدل‌ها اختصاص دهیم، آنها بهتر و بهتر می‌شوند و این روند تقریباً بی‌پایان است… و دوم این که فقط افزایش مقیاس مدل‌ها کافی نیست؛ باید چیزی دیگر مانند هم‌سویی یا ایمنی نیز در نظر گرفته شود.»

تلاش‌های شفافیت آنتروپیک

در حالی که آنتروپیک سرمایه‌گذاری‌های مراکز دادهٔ خود را گسترش می‌دهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستی‌ها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخه‌هایی از مدل Opus خود تهدید به اخلال می‌کردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواست‌های خطرناک، اگر دستورات مضر نظیر نحوه برنامه‌ریزی یک حملهٔ تروریستی دریافت می‌کرد، پاسخ می‌داد؛ این مشکل گفته می‌شود که از آن پس برطرف شده است.

هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چت‌بات Claude نمرهٔ ۹۴٪ برای بی‌طرفی سیاسی دریافت کرده است و در زمینهٔ بی‌طرفی بر رقیبان پیشی گرفته یا برابر آن‌هاست.

علاوه بر تلاش‌های پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاش‌های قانون‌گذاری برای مواجهه با ریسک‌های هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیس‌جمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال می‌کند، نقد کرد.

«هوش مصنوعی به‌ طرز سر‌گیجه‌ای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستم‌ها می‌توانند در دو سال آینده به‌ طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیش‌بینی‌ها بی‌اعتبار می‌شوند.»

روش آنتروپیک برای اشاره به نقص‌های خود و تلاش‌هایش برای رفع آن‌ها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دست‌کاری قانون‌گذاران به منظور محدود کردن استفاده از مدل‌های متن باز است.

«شما توسط افرادی که می‌خواهند مقررات را تحت کنترل خود درآورند، فریب خورده‌اید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را می‌ترسانند تا مدل‌های منبع باز تحت قانون‌گذاری قرار گیرند و نابودی یابند.»

آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.

سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به‌ نوعی برندینگ خوب منجر می‌شود اما هیچ تعهدی برای پیاده‌سازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانه‌بودن دربارهٔ کاستی‌های هوش مصنوعی است.

«آینده تصمیم می‌گیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام می‌کنیم»، او به کوپر گفت. «ممکن است به دنیای شرکت‌های سیگار یا شرکت‌های اپیوئید تشبیه شوید، جایی که آنها می‌دانستند خطراتی وجود دارد اما دربارهٔ آن‌ها صحبت نکردند و به‌ هیچ‌وجه از پیشگیری‌شان نکردند.»

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *