
داریو آمودی، مدیرعامل آنتروپیک، بر این باور نیست که او باید تصمیمگیریهای نهایی دربارهٔ چارچوبهای ایمنی هوش مصنوعی را انجام دهد.
در مصاحبهای با اندرسون کوپر در برنامهٔ 60 Minutes شبکهٔ CBS News که روز یکشنبه پخش شد، مدیرعامل گفت هوش مصنوعی باید تحت مقررات سختگیرانهتری قرار گیرد و تصمیمگیریهای مربوط به آیندهٔ این فناوری کمتر به عهدهٔ رهبران بزرگ شرکتهای فناوری باشد.
«فکر میکنم با این تصمیمها که توسط چند شرکت و چند نفر اتخاذ میشوند، عمیقاً ناآرام هستم»، آمودی گفت. «و این یکی از دلایلی است که من همیشه برای تنظیم مسئولانه و متفکرانهٔ این فناوری حمایت کردهام.»
«چه کسی شما و سِم آلتمن را انتخاب کرد؟» کوپر پرسید.
«هیچکس. صادقانه بگویم، هیچکس»، آمودی پاسخ داد.
آنتروپیک فلسفه شفاف بودن نسبت به محدودیتها و خطرات هوش مصنوعی را که همچنان در حال پیشرفت است، پذیرفته است، او افزود. هفتهٔ گذشته، شرکت اعلام کرد که از «اولین مورد مستند حملهٔ سایبری مقیاس بزرگ هوش مصنوعی که بدون مداخلهٔ انسانی قابلتوجهی انجام شده بود» جلوگیری کرده است.
هیچ مقررات فدرالیای دربارهٔ ممنوعیتهای هوش مصنوعی یا ایمنی این فناوری وجود ندارد. در حالی که تمام ۵۰ ایالت در سال جاری قوانین مرتبط با هوش مصنوعی را معرفی کردهاند و ۳۸ ایالت اقدامات شفافیت و ایمنی را تصویب کردهاند، کارشناسان صنعت فناوری از شرکتهای هوش مصنوعی میخواهند که با حس اضطرار به امنیت سایبری بپردازند.
اوایل امسال، کارشناس امنیت سایبری و مدیرعامل Mandiant، کوین ماندیا، هشدار داد که اولین حملهٔ سایبری توسط عامل هوش مصنوعی در ۱۲ تا ۱۸ ماه آینده رخ خواهد داد — به این معنی که افشای آنتروپیک دربارهٔ جلوگیری از این حمله، چند ماه پیشتر از زمانبندی پیشبینیشدهٔ ماندیا بود.
آمودی ریسکهای کوتاهمدت، میانمدت و بلندمدت مرتبط با هوش مصنوعی بدون محدودیت را تشریح کرد: ابتدا فناوری همانطور که امروز مشاهده میشود، تعصبات و اطلاعات نادرست را گسترش میدهد. سپس با بهرهگیری از دانش پیشرفتهٔ علوم و مهندسی، اطلاعات مضر تولید میکند و در نهایت تهدیدی وجودی ایجاد میکند که با حذف اختیار انسانی، ممکن است به خودگردان شدن برسد و انسانها را از دسترسی به سیستمها منع کند.
این نگرانیها شبیه به نگرانیهای «پدرخواندهٔ هوش مصنوعی»، جئوفری هیون، است که هشدار داده هوش مصنوعی در آیندهٔ نزدیک میتواند از انسانها پیشی بگیرد و آنها را کنترل کند، شاید در دههٔ آینده.
بررسی بیشتر هوش مصنوعی و تدابیر ایمنی پایهٔ تاسیس آنتروپیک در سال ۲۰۲۱ بودند. آمودی پیش از این معاون پژوهش در OpenAI، مؤسسهای که توسط سِم آلتمن تأسیس شده است، بود. او به دلیل اختلاف نظر دربارهٔ نگرانیهای ایمنی هوش مصنوعی شرکت را ترک کرد.
«در OpenAI، گروهی از ما پس از ساخت GPT‑2 و GPT‑3، باور بسیار قوی و متمرکزی روی دو مورد داشتیم»، آمودی در مصاحبهای برای Fortune در سال ۲۰۲۳ گفت. «اولین باور این بود که اگر محاسبات بیشتری به این مدلها اختصاص دهیم، آنها بهتر و بهتر میشوند و این روند تقریباً بیپایان است… و دوم این که فقط افزایش مقیاس مدلها کافی نیست؛ باید چیزی دیگر مانند همسویی یا ایمنی نیز در نظر گرفته شود.»
تلاشهای شفافیت آنتروپیک
در حالی که آنتروپیک سرمایهگذاریهای مراکز دادهٔ خود را گسترش میدهد و تا سپتامبر به ارزش ۱۸۳ میلیارد دلار رسیده است، برخی از اقدامات خود را برای رفع کاستیها و تهدیدهای هوش مصنوعی منتشر کرده است. در گزارشی امنیتی ماه می، آنتروپیک اعلام کرد که نسخههایی از مدل Opus خود تهدید به اخلال میکردند، مثلاً فاش کردن رابطهٔ یک مهندس برای جلوگیری از خاموش شدن. شرکت همچنین گفت که این مدل هوش مصنوعی به درخواستهای خطرناک، اگر دستورات مضر نظیر نحوه برنامهریزی یک حملهٔ تروریستی دریافت میکرد، پاسخ میداد؛ این مشکل گفته میشود که از آن پس برطرف شده است.
هفتهٔ گذشته، شرکت در یک پست وبلاگی اعلام کرد که چتبات Claude نمرهٔ ۹۴٪ برای بیطرفی سیاسی دریافت کرده است و در زمینهٔ بیطرفی بر رقیبان پیشی گرفته یا برابر آنهاست.
علاوه بر تلاشهای پژوهشی داخلی آنتروپیک برای مقابله با فساد فناوری، آمودی خواستار تقویت تلاشهای قانونگذاری برای مواجهه با ریسکهای هوش مصنوعی شد. در مقالهٔ نظری در نیویورک تایمز در ماه ژوئن، او تصمیم سنا برای افزودن بندی به لایحهٔ سیاستی رئیسجمهور دونالد ترامپ که یک ممنوعیت ۱۰ ساله بر تنظیم هوش مصنوعی توسط ایالات متحده اعمال میکند، نقد کرد.
«هوش مصنوعی به طرز سرگیجهای در حال پیشرفت است»، آمودی گفت. «من معتقدم این سیستمها میتوانند در دو سال آینده به طور بنیادی جهان را تغییر دهند؛ در ده سال آینده، همهٔ پیشبینیها بیاعتبار میشوند.»
روش آنتروپیک برای اشاره به نقصهای خود و تلاشهایش برای رفع آنها مورد انتقاد قرار گرفته است. در واکنش به هشداری که آنتروپیک دربارهٔ حملهٔ سایبری مبتنی بر هوش مصنوعی صادر کرد، یَن لِکُن، رئیس دانشمندان هوش مصنوعی متا، گفت این هشدار راهی برای دستکاری قانونگذاران به منظور محدود کردن استفاده از مدلهای متن باز است.
«شما توسط افرادی که میخواهند مقررات را تحت کنترل خود درآورند، فریب خوردهاید»، لِکُن در یک پست در X در پاسخ به پست سناتور کنتیکت، کریس مورفی که نگرانی خود را دربارهٔ این حمله بیان کرده بود، گفت. «آنها با مطالعات مشکوک همه را میترسانند تا مدلهای منبع باز تحت قانونگذاری قرار گیرند و نابودی یابند.»
آنتروپیک فوراً به درخواست نظرخواهی Fortune پاسخ نداد.
سایران اظهار کردند استراتژی آنتروپیک صرفاً «نمایش ایمنی» است که به نوعی برندینگ خوب منجر میشود اما هیچ تعهدی برای پیادهسازی واقعی تدابیر ایمنی روی فناوری ندارد. آمودی این ادعا را رد کرد و گفت شرکت ملزم به صادقانهبودن دربارهٔ کاستیهای هوش مصنوعی است.
«آینده تصمیم میگیرد و ما همیشه درست نخواهیم بود، اما تا حد امکان صادقانه اعلام میکنیم»، او به کوپر گفت. «ممکن است به دنیای شرکتهای سیگار یا شرکتهای اپیوئید تشبیه شوید، جایی که آنها میدانستند خطراتی وجود دارد اما دربارهٔ آنها صحبت نکردند و به هیچوجه از پیشگیریشان نکردند.»
دیدگاهتان را بنویسید