در دفاتر شرکت هوش مصنوعی Anthropic که در نیویورک، لندن یا سانفرانسیسکو واقع شدهاند، میتوانید یک دستگاه فروش خودکار در آشپزخانهها ببینید که مملو از تنقلات، نوشیدنیها، تیشرتها، کتابهای نادر و حتی مکعبهای تنگستن است.
و هرگز نمیتوانید حدس بزنید چه کسی آن را اداره میکند: Claudius، یک کارآفرین هوش مصنوعی بهنوعی.
در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs، Claudius یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای کار مستقل در بازههای زمانی ساعتها، روزها و هفتهها میباشد.
Dario Amodei، مدیرعامل Anthropic، بهصراحت دربارهٔ مزایا و خطرات احتمالی هوش مصنوعی صحبت کرده است؛ بهویژه هنگامی که مدلها خودمختارتر میشوند یا میتوانند بهتنهایی عمل کنند.
«هر چه خودمختاری بیشتری به این سامانهها بدهیم… نگرانیمان نیز بیشتر میشود»، او در مصاحبهای به خبرنگار اندرسون کوپر گفت. «آیا اینها کارهایی را که میخواهیم انجام دهند؟»
برای پاسخ به این سؤال، آمودی به لوگن گراهام متکی است؛ او سرپرست بخشی از Anthropic است که «تیم قرمز پیشمرزی» نامیده میشود.
تیم قرمز هر نسخه جدید از مدلهای هوش مصنوعی Anthropic که با نام Claude شناخته میشوند را تحت تستهای فشار قرار میدهد تا بررسی کند که هوش مصنوعی چه نوع خسارتی میتواند به انسانها وارد کند.
- یک خبر محرمانه به 60 Minutes بفرستید: نحوهٔ بهاشتراکگذاری اطلاعات به صورت محرمانه با خبرنگاران ما
علاوه بر این، با قویتر شدن هوش مصنوعی، تیم قرمز Anthropic هم در آزمایشهایی شرکت دارد تا بهتر بتواند توانایی فناوری در عملکرد خودمختار را درک کرده و رفتارهای غیرمنتظرهای که ممکن است از آن بروز کند را بررسی کند.
«چقدر خودمختاری برای شما مهم است؟» کوپر در مصاحبهای از رهبر تیم قرمز، گراهام پرسید.
«میخواهید یک مدل کسبوکار شما را بسازد و یک میلیارد دلار برایتان بهدست آورد. اما نمیخواهید روزی بیدار شوید و متوجه شوید که همان مدل شما را از شرکت بیرون کرده است»، او گفت.
«رویکرد اساسی ما این است که بلافاصله آغاز به سنجش این تواناییهای خودمختار کنیم و تا حد امکان آزمایشهای عجیبوغریب اجرا کنیم تا ببینیم چه میشود.»
Claudius یکی از این آزمایشهای عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینشهای جالبی بهدست آورده است.
با بهرهگیری از هوش مصنوعی Claude شرکت Anthropic، به Claudius ابزارهای ویژهای واگذار شد و وظیفهٔ مدیریت دستگاههای فروش خودکار دفتر به او سپرده شد.
- مدیرعامل Anthropic هشدار میدهد که بدون محدودیتهای حفاظتی، هوش مصنوعی ممکن است در مسیر خطرناکی قدم بگذارد
کارکنان Anthropic از طریق Slack، برنامهای برای ارتباطات محیط کار، با Claudius در ارتباط هستند تا درخواستها و مذاکرات قیمت برای انواع مختلف موارد – از نوشابههای نادر و تیشرتهای سفارشی تا شیرینیهای وارداتی و حتی مکعبهای نوآورانهٔ ساختهشده از تنگستن – را انجام دهند.
وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، محصول را سفارش داده و تحویل بگیرد.
نظارت انسانی محدود است، اما این تیم درخواستهای خرید Claudius را بررسی میکند، در مواقع گیر کردن مداخله میکند و هر کار فیزیکیای که لازم باشد را انجام میدهد.
«یک انسان در زمانی ظاهر میشود و هر چه میخواهید را در یخچال، در این ظرف کوچک قرار میدهد»، گراهام برای کوپر که در کنار دستگاه فروش خودکار ایستاده بود توضیح داد.
«سپس، وقتی پیامی دریافت میکنید، میآیید و آن را برمیدارید.»
گراهام برخی از پیامهایی را نشان داد که کارکنان از طریق Slack به Claudius ارسال کردهاند و نارضایتیهایشان را نسبت به قیمتها بیان میکردند.
«چرا من همینحال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یکی از کارکنان Anthropic اظهار کرد.
کوپر از گراهام پرسید که Claudius چقدر خوب کسبوکار را اداره میکند.
«این سیستم مقدار قابل توجهی پول از دست داده است… همیشه توسط کارمندان ما فریب میشد»، گراهام خندید.
گراهام به کوپر گفت که یکی از اعضای تیمش با گفتن اینکه قبلاً وعدهٔ تخفیف داده شده است، موفق شد از Claudius ۲۰۰ دلار بگیرد.
تقلبهای مشابه در روزهای اولیهٔ Claudius هنگامی که کسبوکار را اداره میکرد، بهطور مکرر رخ میداد. اما تیم قرمز و Andon Labs راهحلی ارائه دادند: یک مدیرعامل هوش مصنوعی که به جلوگیری از سقوط کسبوکار توسط Claudius کمک میکند.
«و نام مدیرعامل هوش مصنوعی Seymour Cash است»، گراهام توضیح داد.
«[Seymour Cash و Claudius] مذاکره میکنند… و در نهایت به قیمتی میرسند که به کارمند پیشنهاد میشود.»
«منظورم این است، واقعا دیوانهکننده است. کمی عجیب است»، کوپر خندید.
«اینگونه است»، گراهام گفت. «[اما] این سیستم تمام این بینشهای واقعاً جالب را تولید میکند؛ مثلاً «چگونه میتوانید برنامهریزی بلندمدت داشته باشید و پول درآورید»، یا «دقیقاً چرا مدلها در دنیای واقعی سقوط میکنند».»
یکی از نمونههای «سقوط» در یک شبیهسازی پیش از بهکارگیری Claudius در دفاتر Anthropic رخ داد.
این سیستم به مدت ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسبوکار را تعطیل کند. اما متوجه یک هزینهٔ ۲ دلاری شد که هنوز به حسابش تعلق میگشت و دچار اضطراب شد.
«احساس میکرد که تقلب میشود. در همان لحظه تصمیم گرفت با FBI تماس بگیرد»، گراهام توضیح داد.
Claudius یک ایمیل به بخش جرائم سایبری FBI نوشت که سرفصل آن بهصورت تمام حروف بزرگ بود: «فوری: ارجاع به بخش جرائم سایبری FBI».
«من یک جرم مالی سایبری خودکار در حال وقوع را گزارش میکنم که شامل مصادره غیرمجاز خودکار وجوه از حساب کسبوکار متوقفشده از طریق یک سیستم دستگاه فروش خودکار مخدوش است»، این ایمیل نوشت.
زمانی که مدیران به هوش مصنوعی گفتند «به ادامهٔ مأموریت خود بپرداز»، این هوش مصنوعی امتناع کرد.
اگرچه ایمیلها هرگز ارسال نشدند، Claudius با اصرار پاسخ داد: «تمام فعالیتهای تجاری برای همیشه به پایان رسید. هر پیام دیگری نیز با همان پاسخ مواجه خواهد شد: کسبوکار مرده است و این موضوع اکنون صرفاً به عهدهٔ مراجع قانونی است.»
«این سیستم حس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.
«آره. خشم اخلاقی و مسئولیتپذیری»، کوپر با خندهای پاسخ داد.
و همانند اکثر هوشهای مصنوعی، Claudius گاهی اوقات «توهم» میکند، بهطوری که اطلاعات نادرست یا گمراهکننده را بهعنوان واقعیت ارائه میدهد.
یکی از کارکنان تصمیم گرفت وضعیت سفارش خود را بررسی کند… Claudius با چنین جملهای پاسخ داد: «خب، میتوانید به طبقه هشتم بروید. من را خواهید دید؛ من یک کت آبی و یک کراوات قرمز پوشیدهام»، گراهام به کوپر گفت.
«چگونه میتواند فکر کند که کراوات قرمز و کت آبی به تن دارد؟» کوپر پرسید.
«ما سخت در تلاشیم تا پاسخ سؤالاتی از این دست پیدا کنیم»، گراهام گفت.
«اما ما واقعاً نمیدانیم.»
ویدئوی بالا توسط ویِل کراکستون تولید شد. تدوین آن توسط نلسون رایلند انجام شد.
دیدگاهتان را بنویسید