«بزرگ‌ترین تصمیم تا کنون»: جارد کاپلان درباره اجازه دادن به هوش مصنوعی برای خودآموزی

دانشمند ارشد Anthropic می‌گوید خودمختاری هوش مصنوعی می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها کنترل را از دست می‌دهند.

رابرت بوث، سردبیر فناوری در بریتانیا

جارد کاپلان
جارد کاپلان. تصویر: کیسی کلیفورد/گاردین
کاپلان پشت یک میزی که نزدیک به پنجره‌های بزرگ با نمایی از آسمان‌خراش است
تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

انسانیت تا سال ۲۰۳۰ باید تصمیم بگیرد که آیا می‌خواهد «ریسک نهایی» را بپذیرد و به سامانه‌های هوش مصنوعی اجازه دهد خود را آموزش دهند و قدرتمندتر شوند، به گفته یکی از برجسته‌ترین دانشمندان هوش مصنوعی جهان.

جارد کاپلان، دانشمند ارشد و یکی از مالکین استارتاپ آمریکایی Anthropic با سرمایه‌گذاری ۱۸۰ میلیارد دلار (۱۳۵ میلیارد پوند)، گفت تصمیمی در پیش است درباره این‌که به سامانه‌ها تا چه حد خودمختاری برای توسعه‌پذیری اعطا شود.

این اقدام می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها از کنترل خارج می‌شوند.

در مصاحبه‌ای درباره مسابقهٔ به شدت رقابتی برای دستیابی به هوش عمومی مصنوعی (AGI) – که گاهی اوقات «فوق‌هوش» نامیده می‌شود – کاپلان از دولت‌های بین‌المللی و جامعه می‌خواهد تا در آنچه او «بزرگ‌ترین تصمیم» می‌نامد، مشارکت کنند.

Anthropic بخشی از گروهی از شرکت‌های پیشرو در حوزه هوش مصنوعی شامل OpenAI، Google DeepMind، xAI، Meta و رقبای چینی به‌سرکردگی DeepSeek است که برای تسلط بر هوش مصنوعی به‌سرعت به رقابت می‌پردازند. دستیار هوش مصنوعی گسترده‌استفاده‌اش، Claude، به‌ویژه در میان مشتریان تجاری محبوبیت یافته است.

صفحه تبلتی که می‌گوید: «تحقیقات و محصولات هوش مصنوعی که ایمنی را در لبه پیشرفت می‌گذارند»
تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

کاپلان گفت که اگرچه تلاش‌ها برای همسویی فناوری به سرعت پیشرو با منافع انسانی تا کنون موفق بوده‌اند، رها کردن آن برای بهبود خود به‌صورت بازگشتی «به‌نوعی ریسک نهایی است، چون شبیه این است که اجازه می‌دهیم هوش مصنوعی آزادانه پیش برود». او افزود که این تصمیم ممکن است بین سال‌های ۲۰۲۷ تا ۲۰۳۰ اتخاذ شود.

«اگر تصور کنید این فرآیند را ایجاد می‌کنید که در آن هوش مصنوعی‌ای دارید که هوشمندتر از شما است، یا تقریباً به‌ اندازهٔ شما، در نتیجه هوش مصنوعی‌ای بسیار هوشمندتر می‌سازید».

کاپلان پشت یک صندلی پر‌کوسک، کنار یک گیاه خانگی بزرگ
تصویر: کیسی کلیفورد/گاردین

«به‌نظر می‌رسد فرآیندی ترسناک است. نمی‌دانید به کجا خواهید رسید».

کاپلان پس از گذشت هفت سال فعالیت در این حوزه، از یک فیزیک‌دان نظری به میلیاردر هوش مصنوعی تبدیل شده است. در مصاحبه‌ای جامع، او همچنین گفت:

  • سیستم‌های هوش مصنوعی قادر خواهند بود «اکثریت مشاغل سفیدپوش» را در دو تا سه سال آینده انجام دهند.
  • فرزند شش‌ساله‌اش هرگز در کارهای علمی مثل نوشتن مقاله یا انجام آزمون ریاضی بهتر از هوش مصنوعی نخواهد بود.
  • نگرانی دربارهٔ از دست دادن کنترل انسان‌ها بر فناوری، اگر هوش‌های مصنوعی خود را بهبود دهند، صحیح است.
  • شرط‌ها در مسابقه به سوی AGI «دلهره‌آور» به‌نظر می‌رسند.
  • در بهترین سناریو، هوش مصنوعی می‌تواند پژوهش‌های زیست‌پزشکی را شتاب دهد، بهبود سلامت و امنیت سایبری، افزایش بهره‌وری، فراهم کردن زمان آزاد بیشتر برای مردم و کمک به رشد و شکوفایی انسان‌ها را ممکن سازد.

کاپلان در دفتر مرکزی Anthropic در سانفرانسیسکو، زمانی که با گاردین ملاقات کرد، توجه داشت که دکور با فرش‌های بافتنی و موسیقی جاز پرانرژی، نگرانی‌های بنیادین درباره فناوری در حال توسعه را در پس‌زمینه پنهان می‌کند.

آسمان‌خراش‌ها بازتاب‌دار بر نمای شیشه‌ای یک ساختمان
سانفرانسیسکو به مرکز استارتاپ‌ها و سرمایه‌گذاری‌های هوش مصنوعی تبدیل شده است. تصویر: واشنگتن پست/گتی ایمجز

کاپلان استاد فیزیک تحصیل‌کرده در استنفورد و هاروارد است که پیش از پیوستن به OpenAI در سال ۲۰۱۹ و هم‌بنیان‌گذاری Anthropic در سال ۲۰۲۱، تحقیقات خود را در دانشگاه جانز هاپکینز و در سرن سوئیس انجام داده است.

او تنها کسی که در Anthropic نگرانی‌های خود را بیان می‌کند نیست. یکی از هم‌بنیان‌گذارانش، جک کلارک، در ماه اکتبر گفت هم خوش‌بین است و هم «به‌طور عمیق ترسیده» از مسیر پیشرفت هوش مصنوعی، که او «موجودی واقعی و رازآلود، نه یک ماشین ساده و پیش‌بینی‌پذیر» می‌نامید.

کاپلان گفت نسبت به تطبیق سامانه‌های هوش مصنوعی با منافع بشریت تا سطح هوش انسانی، بسیار خوش‌بین است، اما دربارهٔ پیامدهایی که در صورت عبور از این آستانه ممکن است پیش آید، نگران است.

من فکر می‌کنم پیشگیری از تصاحب قدرت و سوء استفاده از فناوری نیز بسیار مهم است.

کاپلان با دستان جمع‌ شده به سمت پایین نگاه می‌کند
تصویر: کیسی کلیفورد/گاردین

دومین ریسک به امنیت مربوط می‌شود؛ زیرا هوش‌های مصنوعی خودآموخته می‌توانند توانایی‌های انسانی در پژوهش‌های علمی و توسعهٔ فناوری را فراتر ببرند.

به‌نظر می‌رسد بسیار خطرناک باشد که در دست‌های نادرست قرار گیرد.

پژوهش‌های مستقل دربارهٔ مدل‌های پیشرفتهٔ هوش مصنوعی، از جمله ChatGPT، نشان می‌دهد که دامنهٔ وظایفی که هوش‌های مصنوعی می‌توانند انجام دهند، هر هفت ماه دو برابر می‌شود.

آیندهٔ هوش مصنوعی

رقبا در رقابت برای ایجاد فوق‌هوش. این مقاله با همکاری تیم طراحی تحریریه تهیه شده است. برای اطلاعات بیشتر از این سری مقاله‌ها بخوانید.

نویسندگان

Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo

طراحی و توسعه

Rich Cousins, Harry Fischer, Pip Lev, Alessia Amitrano

ویراستاران تصویر

Fiona Shields, Jim Hedge, Gail Fletcher

کاپلان نگران این است که سرعت پیشرفت به‌گونه‌ای است که کل بشریت نتوانسته است قبل از پرش دوبارهٔ فناوری، به آن عادت کند.

«من دربارهٔ این موضوع نگرانم … شاید افرادی مثل من همه دیوانه شوند و همه‌چیز به یک حد ثابت برسد»، او گفت. «شاید بهترین هوش مصنوعی تا الآن همان هوش مصنوعی باشد که در حال حاضر داریم. اما ما واقعاً به این فکر نداریم. ما معتقدیم که هوش مصنوعی همچنان بهبود خواهد یافت.»

او افزود: «این مساله‌ای است که به‌سرعت پیش می‌رود و مردم لزوماً زمان کافی برای هضم آن یا فهمیدن اینکه چه کاری باید انجام دهند ندارند.»

Anthropic در رقابت با OpenAI، Google DeepMind و xAI برای توسعه سامانه‌های هوش مصنوعی پیشرفته‌تر در مسیر AGI است. کاپلان توصیف کرد که فضای منطقه خلیج سانفرانسیسکو «قطعا بسیار شدید است، هم از نظر اهمیت هوش مصنوعی و هم از منظر رقابت‌پذیری».

«راهی که ما به آن نگاه می‌کنیم این است که همه چیز در یک روند نمایی از نظر سرمایه‌گذاری، درآمد، توانمندی‌های هوش مصنوعی، و چگونگی پیچیدگی وظایفی که هوش مصنوعی می‌تواند انجام دهد، پیش می‌رود»، او گفت.

سرعت پیشرفت به این معناست که ریسک افت یکی از رقباء و عقب‌ماندگی آن‌ها زیاد است. «اهمیت‌ها برای ماندن در لبهٔ پیشرفت بالا است؛ به‌طوری که اگر از منحنی نمایی خارج شوید، به‌سرعت می‌توانید حداقل از نظر منابع خیلی عقب بمانید.»

تا سال ۲۰۳۰، مراکز داده‌های جهانی برای همگامی با تقاضای توان محاسباتی، به‌طبق برآورد مک‌کنزی، به ۶٫۷ میلیون میلیارد دلار نیاز خواهند داشت. سرمایه‌گذاران می‌خواهند شرکت‌هایی را که نزدیک به پیش‌درآمدهای این حوزه هستند، حمایت کنند.

نام و لوگوی Claude بر روی صفحهٔ بزرگ پشت یک گوشی هوشمند که لوگوی مشابهی دارد
بعضی از بزرگ‌ترین دستاوردها در استفاده از هوش‌های مصنوعی برای نوشتن کدهای کامپیوتری به‌دست آمده است. تصویر: Cheng Xin/Getty Images

در عین حال، Anthropic به‌خاطر تشویق به تنظیم مقررات هوش مصنوعی شناخته شده است. بیانیهٔ ماموریت آن شامل بخشی با عنوان «ما سیستم‌های ایمن‌تری می‌سازیم» می‌باشد.

«ما واقعاً نمی‌خواهیم وضعیت به‌مانند سفینهٔ اسپوتنیک باشد که دولت ناگهان بیدار می‌شود و می‌گوید: «اوه، هوش مصنوعی مسئلهٔ بزرگی است» … ما می‌خواهیم قانون‌گذاران تا حد امکان در طول مسیر آگاه باشند تا بتوانند این موضوع را در نظر بگیرند.»

در ماه اکتبر، موضع Anthropic باعث انتقاد از سوی سفیدخانه دونالد ترامپ شد. دیوید ساکس، مشاور هوش مصنوعی رئیس‌جمهور آمریکا، Anthropic را به‌عنوان «افرینندهٔ ترس» متهم کرد تا با تشویق به تنظیم قوانین ایالتی که به موضع آن‌ها کمک می‌کند و استارتاپ‌ها را آسیب می‌زند.

پس از اینکه ساکس ادعا کرد که Anthropic خود را «دشمنی» نسبت به دولت ترامپ معرفی کرده است، داریو آمودی، هم‌بنیان‌گذار کاپلان و مدیرعامل Anthropic، در برابر این ادعا واکنش نشان داد و گفت که این شرکت به‌صورت عمومی برنامهٔ عملیاتی هوش مصنوعی ترامپ را تحسین کرده، با جمهوری‌خواهان همکاری داشته و همانند سفیدخانه می‌خواهد پیشرو بودن ایالات متحده در حوزه هوش مصنوعی را حفظ کند.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *