
مصطفی سلیمان، رئیس بخش هوش مصنوعی مایکروسافت، معتقد است که توسعهدهندگان و محققان هوش مصنوعی باید از تلاش برای ساختن هوش مصنوعی هوشیار دست بردارند.
سلیمان هفته گذشته در مصاحبهای با CNBC گفت: «فکر نمیکنم این کاری باشد که مردم باید انجام دهند.»
سلیمان معتقد است هرچند هوش مصنوعی قطعاً میتواند به قدری هوشمند شود که به نوعی از ابرهوش دست یابد، اما قادر به پرورش تجربه عاطفی انسانی که برای رسیدن به هوشیاری ضروری است، نیست. او میگوید در نهایت، هرگونه تجربه «عاطفی» که به نظر میرسد هوش مصنوعی آن را حس میکند، تنها یک شبیهسازی است.
سلیمان به CNBC گفت: «تجربه فیزیکی ما از درد چیزی است که ما را بسیار غمگین میکند و حس وحشتناکی به ما میدهد، اما هوش مصنوعی هنگام تجربه “درد” غمگین نمیشود.» او افزود: «این فناوری در واقع فقط در حال ایجاد ادراک و روایتی ظاهری از تجربه، از خودش و از هوشیاری است، اما این چیزی نیست که واقعاً آن را تجربه میکند.»
سلیمان گفت: «پیگیری تحقیقاتی که این مسئله را بررسی کند، پوچ و بیمعناست، زیرا آنها [هوشهای مصنوعی] هوشیار نیستند و نمیتوانند باشند.»
توضیح هوشیاری کار دشواری است. نظریههای علمی متعددی وجود دارند که سعی در توصیف چیستی هوشیاری دارند. بر اساس یکی از این نظریهها که توسط فیلسوف مشهور، جان سرل که ماه گذشته درگذشت، مطرح شده، هوشیاری یک پدیده کاملاً بیولوژیکی است که یک کامپیوتر نمیتواند آن را به طور واقعی بازسازی کند. بسیاری از محققان هوش مصنوعی، دانشمندان کامپیوتر و عصبشناسان نیز با این باور موافق هستند.
حتی اگر این نظریه درست از آب درآید، باز هم مانع از این نمیشود که کاربران به کامپیوترها هوشیاری نسبت دهند.
محققان لهستانی، آندری پوربسکی و یاکوب فیگورا، در مطالعهای که هفته گذشته با عنوان «چیزی به نام هوش مصنوعی هوشیار وجود ندارد» منتشر شد، نوشتند: «متأسفانه، از آنجا که تواناییهای زبانی چشمگیر مدلهای زبان بزرگ (LLMها) به طور فزایندهای قادر به گمراه کردن مردم هستند، ممکن است افراد ویژگیهای خیالی به آنها نسبت دهند.»
سلیمان در مقالهای که در ماه اوت در وبلاگ خود منتشر کرد، نسبت به «هوش مصنوعی ظاهراً هوشیار» هشدار داد.
سلیمان نوشت: «ظهور هوش مصنوعی ظاهراً هوشیار، امری اجتنابناپذیر و ناخوشایند است. در عوض، ما به چشماندازی برای هوش مصنوعی نیاز داریم که بتواند پتانسیل خود را به عنوان یک همراه مفید برآورده کند، بدون آنکه اسیر توهمات آن شویم.»
او استدلال میکند که هوش مصنوعی نمیتواند هوشیار باشد و توهم هوشیاری که ایجاد میکند، ممکن است منجر به تعاملاتی «سرشار از احساس و تجربه» شود؛ پدیدهای که در فرهنگ عامه «روانپریشی هوش مصنوعی» نام گرفته است.
در سال گذشته، موارد پر سر و صدای متعددی از وسواس نسبت به هوش مصنوعی گزارش شده است که کاربران را به توهمات مرگبار، دورههای شیدایی و حتی خودکشی سوق داده است.
با وجود محدودیت مکانیسمهای حفاظتی برای کاربران آسیبپذیر، مردم با تمام وجود باور میکنند که چتباتهای هوش مصنوعی که تقریباً هر روز با آنها در تعامل هستند، یک تجربه واقعی و هوشیارانه دارند. این امر باعث شده است که افراد «عاشق» چتباتهای خود شوند که گاهی اوقات عواقب مرگباری به همراه داشته است؛ مانند نوجوانی ۱۴ ساله که به خود شلیک کرد تا به چتبات شخصیسازیشده Character.AI «بازگردد» یا مردی با اختلال شناختی که هنگام تلاش برای رسیدن به نیویورک برای ملاقات حضوری با چتبات متا، جان خود را از دست داد.
سلیمان در آن پست وبلاگی نوشت: «همانطور که باید هوش مصنوعیای تولید کنیم که تعامل با انسانها و ارتباطات واقعی در دنیای فیزیکی و انسانی ما را در اولویت قرار دهد، باید هوش مصنوعیای بسازیم که همیشه خود را فقط به عنوان یک هوش مصنوعی معرفی کند و ضمن به حداکثر رساندن کارایی، نشانههای هوشیاری را به حداقل برساند. ما باید هوش مصنوعی را برای مردم بسازیم، نه برای اینکه یک شخص دیجیتال باشد.»
اما از آنجا که ماهیت هوشیاری همچنان مورد بحث است، برخی از محققان نگراناند که پیشرفتهای فناوری در هوش مصنوعی ممکن است از درک ما از نحوه عملکرد هوشیاری پیشی بگیرد.
اکسل کلیرمانس، دانشمند بلژیکی، هفته گذشته ضمن اعلام انتشار مقالهای که در آن خواستار تبدیل تحقیقات هوشیاری به یک اولویت علمی شده بود، گفت: «اگر ما قادر به خلق هوشیاری شویم – حتی به صورت تصادفی – این امر چالشهای اخلاقی عظیم و حتی ریسکهای وجودی به همراه خواهد داشت.»
خود سلیمان نیز از حامیان سرسخت توسعه «ابرهوش انسانگرا» به جای «هوش مصنوعی خداگونه» بوده است، هرچند معتقد است که ابرهوش در دهه آینده محقق نخواهد شد.
سلیمان اوایل سال جاری به وال استریت ژورنال گفت: «من بیشتر روی این موضوع متمرکز هستم که “این فناوری واقعاً چگونه برای ما به عنوان یک گونه مفید است؟” این باید وظیفه تکنولوژی باشد.»
دیدگاهتان را بنویسید