چگونه دزدهای موزه لوور از روان‌شناسی انسانی برای فرار از مشکوک شدن بهره بردند – و آنچه درباره هوش مصنوعی نشان می‌دهد

Yoan Valat / تصاویر EPA

در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا می‌شود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را به‌دست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارت‌ترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.

بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگ‌ها فعال شد). مردان پیش از این‌که کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.

پژوهشگران سپس فاش کردند که دزدها جلیقه‌های روشن‌دار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آن‌ها با یک بالابر مبلمان، که در خیابان‌های باریک پاریس معمولاً دیده می‌شود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه می‌کرد، استفاده کردند. پوشش کارگری‌شان باعث شد به‌نظر برسد که بخشی از محیط هستند.

این استراتژی مؤثر بود زیرا ما جهان را به‌صورت عینی نمی‌بینیم. ما آن را از طریق دسته‌بندی‌ها می‌بینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دسته‌بندی‌های اجتماعی که ما به‌عنوان «نرمال» می‌شناسیم، درک کردند و از آن‌ها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانه‌های هوش مصنوعی (AI) به‌طور مشابه عمل می‌کنند و در نتیجه به همان نوع اشتباهات مستعد هستند.

سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقش‌های اجتماعی را «اجرا» می‌کنند با به‌کارگیری نشانه‌هایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالی‌بودن» به‌عنوان یک پوشش کامل تبدیل شد.

جامعه‌شناسی نگاه

انسان‌ها به‌طور مداوم دسته‌بندی‌های ذهنی انجام می‌دهند تا افراد و مکان‌ها را درک کنند. وقتی چیزی در دسته «عادی» جای می‌گیرد، از نگاه ما پنهان می‌شود.

سیستم‌های هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیت‌های مشکوک در فضاهای عمومی به‌کار می‌روند، به‌صورت مشابهی عمل می‌کنند. برای انسان‌ها، دسته‌بندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.

اما هر دو سیستم بر الگوهای یادگرفته‌شده به‌جای واقعیت عینی تکیه دارند. چون هوش مصنوعی از داده‌هایی که چه کسی «نرمال» و چه کسی «مشکوک» به‌نظر می‌رسد می‌آموزد، دسته‌بندی‌های موجود در داده‌های آموزشی خود را جذب می‌کند. این امر باعث می‌شود که به تعصب حساس شود.

دزدهای لوور به‌دلیل انطباق با یک دسته‌بندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند می‌تواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیش‌ازحد قرار می‌گیرند.

این می‌تواند به این معنا باشد که سامانه تشخیص چهره به‌طور نامتناسبی برخی گروه‌های نژادی یا جنسیتی را به‌عنوان تهدیدهای احتمالی نشان می‌دهد، در حالی که دیگران را نادیده می‌گیرد.

نگرش جامعه‌شناختی به ما کمک می‌کند بفهمیم که این‌ها مسائل جداگانه‌ای نیستند. هوش مصنوعی دسته‌بندی‌های خود را اختراع نمی‌کند؛ بلکه دسته‌بندی‌های ما را می‌آموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبط‌های امنیتی آموزش داده می‌شود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف می‌شود، همان فرضیات را بازتولید می‌کند.

همان‌طور که نگهبانان موزه به‌دلیل این‌که دزدها گویی جزئی از محیط بودند، نادیده‌شان گرفتند، هوش مصنوعی نیز می‌تواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان می‌دهد.

دسته‌بندی، چه انسانی و چه الگوریتمی، یک‌سلاح دو لبه است. این کار به ما کمک می‌کند اطلاعات را به‌سرعت پردازش کنیم، اما در عین حال مفروضات فرهنگی‌مان را نیز در خود جای می‌دهد. هم انسان‌ها و هم ماشین‌ها به شناسایی الگوها متکی‌اند؛ روشی مؤثر اما ناپایدار.

دیدگاه جامعه‌شناختی نسبت به هوش مصنوعی الگوریتم‌ها را به‌عنوان آینه می‌بیند: آن‌ها دسته‌بندی‌ها و سلسله‌مراتب‌های اجتماعی ما را بازتاب می‌دهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آن‌ها نگاه می‌شد. به‌عبارت دیگر، در زمینه هوش مصنوعی، آن‌ها آزمون طبقه‌بندی را گذراندند.

از تالارهای موزه تا یادگیری ماشین

این ارتباط بین ادراک و دسته‌بندی نکته‌ای مهم درباره دنیای رو به‌الگوریتمی ما را آشکار می‌کند. چه نگهبانی باشد که تصمیم می‌گیرد چه کسی مشکوک به نظر می‌رسد و چه هوش مصنوعی که تصمیم می‌گیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دسته‌ها بر پایه‌نشانه‌هایی که به‌نظر عینی می‌آیند اما به‌صورت فرهنگی آموخته شده‌اند.

زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف می‌شود، این غالباً به این معناست که آن دسته‌بندی‌های اجتماعی را بیش از حد دقیق بازتاب می‌دهد. سرقت لوور به ما یادآوری می‌کند که این دسته‌بندی‌ها تنها نگرش‌های ما را شکل نمی‌دهند، بلکه آنچه در نگاه اول توجه می‌شود را نیز تعیین می‌کنند.

پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربین‌های جدید و امنیت شدیدتر داد. اما مهم نیست این سیستم‌ها چقدر پیشرفته شوند، آن‌ها همچنان به دسته‌بندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب می‌شود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.

سرقت لوور به‌عنوان یکی از نمایان‌ترین سرقت‌های موزه‌ای اروپا در خاطره‌ها می‌ماند. دزدها موفق شدند زیرا جامعه‌شناسی ظاهر را تسلط یافتند: آن‌ها دسته‌بندی‌های نرمالی را درک کرد و به‌عنوان ابزار استفاده کردند.

و با این کار، نشان دادند که چگونه هم افراد و هم ماشین‌ها می‌توانند انطباق را با امنیت اشتباه بگیرند. موفقیت آن‌ها در نور روز تنها پیروزی برنامه‌ریزی نبود؛ بلکه پیروزی تفکر دسته‌بندی‌شده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.

درس واضح است: پیش از این‌که ماشین‌ها را به‌سوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه می‌بینیم را زیر سؤال ببریم.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *