
در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا میشود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را بهدست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارتترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.
بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگها فعال شد). مردان پیش از اینکه کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.
پژوهشگران سپس فاش کردند که دزدها جلیقههای روشندار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آنها با یک بالابر مبلمان، که در خیابانهای باریک پاریس معمولاً دیده میشود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه میکرد، استفاده کردند. پوشش کارگریشان باعث شد بهنظر برسد که بخشی از محیط هستند.
این استراتژی مؤثر بود زیرا ما جهان را بهصورت عینی نمیبینیم. ما آن را از طریق دستهبندیها میبینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دستهبندیهای اجتماعی که ما بهعنوان «نرمال» میشناسیم، درک کردند و از آنها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانههای هوش مصنوعی (AI) بهطور مشابه عمل میکنند و در نتیجه به همان نوع اشتباهات مستعد هستند.
سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقشهای اجتماعی را «اجرا» میکنند با بهکارگیری نشانههایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالیبودن» بهعنوان یک پوشش کامل تبدیل شد.
جامعهشناسی نگاه
انسانها بهطور مداوم دستهبندیهای ذهنی انجام میدهند تا افراد و مکانها را درک کنند. وقتی چیزی در دسته «عادی» جای میگیرد، از نگاه ما پنهان میشود.
سیستمهای هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیتهای مشکوک در فضاهای عمومی بهکار میروند، بهصورت مشابهی عمل میکنند. برای انسانها، دستهبندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.
اما هر دو سیستم بر الگوهای یادگرفتهشده بهجای واقعیت عینی تکیه دارند. چون هوش مصنوعی از دادههایی که چه کسی «نرمال» و چه کسی «مشکوک» بهنظر میرسد میآموزد، دستهبندیهای موجود در دادههای آموزشی خود را جذب میکند. این امر باعث میشود که به تعصب حساس شود.
دزدهای لوور بهدلیل انطباق با یک دستهبندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند میتواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیشازحد قرار میگیرند.
این میتواند به این معنا باشد که سامانه تشخیص چهره بهطور نامتناسبی برخی گروههای نژادی یا جنسیتی را بهعنوان تهدیدهای احتمالی نشان میدهد، در حالی که دیگران را نادیده میگیرد.
نگرش جامعهشناختی به ما کمک میکند بفهمیم که اینها مسائل جداگانهای نیستند. هوش مصنوعی دستهبندیهای خود را اختراع نمیکند؛ بلکه دستهبندیهای ما را میآموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبطهای امنیتی آموزش داده میشود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف میشود، همان فرضیات را بازتولید میکند.
همانطور که نگهبانان موزه بهدلیل اینکه دزدها گویی جزئی از محیط بودند، نادیدهشان گرفتند، هوش مصنوعی نیز میتواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان میدهد.
دستهبندی، چه انسانی و چه الگوریتمی، یکسلاح دو لبه است. این کار به ما کمک میکند اطلاعات را بهسرعت پردازش کنیم، اما در عین حال مفروضات فرهنگیمان را نیز در خود جای میدهد. هم انسانها و هم ماشینها به شناسایی الگوها متکیاند؛ روشی مؤثر اما ناپایدار.
دیدگاه جامعهشناختی نسبت به هوش مصنوعی الگوریتمها را بهعنوان آینه میبیند: آنها دستهبندیها و سلسلهمراتبهای اجتماعی ما را بازتاب میدهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آنها نگاه میشد. بهعبارت دیگر، در زمینه هوش مصنوعی، آنها آزمون طبقهبندی را گذراندند.
از تالارهای موزه تا یادگیری ماشین
این ارتباط بین ادراک و دستهبندی نکتهای مهم درباره دنیای رو بهالگوریتمی ما را آشکار میکند. چه نگهبانی باشد که تصمیم میگیرد چه کسی مشکوک به نظر میرسد و چه هوش مصنوعی که تصمیم میگیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دستهها بر پایهنشانههایی که بهنظر عینی میآیند اما بهصورت فرهنگی آموخته شدهاند.
زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف میشود، این غالباً به این معناست که آن دستهبندیهای اجتماعی را بیش از حد دقیق بازتاب میدهد. سرقت لوور به ما یادآوری میکند که این دستهبندیها تنها نگرشهای ما را شکل نمیدهند، بلکه آنچه در نگاه اول توجه میشود را نیز تعیین میکنند.
پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربینهای جدید و امنیت شدیدتر داد. اما مهم نیست این سیستمها چقدر پیشرفته شوند، آنها همچنان به دستهبندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب میشود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.
سرقت لوور بهعنوان یکی از نمایانترین سرقتهای موزهای اروپا در خاطرهها میماند. دزدها موفق شدند زیرا جامعهشناسی ظاهر را تسلط یافتند: آنها دستهبندیهای نرمالی را درک کرد و بهعنوان ابزار استفاده کردند.
و با این کار، نشان دادند که چگونه هم افراد و هم ماشینها میتوانند انطباق را با امنیت اشتباه بگیرند. موفقیت آنها در نور روز تنها پیروزی برنامهریزی نبود؛ بلکه پیروزی تفکر دستهبندیشده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.
درس واضح است: پیش از اینکه ماشینها را بهسوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه میبینیم را زیر سؤال ببریم.
دیدگاهتان را بنویسید