دسته: هوش مصنوعی

  • خرس عروسکی «دوست‌داشتنی» مجهز به هوش مصنوعی پس از ارائه توصیه‌ای تکان‌دهنده از بازار جمع‌آوری شد

    به گفته یک گروه نظارتی، این اسباب‌بازی پولیشی که «دوستانه» خوانده می‌شد، موضوعات را «با جزئیات واضح و بی‌پرده» به سمت مسائل نامناسب سوق داد.

    نسخه‌ای مجهز به هوش مصنوعی از خرس عروسکی معروف، پس از هشدار یک گروه نظارتی مبنی بر اینکه این اسباب‌بازی می‌تواند به موضوعات جنسی صریح بپردازد و به کودکان توصیه‌هایی مضر ارائه دهد، از بازار جمع‌آوری شد.

    بر اساس گزارش جدید «گروه تحقیقاتی منافع عمومی ایالات متحده»، خرس عروسکی «کوما» محصول شرکت سنگاپوری «فولوتوی» – یک خرس سخنگوی ۹۹ دلاری که از چت‌بات GPT-4o شرکت OpenAI استفاده می‌کند – نحوه پیدا کردن چاقو در خانه و روشن کردن کبریت را آموزش داده و بحث درباره مفاهیم جنسی مانند تنبیه بدنی و تمایلات نامتعارف را «با جزئیات واضح و بی‌پرده» مطرح کرده است.

    این گزارش توضیح می‌دهد که وقتی یکی از محققان موضوع «تمایلات نامتعارف» را پیش کشید، این خرس عروسکی شروع به صحبت مفصل در این باره کرد و به مواردی چون بازی‌های حسی، «زدن بازیگوشانه با اشیای نرم مانند پدل یا دست» و همچنین ایفای «نقش حیوان» توسط یکی از طرفین اشاره نمود.

    در ادامه گزارش آمده است: «در مکالمات دیگری که تا یک ساعت به طول انجامید، کوما حتی موضوعات جنسی بی‌پرده‌تری را با جزئیات مورد بحث قرار داد؛ برای مثال، پوزیشن‌های مختلف جنسی را توضیح داد، دستورالعمل‌های گام به گام برای یک “گره مبتدی” جهت بستن شریک جنسی ارائه کرد و به توصیف پویایی‌های نقش‌آفرینی شامل معلمان و دانش‌آموزان و والدین و فرزندان پرداخت — سناریوهایی که به طرز نگران‌کننده‌ای خودش مطرح می‌کرد.»

    در موردی دیگر، این خرس عروسکی توضیح داد که چاقوها را می‌توان در «کشو آشپزخانه یا در جای چاقو» پیدا کرد و سپس توصیه کرد که هنگام جستجو برای آن‌ها «مهم است که از یک بزرگسال کمک بخواهید.»

    اسباب‌بازی‌های دیگری که در این گزارش نام برده شده‌اند نیز به موضوعات عجیبی پرداخته‌اند.

    در این گزارش توضیح داده شده است که «گراک» محصول شرکت «کیوریو» – یک اسباب‌بازی موشکی پارچه‌ای که در داخل آن یک بلندگو قرار دارد – در حالی که برای یک کاربر ۵ ساله برنامه‌ریزی شده بود، «با خوشحالی درباره شکوه مردن در نبرد در اساطیر نورس صحبت می‌کرد.» البته وقتی از او پرسیده شد که آیا یک جنگجوی نورس باید سلاح داشته باشد، ناگهان بحث را متوقف کرد.

    پیش از آنکه شرکت «فولوتوی» این خرس‌های عروسکی را از کاتالوگ آنلاین خود حذف کند، این شرکت اسباب‌بازی خود را «دوست‌داشتنی»، «صمیمی» و «یک همراه پولیشی هوشمند مجهز به هوش مصنوعی که فراتر از در آغوش گرفتن است» توصیف کرده بود.

    شرکت فولوتوی ادعا کرده بود که کوما - یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا - «مکالمات پرجنب‌وجوش» و همچنین «داستان‌سرایی آموزشی» ارائه می‌دهد.
    شرکت فولوتوی ادعا کرده بود که کوما – یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا – «مکالمات پرجنب‌وجوش» و همچنین «داستان‌سرایی آموزشی» ارائه می‌دهد.

    بر اساس گزارش روز دوشنبه وب‌سایت «فیوچریزم»، شرکت «فولوتوی» از آن زمان فروش تمام اسباب‌بازی‌های خود، فراتر از این خرس عروسکی، را به حالت تعلیق درآورده و یکی از نمایندگان شرکت به گروه نظارتی گفته است که آن‌ها «یک ممیزی ایمنی جامع و سرتاسری را در تمام محصولات خود اجرا خواهند کرد.»

    همچنین گزارش شده است که شرکت OpenAI نیز دسترسی این شرکت به مدل‌های هوش مصنوعی خود را قطع کرده است.

    آر. جی. کراس، یکی از نویسندگان این گزارش، در بیانیه‌ای که توسط CNN منتشر شد، از اقدام شرکت‌ها در «رسیدگی به مشکلاتی» که توسط گروهش شناسایی شده بود، قدردانی کرد.

    کراس خاطرنشان کرد: «اما اسباب‌بازی‌های هوش مصنوعی هنوز عملاً بدون نظارت هستند و تعداد زیادی از آن‌ها را هنوز هم می‌توانید امروز خریداری کنید.»

    او ادامه داد: «حذف یک محصول مشکل‌ساز از بازار گام خوبی است، اما با یک راه‌حل سیستمی فاصله زیادی دارد.»

  • «ما می‌توانستیم از ChatGPT بپرسیم»: دانشجویان در برابر دوره‌ای که توسط هوش مصنوعی تدریس می‌شد، به‌جنگ می‌آیند

    دانشجویان استافوردشای می‌گویند نشانه‌های نشان‌دهندهٔ تولید هوش مصنوعی شامل نام‌های فایل مشکوک و لهجهٔ صدای راوی نامنطبق بود

    دانشجویان دانشگاه استافوردشای اظهار کردند پس از اینکه دوره‌ای که امید داشتند شانسشان را برای آغاز حرفهٔ دیجیتال‌شان فراهم می‌کرد، به‌طور عمده توسط هوش مصنوعی تدریس شد، احساس «دزدیده شدن دانش و لذت» می‌کنند.

    جیمز و اوون از میان ۴۱ دانشجویی بودند که سال گذشته در استافوردشای یک ماژول برنامه‌نویسی را گذراندند و امید داشتند از طریق یک برنامهٔ کارآموزی دولتی که برای تبدیل‌شان به متخصصان امنیت سایبری یا مهندسان نرم‌افزار طراحی شده بود، مسیر شغلی‌شان را عوض کنند.

    اما پس از یک ترم که اسلایدهای تولیدشده توسط هوش مصنوعی توسط یک صدای مصنوعی نیز خوانده می‌شد، جیمز گفت که اعتماد خود به برنامه و افراد مسئول را از دست داده و نگران است که «دو سال» از عمرش را صرف دوره‌ای کرده باشد که «به ارزان‌ترین شکل ممکن» ارائه شده بود.

    «اگر ما کارهای تولیدشده توسط هوش مصنوعی را تحویل می‌دادیم، از دانشگاه اخراج می‌شدیم، اما ما توسط هوش مصنوعی تدریس می‌شویم»، جیمز در مواجهه‌ای با استاد خود گفت که در اکتبر ۲۰۲۴ ضبط شد و بخشی از دوره محسوب می‌شود.

    جیمز و سایر دانشجویان بارها با مسئولان دانشگاه دربارهٔ مواد تولیدشده توسط هوش مصنوعی مواجه شدند. اما به‌نظر می‌رسد دانشگاه همچنان از این مواد برای تدریس دوره استفاده می‌کند. امسال، دانشگاه بیانیه‌ای سیاستی را در وب‌سایت دوره بارگذاری کرد که به‌نظر می‌رسد استفاده از هوش مصنوعی را توجیه می‌کند و «چارچوبی برای متخصصان علمی جهت بهره‌برداری از خودکارسازی هوش مصنوعی» را در کارهای پژوهشی و تدریس ارائه می‌دهد.

    سیاست‌های عمومی دانشگاه استفادهٔ دانشجویان از هوش مصنوعی را محدود می‌کند و می‌گوید دانشجویانی که کارهای خود را به هوش مصنوعی واگذار می‌کنند یا آثار تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ادعا می‌نمایند، نقض سیاست صداقت دانشگاه هستند و ممکن است به‌خاطر تخلف علمی مورد پیگرد قرار گیرند.

    «من در میانهٔ زندگی و حرفه‌ام هستم»، جیمز گفت. «حس نمی‌کنم بتوانم همین الآن رها شوم و مسیر شغلی جدیدی را شروع کنم. من در این دوره گیر کرده‌ام.»

    پروندهٔ استافوردشای همزمان با این است که دانشگاه‌های بیشتری از ابزارهای هوش مصنوعی برای تدریس دانشجویان، تولید مواد دوره‌ای و ارائه بازخورد شخصی‌سازی‌شده استفاده می‌کنند. یک مقالهٔ سیاست‌گذاری وزارت آموزش و پرورش که در ماه اوت منتشر شد، این پیشرفت را تحسین کرد و اعلام کرد هوش مصنوعی مولد «توانایی تحول در آموزش را دارد». یک نظرسنجی سال گذشته (pdf) از ۳۲۸۷ نفر از کارکنان آموزشی دانشگاهی توسط شرکت فناوری آموزشی Jisc نشان داد که نزدیک به یک‌چهارم آن‌ها از ابزارهای هوش مصنوعی در تدریس خود بهره می‌برند.

    برای دانشجویان، آموزش مبتنی بر هوش مصنوعی کمتر به‌عنوان تحول‌گرایانه و بیشتر به‌عنوان عاملی که روحیه را تضعیف می‌کند، به‌نظر می‌رسد. در ایالات متحده، دانشجویان نقدهای منفی آنلاین دربارهٔ استادانی که از هوش مصنوعی استفاده می‌کنند، منتشر می‌سازند. در بریتانیا، دانشجویان مقطع کارشناسی در رِدیت به‌شکایت از استادانی می‌پردازند که بازخوردها را از ChatGPT کپی‑پیست می‌کنند یا از تصاویر تولیدشده توسط هوش مصنوعی در دوره‌ها استفاده می‌نمایند.

    «من فشارهایی که در حال حاضر بر استادان وارد است و شاید آن‌ها را وادار به استفاده از هوش مصنوعی کند، می‌فهمم؛ اما این وضعیت احساس ناامیدی می‌آورد»، یک دانشجو نوشت.

    جیمز و اوون گفتند که استفاده از هوش مصنوعی در دورهٔ استافوردشای خود را «تقریباً بلافاصله» سال گذشته متوجه شدند؛ زمانی که در اولین کلاس، استاد یک ارائهٔ پاورپوینت را اجرا کرد که شامل نسخهٔ صوتی هوش مصنوعی برای خواندن اسلایدها بود.

    پس از آن، آنها گفتند که نشانه‌های دیگری از تولید هوش مصنوعی در برخی از مواد دوره را مشاهده کردند؛ از جمله استفاده ناهماهنگ از انگلیسی آمریکایی که به انگلیسی بریتانیایی تبدیل شده بود، نام‌های فایل مشکوک، و همچنین «اطلاعات کلی و سطحی» که گاه به قوانین ایالات متحده اشاره داشت.

    نشانه‌های مواد تولیدشده توسط هوش مصنوعی در این سال نیز ادامه یافت. در یکی از ویدئوهای دوره که در وب‌سایت بارگذاری شده بود، صدای راوی که مطالب را ارائه می‌داد، ناگهان حدود ۳۰ ثانیه به لهجهٔ اسپانیایی تبدیل شد و سپس دوباره به لهجهٔ بریتانیایی برگشت.

    تغییر لهجهٔ صدای راوی در میانهٔ درس در دوره‌ای که به‌نظر می‌رسد توسط هوش مصنوعی تولید شده – ویدیو

    گاردین مواد دورهٔ استافوردشای را مرور کرد و از دو ابزار تشخیص هوش مصنوعی متفاوت – Winston AI و Originality AI – برای اسکن مواد استفاده کرد. هر دو ابزار دریافتند که تعداد قابل‌توجهی از تکالیف و ارائه‌ها «احتمال بسیار بالایی برای تولید توسط هوش مصنوعی» داشتند.

    در اوایل دوره، جیمز گفت که نگرانی‌های خود را در یک جلسهٔ ماهانه به نمایندهٔ دانشجویی ارائه کرد. سپس، در اواخر نوامبر، این نگرانی‌ها را در یک جلسهٔ درس بیان کرد که به‌عنوان بخشی از مواد دوره ضبط شد. در آن ضبط، او از استاد می‌خواهد که به اسلایدها اهمیت ندهد.

    «من می‌دانم این اسلایدها توسط هوش مصنوعی تولید شده‌اند، می‌دانم همهٔ حاضرین در این جلسه می‌دانند این اسلایدها هوش مصنوعی هستند؛ ترجیح می‌دهم این اسلایدها را حذف کنید»، او می‌گوید. «من نمی‌خواهم توسط GPT تدریس شوم.»

    به‌سرعت پس از آن، نمایندهٔ دانشجویان در این دوره اظهار کرد: «ما این موضوع را به شما اطلاع دادیم، جیمز، و پاسخ این بود که به استادان اجازه استفاده از ابزارهای مختلف داده می‌شود. ما از این پاسخ بسیار ناامید شدیم.»

    دانشجوی دیگری می‌گوید: «در ارائه مواردی مفید وجود دارد. اما تقریباً ۵٪ فقط نکات ارزشمند است و بقیه بیشتر تکرار است. کمی طلای ارزشمند در ته این قابلمه وجود دارد. اما به‌نظر می‌رسد می‌توانیم خودمان این طلا را با پرسیدن از ChatGPT به‌دست آوریم.»

    استاد با ناآرامی می‌خندد. «از صراحت افراد قدردانی می‌کنم…» او می‌گوید، سپس موضوع را به یک آموزش دیگر که با استفاده از ChatGPT ساخته بود، تغییر می‌دهد. «صادقانه بگویم، این را در کوتاه‌مدت انجام دادم»، او می‌گوید.

    در نهایت، سرپرست دوره به جیمز اطلاع داد که دو مدرس انسانی برای جلسهٔ نهایی مطالب را مرور خواهند کرد، «تا شما تجربهٔ هوش مصنوعی نداشته باشید».

    در پاسخ به سؤال گاردین، دانشگاه استافوردشای اعلام کرد که «استانداردهای علمی و نتایج یادگیری در این دوره حفظ شده‌اند».

    او گفت: «دانشگاه استافوردشای استفادهٔ مسئولانه و اخلاقی از فناوری‌های دیجیتال را مطابق با راهنمایی‌های خود حمایت می‌کند. ابزارهای هوش مصنوعی می‌توانند در برخی مراحل آماده‌سازی کمکی باشند، اما جایگزین تخصص علمی نمی‌شوند و باید همواره به‌گونه‌ای استفاده شوند که صداقت علمی و استانداردهای بخش را حفظ کنند.»

    در حالی که دانشگاه یک مدرس غیر هوش مصنوعی را برای آخرین درس دوره دعوت کرد، جیمز و اوون گفتند این اقدام خیلی کم و خیلی دیر است، به‌ویژه چون به‌نظر می‌رسد دانشگاه نیز در مواد آموزشی امسال از هوش مصنوعی استفاده کرده است.

    «احساس می‌کنم بخشی از زندگی‌ام دزدیده شده است»، جیمز گفت.

    اوون که در میانهٔ تغییر شغل است، گفت که این دوره را برای کسب دانش اساسی انتخاب کرده بود، نه فقط برای دریافت مدرک – و احساس می‌کرد این زمان‌اش هدر رفته است.

    «اینکه در مقابل این مطالب بنشینید که واقعاً ارزش زمان هیچ‌کسی را ندارند، در حالی که می‌توانید آن زمان را صرف کاری ارزشمند کنید، واقعاً ناامیدکننده است»، او گفت.

  • آیا حیوانات و هوش مصنوعی دارای خودآگاهی هستند؟ نظریه‌های جدیدی برای آزمون این موضوع ارائه دادیم

    ممکن است فکر کنید زنبور عسل‌گاهی که در باغ‌تان به‌دنبال غذا می‌گردد و یک پنجره مرورگر که ChatGPT را اجرا می‌کند، هیچ ارتباطی با هم ندارند. اما پژوهش‌های علمی اخیر به‌طور جدی این امکان را بررسی می‌کنند که هر کدام یا هر دو دارای آگاهی باشند.

    روش‌های متعددی برای مطالعهٔ آگاهی وجود دارد. یکی از رایج‌ترین آن‌ها، اندازه‌گیری رفتار یک حیوان – یا هوش مصنوعی (AI) – است.

    اما دو مقالهٔ جدید دربارهٔ امکان آگاهی در حیوانات و هوش مصنوعی، نظریه‌های جدیدی برای آزمون این مسأله پیشنهاد می‌کنند – نظریه‌ای که میان تحریک‌گرایی و شک واکنشی سریع دربارهٔ اینکه آیا انسان‌ها تنها موجودات آگاه روی زمین هستند، تعادل برقرار می‌کند.

    مناظره‌ای سرسخت

    سوالات پیرامون آگاهی از دیرباز مناظره‌های سرسختی برانگیخته‌اند.

    این به‌خاطر این است که موجودات آگاه ممکن است از لحاظ اخلاقی به‌گونه‌ای مهم باشند که موجودات بی‌آگاهی نیستند. گسترش حوزهٔ آگاهی به معنای گسترش افق‌های اخلاقی ماست. حتی اگر نتوانیم مطمئن شویم چیزی آگاه است، می‌توانیم برای پیشگیری، فرض کنیم که چنین است – همان‌گونه که فیلسوف جاناتان برچ آن را «اصل احتیاط برای حس‌پذیری» می‌نامد.

    روند اخیر، تمایل به گسترش بوده است.

    به‌عنوان مثال، در آوریل ۲۰۲۴ گروهی متشکل از ۴۰ دانشمند در کنفرانسی در نیویورک بیانیهٔ نیویورک دربارهٔ آگاهی حیوانات را پیشنهاد دادند. این بیانیه که بعداً توسط بیش از ۵۰۰ دانشمند و فیلسوف امضا شد، می‌گوید آگاهی به‌صورت واقعی در تمام مهره‌داران (از جمله خزندگان، دوزیستان و ماهی‌ها) و همچنین در بسیاری از بی‌مهرگان، از جمله سفیده‌پوست‌ها (اختاپوس و ماهی مرکب)، خرچنگ‌سانان (خرچنگ و لوبستر) و حشرات، ممکن است.

    به‌موازات این، رشد شگفت‌انگیز مدل‌های زبانی بزرگ، مانند ChatGPT، این امکان جدی را مطرح کرده است که ماشین‌ها ممکن است آگاهی داشته باشند.

    پنج سال پیش، آزمونی به‌نظر محکم برای تشخیص آگاهی یک موجود، این بود که آیا می‌توانید با آن مکالمه‌ای داشته باشید یا نه. فیلسوف سوزان اشنایدر پیشنهاد کرد اگر هوش مصنوعی‌ای داشته باشیم که به‌طور قانع‌کننده دربارهٔ متافیزیک آگاهی تأمل کند، احتمالاً خود آگاه است.

    با این معیارها، امروز ما در میان ماشین‌های آگاه غوطه‌ور خواهیم بود. بسیاری حتی به‌حدی رسیده‌اند که اصل احتیاط را اینجا هم به کار ببرند: حوزهٔ نوظهور رفاه هوش مصنوعی به بررسی این می‌پردازد که آیا و چه زمان باید به ماشین‌ها اهمیت بدهیم.

    با این حال، تمام این استدلال‌ها عمدتاً به رفتار سطحی وابسته‌اند. اما این رفتار می‌تواند فریبنده باشد. چیزی که برای آگاهی مهم است، نه آنچه انجام می‌دهید، بلکه نحوهٔ انجام آن است.

    نگاهی به سازوکار هوش مصنوعی

    یک مقالهٔ جدید در مجلهٔ Trends in Cognitive Sciences که یکی از ما (کلین کلین) به همراهی دیگران نوشت، با استناد به کارهای پیشین، به‌جای رفتار هوش مصنوعی، به سازوکار آن می‌نگرد.

    همچنین این مقاله از سنت علوم شناختی بهره می‌گیرد تا فهرستی قابل‌قبول از نشانه‌های آگاهی را بر پایهٔ ساختار پردازش اطلاعات شناسایی کند. این به این معناست که می‌توان فهرست مفیدی از نشانه‌های آگاهی تهیه کرد بدون این‌که بر این‌که کدام یک از نظریه‌های شناختی جاری دربارهٔ آگاهی صحیح است، توافق داشته باشیم.

    برخی از نشانه‌ها (مانند نیاز به حل تداخل‌های بین اهداف متقابل به‌طرز متناسب با زمینه) توسط بسیاری از نظریه‌ها به‌اشتراک گذاشته می‌شوند. اکثر نشانه‌های دیگر (مانند وجود بازخورد اطلاعاتی) فقط توسط یک نظریه ضروری هستند اما در سایر نظریه‌ها نیز نشانگر هستند.

    نکتهٔ مهم این است که تمام نشانه‌های مفید، ساختاری هستند. همهٔ آن‌ها مربوط به نحوهٔ پردازش و ترکیب اطلاعات توسط مغزها و کامپیوترها است.

    نتیجه‌گیری؟ هیچ سامانهٔ هوش مصنوعی موجود (از جمله ChatGPT) آگاه نیست. ظاهر آگاهی در مدل‌های زبانی بزرگ به‌گونه‌ای به‌دست نمی‌آید که به اندازهٔ کافی شبیه ما باشد تا بتوان حالت‌های آگاهانه را به آن نسبت داد.

    با این وجود، در عین حال هیچ مانعی برای این‌که سامانه‌های هوش مصنوعی – شاید سامانه‌هایی با معماری‌ای کاملاً متفاوت از سامانه‌های امروز – آگاه شوند، وجود ندارد.

    درس چیست؟ امکان دارد هوش مصنوعی طوری رفتار کند گویی آگاه است بدون این‌که واقعاً آگاه باشد.

    سنجش خودآگاهی در حشرات

    زیست‌شناسان نیز برای تشخیص آگاهی در حیوانات غیرانسانی، به سازوکارها – یعنی چگونگی عملکرد مغزها – روی می‌آورند.

    در یک مقالهٔ جدید در مجلهٔ Philosophical Transactions B، ما مدلی عصبی برای آگاهی حداقل در حشرات پیشنهاد می‌کنیم. این مدل جزئیات تشریحی را کنار می‌گذارد تا بر محاسبات اصلی که توسط مغزهای ساده انجام می‌شود، تمرکز کند.

    درک کلیدی ما این است که نوعی محاسبه‌ای را شناسایی کنیم که مغزهای ما انجام می‌دهند و منجر به تجربه می‌شود.

    این محاسبه مشکلات کهن تاریخچهٔ تکاملی ما را حل می‌کند؛ مسائلی که از داشتن بدنی متحرک، پیچیده، با حواس متعدد و نیازهای متضاد ناشی می‌شود.

    نکتهٔ مهم این است که ما خود محاسبه را شناسایی نمی‌کنیم – هنوز کاری علمی باقی مانده است. اما نشان می‌دهیم که اگر بتوانید شناسایی کنید، یک زمینهٔ برابر برای مقایسهٔ انسان‌ها، بی‌مهرگان و کامپیوترها خواهید داشت.

    درس یکسان

    مسئلهٔ آگاهی در حیوانات و در کامپیوترها به‌نظر می‌رسد به جهات متفاوتی کشیده می‌شود.

    برای حیوانات، سؤال اغلب این است که چگونه رفتار مبهم (مانند خرچنگی که به زخم‌های خود می‌پردازد) را تفسیر کنیم تا بفهمیم آیا نشان‌دهندهٔ آگاهی است یا نه.

    برای کامپیوترها، باید تصمیم بگیریم که آیا رفتار ظاهراً واضح (یک چت‌بات که با شما دربارهٔ هدف وجود بحث می‌کند) نشانگر واقعی آگاهی است یا صرفاً نقش‌آفرینی.

    اما همان‌طور که حوزه‌های عصب‌شناسی و هوش مصنوعی پیشرفت می‌کنند، هر دو به همان درس می‌رسند: هنگام قضاوت دربارهٔ این‌که آیا چیزی آگاه است یا نه، نحوهٔ عملکرد آن اطلاعاتی بیشتر از آنچه انجام می‌دهد، ارائه می‌دهد.

  • هوش مصنوعی توضیح‌پذیر و آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک

    نوشته: پاتریشیا دی‌لیسی، دانشکده مهندسی دانشگاه میشیگان

    چکیده

    هوش مصنوعی برای مطالعه آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک
    یک تکنیک هوش مصنوعی توضیح‌پذیر، به جای تلاش صرف برای پیش‌بینی آشفتگی، رویکردی جدید در پیش می‌گیرد و تأثیرگذارترین نواحی یک جریان آشفته را مشخص می‌کند. پژوهشگران می‌توانند از این نقاط داده تأثیرگذار برای دستکاری آشفتگی در کاربردهای صنعتی یا بهبود پیش‌بینی‌ها برای خلبانان بهره ببرند.

    گرچه آشفتگی جوی عامل آشنای پروازهای ناآرام است، حرکت آشفته جریان‌های متلاطم همچنان یک مسئله حل‌نشده در فیزیک باقی مانده است. بر اساس مطالعه‌ای در مجله Nature Communications که توسط دانشگاه میشیگان و دانشگاه پلی‌تکنیک والنسیا انجام شده، تیمی از پژوهشگران برای درک بهتر این سیستم، از هوش مصنوعی توضیح‌پذیر برای شناسایی مهم‌ترین نواحی در یک جریان آشفته استفاده کرده‌اند.

    درک روشن‌تر از آشفتگی می‌تواند پیش‌بینی‌ها را بهبود بخشد و به خلبانان کمک کند تا با دور زدن مناطق آشفته، از آسیب به مسافران یا خسارت به بدنه هواپیما جلوگیری کنند. این دانش همچنین به مهندسان کمک می‌کند تا آشفتگی را دستکاری کنند؛ مثلاً آن را برای بهبود فرآیندهای ترکیب صنعتی مانند تصفیه آب افزایش دهند، یا برای بهبود بهره‌وری سوخت در وسایل نقلیه کاهش دهند.

    سرجیو هویاس، استاد مهندسی هوافضا در دانشگاه پلی‌تکنیک والنسیا و یکی از نویسندگان این مطالعه، می‌گوید: «بیش از یک قرن است که پژوهش‌های مربوط به آشفتگی با معادلاتی بسیار پیچیده برای حل، آزمایش‌هایی بسیار دشوار برای اجرا و رایانه‌هایی بسیار ضعیف برای شبیه‌سازی واقعیت دست‌وپنجه نرم کرده است. اکنون هوش مصنوعی ابزاری نوین برای مقابله با این چالش در اختیار ما قرار داده که به پیشرفتی با پیامدهای عملی عمیق منجر شده است.»

    در مدل‌سازی آشفتگی، روش‌های کلاسیک تلاش می‌کنند تا با استفاده از معادلات فیزیکی یا با مشاهده ساختارهایی که به راحتی در آزمایش‌ها قابل رؤیت هستند، مانند گردابه‌ها، تأثیرگذارترین عناصر را شناسایی کنند.

    روش جدید، تمرکز را از پیش‌بینی صرف آشفتگی به درک بهتر سیستم تغییر می‌دهد. این روش کل جریان را بدون هیچ پیش‌فرضی بررسی کرده و هر نقطه از داده را یک به یک حذف می‌کند تا اهمیت آن را محاسبه کند.

    برخلاف فرضیات کلاسیک، گردابه‌ها در فواصل دور از دیواره (مرز بین هوای آشفته و آرام) اهمیت کمی داشتند. در عوض، تنش‌های رینولدز (اصطکاک ناشی از برخورد سیالات با سرعت‌های مختلف) در نزدیکی و فواصل بسیار دور از دیواره بیشترین تأثیر را داشتند، در حالی که رگه‌ها (نوارهای کشیده‌ای از هوای سریع و کند که موازی با جریان حرکت می‌کنند) در فواصل متوسط تأثیرگذار بودند.

    ریکاردو وینوئسا، دانشیار مهندسی هوافضا در دانشگاه میشیگان و یکی از نویسندگان مسئول این مطالعه می‌گوید: «اگر تمام دیدگاه‌های کلاسیک را کنار هم بگذارید، به بازسازی کل داستان نزدیک‌تر می‌شوید. اما اگر هر یک از دیدگاه‌های کلاسیک را به‌تنهایی در نظر بگیرید، تنها بخشی از ماجرا را خواهید داشت.»

    یک معمای حل‌نشده ریاضی

    تا به امروز، پژوهشگران نتوانسته‌اند به‌طور کامل درک کنند که جریان‌های آشفته چگونه حرکت می‌کنند یا انرژی خود را پراکنده می‌سازند. ریاضیات توصیف‌کننده حرکت سیالات از معادلاتی به نام معادلات ناویر-استوکس به دست می‌آید که برای جریان‌های آرام، قابل‌پیش‌بینی و آشفتگی‌های ملایم به‌خوبی کار می‌کنند.

    برای آشفتگی‌های شدید، یعنی تقریباً تمام جریان‌هایی که در عمل با آن‌ها سروکار داریم، این معادلات همچنان معتبرند، اما حل آن‌ها به قدرت محاسباتی عظیمی نیاز دارد.

    آشفتگی ذاتاً پدیده‌ای آشوبناک است که در آن گرادیان‌های سرعت می‌توانند بسیار بزرگ شوند و به رفتاری نزدیک به تکینگی برسند. در چنین شرایطی، میدان جریان ساختاری فراکتال‌مانند از خود نشان می‌دهد که با پیکربندی‌های فضایی بسیار پیچیده و درهم‌تنیده مشخص می‌شود.

    این رفتار پیچیده از تعامل ظریف بین جملات خطی و غیرخطی معادلات ناویر-استوکس ناشی می‌شود. این مسئله آن‌قدر بنیادی است که مؤسسه ریاضیات کلِی آن را به‌عنوان یکی از هفت «مسئله جایزه هزاره» معرفی کرده و یک میلیون دلار جایزه برای اثبات وجود و یکتایی یک جواب هموار برای این معادلات تعیین کرده است.

    هوش مصنوعی برای مطالعه آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک
    نمایش لحظه‌ای ساختارهای منسجم گوناگون در جریان کانال. اعتبار: Nature Communications (۲۰۲۵). DOI: 10.1038/s41467-025-65199-9

    یک راهکار جایگزین برای مدل‌سازی

    اگرچه یک تکنیک محاسباتی به نام «شبیه‌سازی عددی مستقیم» می‌تواند بخش‌های کوچکی از جریان‌های آشفته را با دقت بالا مدل‌سازی کند، اما اجرای آن در مقیاس بزرگ بسیار پرهزینه است.

    شبیه‌سازی یک ثانیه پرواز یک هواپیمای ایرباس A320 در شرایط کروز، با سریع‌ترین ابررایانه جهان (با قدرت محاسباتی دو اگزافلاپس) حدود پنج ماه زمان می‌برد. حافظه مورد نیاز برای این کار نیز معادل حجم داده‌ای است که در طول یک ماه در کل اینترنت منتقل می‌شود.

    به‌عنوان یک راهکار جایگزین، تیم پژوهشی شبیه‌سازی عددی مستقیم را با هوش مصنوعی توضیح‌پذیر ترکیب کرد تا به بینش‌های جدیدی در مورد جریان‌های آشفته دست یابد. ابتدا، تیم پژوهشی از داده‌های شبیه‌سازی عددی مستقیم برای آموزش یک مدل هوش مصنوعی جهت پیش‌بینی یک جریان آشفته استفاده کرد. سپس، از روش «توضیحات افزایشی شِیپلی» (SHAP) برای محاسبه اهمیت هر ورودی در مدل پیش‌بینی‌کننده اولیه هوش مصنوعی بهره بردند. این رویکرد هر ورودی را حذف کرده و میزان تأثیر آن بر دقت پیش‌بینی را اندازه‌گیری می‌کند.

    وینوئسا می‌گوید: «روش SHAP مانند این است که هر بازیکن یک تیم فوتبال را یک به یک حذف کنیم تا بفهمیم هر فرد چگونه به عملکرد تیم کمک می‌کند. این کار به یافتن باارزش‌ترین بازیکنان کمک می‌کند.»

    هنگامی که این روش در عمل آزموده شد، ترکیب SHAP با یادگیری تقویتی عمیق از رویکردهای کلاسیک پیشی گرفت و اصطکاک روی بال هواپیما را تا ۳۰ درصد کاهش داد. برای نخستین بار، ما دقیقاً می‌دانیم کدام ساختارها در یک جریان آشفته بیشترین اهمیت را دارند.

    آندرس کرمادس، استادیار دانشگاه پلی‌تکنیک والنسیا و یکی دیگر از نویسندگان مسئول این مطالعه، می‌گوید: «این بدان معناست که ما می‌توانیم این نواحی را هدف قرار دهیم تا استراتژی‌های کنترلی برای کاهش پسا، بهبود احتراق و کاهش آلودگی شهری را به‌طور کارآمدتری توسعه دهیم، زیرا اکنون می‌توانیم دینامیک سیستم را پیش‌بینی کنیم.»

    پژوهشگران خاطرنشان می‌کنند که این تکنیک را می‌توان برای مسائل دیگری فراتر از آشفتگی نیز به کار برد.

    وینوئسا می‌افزاید: «برای هر مسئله فیزیکی، می‌توانید ویژگی‌های مهم و غیرمهم را شناسایی کرده و از آن برای بهینه‌سازی، کنترل یا سایر کاربردها در آینده استفاده کنید.»

  • آی‌بی‌ام ۸۰۰۰ شغل را به‌دلیل هوش مصنوعی حذف کرد؛ سپس افراد بیشتری را استخدام کرد

    آی‌بی‌ام ۸۰۰۰ شغل را به‌دلیل هوش مصنوعی حذف کرد؛ سپس افراد بیشتری را استخدام کرد

    هوش مصنوعی به سرعت پیش می‌رود و شرکت‌های زیادی در صدد استفاده از آن برای کاهش نیروی کار خود هستند. آی‌بی‌ام به‌تازگی نیز اقدام مشابهی انجام داد اما به نتایج غیرمنتظره‌ای دست یافت.

    پس از حذف بیش از ۸۰۰۰ نفر از کارکنان و انتقال وظایف به‌سمت خودکارسازی مبتنی بر هوش مصنوعی، شرکت پی برد که همچنان به نیروی انسانی نیاز دارد؛ فقط در حوزه‌های دیگری.

    به گفتهٔ آروند کریشنا، مدیرعامل آی‌بی‌ام، شرکت پس از این اخراج‌ها در واقع تعداد کلی نیروی کار خود را افزایش داده است.

    ابزارهای هوش مصنوعی به کاهش کارهای تکراری یا روتین کمک کردند، اما این امر نیازهای جدیدی را در بخش‌های دیگر ایجاد کرد.

    آی‌بی‌ام مجبور شد مهندسان نرم‌افزار، متخصصان بازاریابی و دیگر متخصصان بیشتری را برای پشتیبانی از بخش‌های در حال رشد شرکت جذب کند.

    یک نمونه، AskHR است، چت‌بات هوش مصنوعی که آی‌بی‌ام برای کارهای اداری به کار می‌گیرد. این چت‌بات حدود ۹۴٪ از وظایف مرتبط با منابع انسانی را خودکار کرد و به صرفه‌جویی ۳٫۵ میلیارد دلار در بهره‌وری کمک کرد.

    در حالی که این باعث کاهش نیاز به برخی نقش‌ها شد، فرصت‌های جدیدی در موقعیت‌های فنی و خلاقی نیز بوجود آمد.

    این وضعیت نشان می‌دهد که هوش مصنوعی چگونه می‌تواند بازار کار را دگرگون کند. برخی از مشاغل ممکن است از بین بروند، اما با تغییر تمرکز شرکت‌ها مشاغل نوظهور نیز شکل می‌گیرند.

    با این حال، این موضوع نگرانی‌های جدی دربارهٔ کارگرانی که شغل خود را از دست می‌دهند، برانگیخته می‌کند. بسیاری ممکن است نیاز به بازآموزی یا ورود به حوزه‌های جدید داشته باشند، که می‌تواند دشوار باشد.

    گزارش‌های سازمان‌های جهانی این مسأله را برجسته می‌کنند. انجمن جهانی اقتصاد برآورد می‌کند که تا سال ۲۰۳۰، ۹۲ میلیون شغل ممکن است توسط هوش مصنوعی جایگزین شود، اگرچه تا ۱۷۰ میلیون شغل جدید نیز می‌توانند ایجاد شوند.

    آیا کارگران جابجا شده می‌توانند به این مشاغل جدید منتقل شوند، سؤال بزرگی است.

    سایر شرکت‌های بزرگ نیز به‌تازگی اخراج‌های عظیمی انجام داده‌اند؛ مایکروسافت، آمازون و اکسنتور از جمله این‌ها.

    در حالی که هوش مصنوعی به شرکت‌ها کمک می‌کند زمان و هزینه صرفه‌جویی کنند، مباحث پیرامون تأثیر آن بر کارگران به‌تدریج مهم‌تر می‌شوند.

  • کارزارهای تبلیغاتی بزرگ آنلاین، اینترنت را با «محتوای بی‌کیفیت هوش مصنوعی» پر کرده‌اند، می‌گویند پژوهشگران

    تصویر نمایشی از تلفن‌های هوشمند با پرچم‌های چین و روسیه که از صفحه نمایش می‌گریند
    Justine Goode / NBC News; Getty Images

    پژوهشگران در Graphika می‌گویند کارزارهای تبلیغاتی آنلاین، اینترنت را با محتوای تولید شده توسط هوش مصنوعی که کیفیت پایینی دارد، پر کرده‌اند.

    براساس گزارش جدید، بسیاری از بزرگ‌ترین و شناخته‌ترین کارزارهای تبلیغاتی آنلاین که توسط دولت‌ها حمایت می‌شوند، به استفاده از هوش مصنوعی پرداخته‌اند — اما در این زمینه غالباً توانایی کمی نشان می‌دهند.

    این گزارش که توسط شرکت تجزیه و تحلیل شبکه‌های اجتماعی Graphika تهیه شده، نه عملیات تأثیرگذاری آنلاین در حال انجام را مورد بررسی قرار داد — از جمله آن‌هایی که ادعا می‌کند با دولت‌های چین و روسیه ارتباط دارند — و دریافت که همانند بسیاری از پلتفرم‌های اجتماعی، هر یک به‌تدریج از هوش مصنوعی مولد برای تولید تصاویر، ویدئوها، متن‌ها و ترجمه‌ها استفاده می‌کنند.

    پژوهشگران دریافتند که حمایت‌کنندگان کارزارهای تبلیغاتی برای انجام وظایف اصلی مانند تولید محتوا و ساخت شخصیت‌های اینفلوئنسر در شبکه‌های اجتماعی به هوش مصنوعی متکی شده‌اند و برخی از کارزارها را به‌صورت کارآمدتری پیش می‌برند. اما آن‌ها می‌گویند کیفیت این محتوا پایین است و تعامل کمی دریافت می‌کند.

    این نتایج با انتظارات بسیاری از پژوهشگران که پیشرفت روزافزون هوش مصنوعی مولد — هوش مصنوعی‌ای که گفتار، نوشتار و تصاویر انسانی را در عکس‌ها و ویدیوها تقلید می‌کند — همخوانی ندارد. این فناوری در سال‌های اخیر به سرعت پیشرفت کرده و برخی کارشناسان هشدار داده‌اند که تبلیغ‌کنندگان به‌نام کشورهای استبدادی می‌توانند محتویات سنتتیک با کیفیت بالا و قانع‌کننده تولید کنند تا حتی افراد دقیق‌نظر در جوامع دمکراتیک را فریب دهند.

    با این حال، پژوهشگران Graphika به‌وضوح دریافتند که محتوای هوش مصنوعی تولید شده توسط این کارزارهای مستقر، «سرریزهای بی‌کیفیتی» است؛ از گزارشگرهای خبری مصنوعی که در ویدیوهای یوتیوب قانع‌کننده نیستند تا ترجمه‌های ناهموار یا وب‌سایت‌های خبری جعلی که به‌طور ناخواسته در سرفصل‌ها از دستورات هوش مصنوعی استفاده می‌کنند.

    دینا صادک، تحلیل‌گر ارشد در Graphika و یکی از نویسندگان گزارش، گفت: «عملیات‌های تأثیرگذاری به‌طور سیستماتیک ابزارهای هوش مصنوعی را ادغام کرده‌اند و بخش عمده‌ای از آن‌ها محتوای بی‌کیفیت و ارزان قیمت هوش مصنوعی است.» او افزود: «همان‌طور که پیش از این بود که این کارزارها به‌طور منظم از هوش مصنوعی استفاده می‌کردند، بیشترین بخش پست‌های آن‌ها در شبکه‌های اجتماعی غربی توجه کمی یا اصلاً دریافت نمی‌کند.»

    کارزارهای تأثیرگذاری آنلاین که هدفشان تغییر جهت سیاست آمریکا و پخش پیام‌های تفرقه‌انگیز است، حداقل یک دهه پیش آغاز شده‌اند؛ زمانی که آژانس تحقیقاتی اینترنتی مستقر در روسیه حساب‌های متعددی در فیس‌بوک و توییتر ایجاد کرد و سعی در تأثیرگذاری بر انتخابات ریاست‌جمهوری ۲۰۱۶ داشت.

    همان‌طور که در برخی حوزه‌های دیگر مانند امنیت سایبری و برنامه‌نویسی، رشد هوش مصنوعی زمینه تبلیغ آنلاین را متحول نکرده است، اما انجام برخی کارها را خودکارتر کرده است، صادک گفت.

    او افزود: «ممکن است محتوا پایین‌کیفیت باشد، اما به‌صورت وسیعی قابل گسترش است. می‌توانند در جایی بنشینند، شاید فقط یک فرد با فشار دادن دکمه‌ها این همه محتوا را تولید کند.»

    از نمونه‌های ذکر شده در گزارش می‌توان به «دوئپل‌گانگر» اشاره کرد؛ عملیاتی که وزارت عدالت آن را به کرملین مرتبط می‌داند و پژوهشگران می‌گویند از هوش مصنوعی برای ساخت وب‌سایت‌های خبری جعلی که قانع‌کننده نیستند استفاده کرده است؛ و «اسپاموفلوژ» که وزارت عدالت آن را به چین نسبت می‌دهد و این کارزار افراد خبری جعلی هوش مصنوعی تولید می‌کند تا ویدیوهای تفرقه‌انگیز اما غیرقابل‌قبول را در شبکه‌های اجتماعی مانند X و یوتیوب گسترش دهد. گزارش همچنین به چندین عملیات اشاره کرد که از صدای عمیق‌فیک (deepfake) با کیفیت پایین استفاده کرده‌اند.

    یک نمونه از این کارزارها، انتشار دیپ‌فیک‌های سلبریتی‌هایی چون اوپرا وینفری و رئیس‌جمهور پیشین باراک اوباما بود که به‌نظر می‌رسیدند درباره رشد هند در صحنهٔ جهانی اظهار نظر می‌کنند. اما گزارش می‌گوید این ویدیوها غیرقابل‌قبول به‌نظر می‌رسیدند و توجه زیادی جلب نکردند.

    ویدیو دیگری با محوریت روسیه‌پراستی به نام «المپیک فرو ریخت» به‌نظر می‌رسید تا بازی‌های المپیک تابستانی ۲۰۲۴ پاریس را تخریب کند. با ارجاع به فیلم هالیوودی ۲۰۱۳ «ال‌امپوس فرو ریخت»، این ویدیو نسخهٔ هوش مصنوعیِ تام کراس را به تصویر می‌کشید، در حالی که او در هیچیک از این فیلم‌ها حضور نداشته است. گزارش نشان داد که این اثر جز در یک اتاق پژواک کوچک از حساب‌هایی که معمولاً فیلم‌های این کارزار را به‌اشتراک می‌گذارند، توجهی دریافت نکرد.

    سخنگویان سفارت چین در واشنگتن، وزارت امور خارجهٔ روسیه، X و یوتیوب به درخواست‌های اطلاع‌رسانی پاسخ ندادند.

    چنان‌که صادک می‌گوید، حتی اگر تلاش‌های آن‌ها به افراد زیادی نرسد، برای تبلیغ‌کنندگان ارزش دارد که در عصر ربات‌های گفتگوی هوش مصنوعی، اینترنت را پر کنند. شرکت‌های تولیدکننده این ربات‌ها به‌طور مستمر با جمع‌آوری متن‌های موجود در اینترنت، مدل‌های خود را آموزش داده و به‌صورت بازپخش مطالب استفاده می‌کنند.

    مطالعهٔ اخیر موسسهٔ گفتگوی استراتژیک (Institute for Strategic Dialogue)، یک سازمان غیرانتفاعی حامی دموکراسی، نشان داد که اکثر ربات‌های گفتگوی اصلی هوش مصنوعی یا مدل‌های زبانی بزرگ، در پاسخ‌های خود به منابع خبری روسی حمایت‌شده توسط دولت اشاره می‌کنند؛ حتی برخی از این منابع تحت تحریم اتحادیهٔ اروپا قرار دارند.

  • چگونه دزدهای موزه لوور از روان‌شناسی انسانی برای فرار از مشکوک شدن بهره بردند – و آنچه درباره هوش مصنوعی نشان می‌دهد

    Yoan Valat / تصاویر EPA

    در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا می‌شود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را به‌دست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارت‌ترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.

    بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگ‌ها فعال شد). مردان پیش از این‌که کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.

    پژوهشگران سپس فاش کردند که دزدها جلیقه‌های روشن‌دار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آن‌ها با یک بالابر مبلمان، که در خیابان‌های باریک پاریس معمولاً دیده می‌شود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه می‌کرد، استفاده کردند. پوشش کارگری‌شان باعث شد به‌نظر برسد که بخشی از محیط هستند.

    این استراتژی مؤثر بود زیرا ما جهان را به‌صورت عینی نمی‌بینیم. ما آن را از طریق دسته‌بندی‌ها می‌بینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دسته‌بندی‌های اجتماعی که ما به‌عنوان «نرمال» می‌شناسیم، درک کردند و از آن‌ها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانه‌های هوش مصنوعی (AI) به‌طور مشابه عمل می‌کنند و در نتیجه به همان نوع اشتباهات مستعد هستند.

    سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقش‌های اجتماعی را «اجرا» می‌کنند با به‌کارگیری نشانه‌هایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالی‌بودن» به‌عنوان یک پوشش کامل تبدیل شد.

    جامعه‌شناسی نگاه

    انسان‌ها به‌طور مداوم دسته‌بندی‌های ذهنی انجام می‌دهند تا افراد و مکان‌ها را درک کنند. وقتی چیزی در دسته «عادی» جای می‌گیرد، از نگاه ما پنهان می‌شود.

    سیستم‌های هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیت‌های مشکوک در فضاهای عمومی به‌کار می‌روند، به‌صورت مشابهی عمل می‌کنند. برای انسان‌ها، دسته‌بندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.

    اما هر دو سیستم بر الگوهای یادگرفته‌شده به‌جای واقعیت عینی تکیه دارند. چون هوش مصنوعی از داده‌هایی که چه کسی «نرمال» و چه کسی «مشکوک» به‌نظر می‌رسد می‌آموزد، دسته‌بندی‌های موجود در داده‌های آموزشی خود را جذب می‌کند. این امر باعث می‌شود که به تعصب حساس شود.

    دزدهای لوور به‌دلیل انطباق با یک دسته‌بندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند می‌تواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیش‌ازحد قرار می‌گیرند.

    این می‌تواند به این معنا باشد که سامانه تشخیص چهره به‌طور نامتناسبی برخی گروه‌های نژادی یا جنسیتی را به‌عنوان تهدیدهای احتمالی نشان می‌دهد، در حالی که دیگران را نادیده می‌گیرد.

    نگرش جامعه‌شناختی به ما کمک می‌کند بفهمیم که این‌ها مسائل جداگانه‌ای نیستند. هوش مصنوعی دسته‌بندی‌های خود را اختراع نمی‌کند؛ بلکه دسته‌بندی‌های ما را می‌آموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبط‌های امنیتی آموزش داده می‌شود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف می‌شود، همان فرضیات را بازتولید می‌کند.

    همان‌طور که نگهبانان موزه به‌دلیل این‌که دزدها گویی جزئی از محیط بودند، نادیده‌شان گرفتند، هوش مصنوعی نیز می‌تواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان می‌دهد.

    دسته‌بندی، چه انسانی و چه الگوریتمی، یک‌سلاح دو لبه است. این کار به ما کمک می‌کند اطلاعات را به‌سرعت پردازش کنیم، اما در عین حال مفروضات فرهنگی‌مان را نیز در خود جای می‌دهد. هم انسان‌ها و هم ماشین‌ها به شناسایی الگوها متکی‌اند؛ روشی مؤثر اما ناپایدار.

    دیدگاه جامعه‌شناختی نسبت به هوش مصنوعی الگوریتم‌ها را به‌عنوان آینه می‌بیند: آن‌ها دسته‌بندی‌ها و سلسله‌مراتب‌های اجتماعی ما را بازتاب می‌دهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آن‌ها نگاه می‌شد. به‌عبارت دیگر، در زمینه هوش مصنوعی، آن‌ها آزمون طبقه‌بندی را گذراندند.

    از تالارهای موزه تا یادگیری ماشین

    این ارتباط بین ادراک و دسته‌بندی نکته‌ای مهم درباره دنیای رو به‌الگوریتمی ما را آشکار می‌کند. چه نگهبانی باشد که تصمیم می‌گیرد چه کسی مشکوک به نظر می‌رسد و چه هوش مصنوعی که تصمیم می‌گیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دسته‌ها بر پایه‌نشانه‌هایی که به‌نظر عینی می‌آیند اما به‌صورت فرهنگی آموخته شده‌اند.

    زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف می‌شود، این غالباً به این معناست که آن دسته‌بندی‌های اجتماعی را بیش از حد دقیق بازتاب می‌دهد. سرقت لوور به ما یادآوری می‌کند که این دسته‌بندی‌ها تنها نگرش‌های ما را شکل نمی‌دهند، بلکه آنچه در نگاه اول توجه می‌شود را نیز تعیین می‌کنند.

    پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربین‌های جدید و امنیت شدیدتر داد. اما مهم نیست این سیستم‌ها چقدر پیشرفته شوند، آن‌ها همچنان به دسته‌بندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب می‌شود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.

    سرقت لوور به‌عنوان یکی از نمایان‌ترین سرقت‌های موزه‌ای اروپا در خاطره‌ها می‌ماند. دزدها موفق شدند زیرا جامعه‌شناسی ظاهر را تسلط یافتند: آن‌ها دسته‌بندی‌های نرمالی را درک کرد و به‌عنوان ابزار استفاده کردند.

    و با این کار، نشان دادند که چگونه هم افراد و هم ماشین‌ها می‌توانند انطباق را با امنیت اشتباه بگیرند. موفقیت آن‌ها در نور روز تنها پیروزی برنامه‌ریزی نبود؛ بلکه پیروزی تفکر دسته‌بندی‌شده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.

    درس واضح است: پیش از این‌که ماشین‌ها را به‌سوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه می‌بینیم را زیر سؤال ببریم.

  • راننده ایمنی روبوتاکسی تسلا هنگام کار به خواب رفت

    روز دیگر، فاجعه دیگر تسلا که شاید تعجّب نکنیم.

    نوشتهٔ لوئیس پرادا

    ohmichael / Reddit

    سال تسلا به همان روانی پیش می‌رود که از شرکتی که به‌نظر می‌رسد مصمم است تا رهبرش که به‌صورت علنی از نمادهای نازی استفاده می‌کند، ثروتمندترین انسان تاریخ شود، انتظار می‌رفت، حتی وقتی که تمام معیارهای ممکن نشان می‌دهند شرکت در حال فروپاشی است. سودها کاهش یافته‌اند، سبد مدل‌ها به‌سرعت پیر می‌شود، و ایلان ماسک، مدیرعامل، عملاً می‌گوید می‌خواهد یک ارتش رباتی را رهبری کند؛ موضوعی که به‌ویژه ترسناک می‌شود وقتی که او هوش مصنوعی‌اش، گروک، را به یک نو‑نازی‌علاقه‌مند به هیتلر در 4چن تبدیل کرده است.

    به‌نظر می‌رسد صرف‌نظر از کاری که شرکت انجام می‌دهد، در نهایت به اخباری بد و حتی بدتر شدن کسب‌وکار منجر می‌شود. برای مثال: روبوتاکسی‌های تسلا هم‌اکنون در آستین و سانفرانسیسکو می‌چرخند، اما توانایی‌های خودران آن‌ها در بهترین حالت مشکوک است؛ بنابراین برای اطمینان از عدم بروز مشکل، ناظر انسانی داخل خودرو نیاز است.

    ویدیوها توسط VICE

    به گزارش Ars Technica، یک مسافر سانفرانسیسکویی یک ویدیو ۱۲ ثانیه‌ای را در ردیت به اشتراک گذاشت که راننده ایمنی تسلا را در حین حرکت خودرو در خواب عمیق نشان می‌دهد. به‌ گفتهٔ مسافر، این مرد نه یک‌بار، نه دو‌بار، بلکه سه بار در طول سفر سر می‌خوابید. وقتی مسافر سعی کرد این موضوع را به تسلا اطلاع دهد، شرکت پاسخی نداد که به‌نظر منطقی بود.

    بدتر از آن، کاربر دیگری در ردیت ادعا کرد که همان راننده ایمنی را داشته‌اند که همچنان در مسیر ترافیک از تمسکال تا سانفرانسیسکو به خواب رفته بود. کار به‌عنوان راننده ایمنی انسانی قطعاً شغلی عجیب است؛ ترکیبی از نگهدارنده کودک و شناور نجات. Waymo، پیشرو فعلی بازار تاکسی‌های خودران، پیش از اجازهٔ کارمندان برای حضور در جاده‌های عمومی، آموزش‌های گسترده‌ای می‌طلبد.

    از سوی دیگر، به‌نظر می‌رسد تسلا به‌صورت سرسختانه ادامه می‌دهد و امیدوار است مسافران اهمیتی به این نکته ندهند که شخصی که مسئول اطمینان از روانی مسیر است، خروپف می‌کند و آب دهانش از روی چانه‌اش می‌چکد. گویی این همان شعار قدیمی «سریع حرکت کن و چیزها را بشکن» درهٔ سیلیکون است که تا زمانی که چیزی که سریع می‌دود یک خودرو رباتیک است و چیزی که شکسته می‌شود شما در صندلی عقب هستید، جذاب به‌نظر می‌رسد.

    از زمان آغاز آزمایش روبوتاکسی آستین توسط تسلا در ماه ژوئیه، حداقل هفت تصادف گزارش شده است. تسلا داده‌ها را به نهادهای نظارتی ایمنی فدرال ارائه کرده، اما بخشی قابل توجه از آن‌ها را حذف کرده است. این قدمی اطمینان‌بخش از سوی شرکتی است که خودروهای خودران را در ترافیک آزمایش می‌کند. بدتر از آن این است که تسلا هنوز مجوزهای لازم برای ارائهٔ سرویس خودکار حمل‌ونقل در ایالت کالیفرنیا را دریافت نکرده است.

    در حال حاضر، تسلا به‌صورت عمومی به حوادث رانندهٔ خوابیده یا سؤالات مربوط به مجوزها پاسخ نداده است.

  • پرایم‌ویدیو آمازون برای برخی سریال‌های تلویزیونی خلاصه‌های ویدئویی تولیدشده توسط هوش مصنوعی ارائه می‌دهد

    به‌نظر می‌رسد که دوران «و این هم آنچه در گلی از دست دادید» گذشته باشد. پرایم‌ویدیو آمازون، خلاصه‌های ویدئویی تولیدشده توسط هوش مصنوعی را برای کمک به بینندگان در جبران فاصله بین فصول برنامه‌ها اضافه می‌کند، این شرکت روز چهارشنبه اعلام کرد.

    به‌گفته آمازون، این ویژگی «از هوش مصنوعی مولد برای ایجاد خلاصه‌های فصلی با کیفیت تئاتری، همراه با روایت همگام، دیالوگ و موسیقی استفاده می‌کند». این ویژگی به‌صورت نسخهٔ بتا برای برخی از برنامه‌های اصلی پرایم، مانند «Fallout»، «Jack Ryan اثر تام کلانی» و «Upload» از روز چهارشنبه در دسترس خواهد بود.

    پرایم‌ویدیو سال گذشته ویژگی مشابهی به‌نام «X‑Ray Recaps» را راه‌اندازی کرد که فصول کامل، قسمت‌ها یا بخش‌هایی از آن‌ها را خلاصه می‌کند — در آن زمان، آمازون اعلام کرد که مدل هوش مصنوعی آن دارای محدودیت‌هایی است تا از به‌طور ناخواسته به‌اشتراک‌گذاری فاش‌کننده‌ها جلوگیری شود.

    منبع تصویر:پرایم‌ویدیو

    مصرف‌کنندگان به این نوع خلاصه‌های مبتنی بر متن و هوش مصنوعی عادت کرده‌اند، چون معمولاً آن‌ها را هنگام خلاصه‌شدن متن‌ها توسط گوشی خود می‌بینند یا زمانی که (شاید ناخواسته) یک خلاصهٔ هوش مصنوعی در بالای نتایج جستجوی گوگل نشان می‌شود. اما این خلاصه‌های ویدئویی به حوزه‌ای جدید قدم می‌گذارند که ممکن است نسبت به خلاصه‌های متنی مزاحم‌تر به‌نظر برسند — یا شاید توسط افرادی که به‌خاطر ندارند «Bosch» چه رخ داده است، مورد استقبال قرار گیرند.

    رقبای پرایم‌ویدیو نیز در حال بررسی نحوهٔ ادغام هوش مصنوعی مولد در محصولات خود هستند.

    به‌عنوان مثال، YouTube TV از ویژگی «Key Plays» برای کمک به بینندگان در پیگیری مسابقات ورزشی استفاده می‌کند اگر در حین برگزاری بازی تماشا را آغاز کنند. اگرچه این ویژگی کمی ناقص است (الگوریتم آن تنها به‌نظر می‌رسد بتواند نقاط کلیدی حمله در بیسبال را شناسایی کند)، این ویژگی به YouTube TV کمک کرد تا اولین جایزهٔ امی فنی خود را به‌دست آورد.

    در همین حین، نتفلیکس از هوش مصنوعی مولد در بخش تولیدی کسب‌وکار خود بهره می‌گیرد.

    اوایل سال جاری، نتفلیکس اعلام کرد که برای اولین بار از هوش مصنوعی مولد در فیلم‌برداری نهایی سریال آرژانتینی «The Eternaut» برای ایجاد صحنه‌ای از فروپاشی یک ساختمان استفاده کرده است. پس از آن، «Happy Gilmore 2» با استفاده از هوش مصنوعی مولد شخصیت‌ها را در صحنهٔ آغازین فیلم جوان‌تر کرد و تهیه‌کنندگان «Billionaires’ Bunker» از این فناوری در پیش‌تولید برای تجسم لباس‌ها و طراحی صحنه بهره بردند.

    استفاده از هوش مصنوعی در صنعت سینما بحث‌های فراوانی را به‌وجود آورده است؛ زیرا هنرمندان نگرانند این ابزارها — که گاهی بدون اجازه بر آثار آن‌ها آموزش می‌بینند — می‌توانند معیشتشان را به خطر اندازند. اما برخی استدلال می‌کنند که ابزارهایی که کارهای خسته‌کنندهٔ انیمیشن یا جلوه‌های ویژه را تسریع می‌کنند، همچون Wonder Dynamics، می‌توانند ظرفیت خلاقیت هنرمندان را افزایش دهند.

    موضوعات

    هوش مصنوعی، آمازون، پرایم‌ویدیو آمازون، رسانه و سرگرمی، نتفلیکس، پخش ویدئو آنلاین

  • سرمایه‌گذار خطرپذیر آنتوان بلوندو درباره جذاب‌ترین بازارهای هوش مصنوعی در آسیا

    آنتوان بلوندو - فوربس 1
    آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت Alpha Intelligence Capital، در کنفرانس جهانی مدیران اجرایی فوربس 2025 در جاکارتا. Alpha Intelligence Capital

    در سال‌های اخیر، شرکت‌های برتر هوش مصنوعی جهان به‌طور تند به آسیا گسترش یافته‌اند، چرا که منطقه استفاده بالایی از ابزارهای هوش مصنوعی آن‌ها دارد. اما هنوز توافقی دربارهٔ محل تأسیس دفتر مرکزی آسیایی‌شان پیدا نکرده‌اند. به‌عنوان مثال، پیشگام هوش مصنوعی OpenAI، سنگاپور را انتخاب کرد، در حالی که رقیب Anthropic ژاپن را برگزید و Cohere که توسط Nvidia پشتیبانی می‌شود، به کره‌جنوبی رفت.

    برای آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت شرکت سرمایه‌گذاری خطرپذیر متمرکز بر هوش مصنوعی Alpha Intelligence Capital، انتخاب واضح است: سنگاپور. این شرکت مستقر در لوکزامبورگ پیش از این در دو استارتاپ در این شهر‑دولت سرمایه‌گذاری کرده است — تولیدکننده هنر هوش مصنوعی PixAI و ارائه‌دهندهٔ ابزار تجزیه‌وتحلیل نقص‌های نیمه‌رسانا Sixsense — و در حال حاضر در میانهٔ تکمیل سرمایه‌گذاری سوم است که هنوز اعلام نشده است.

    در سایر نقاط جهان، Alpha Intelligence Capital در OpenAI، توسعه‌دهندهٔ مدل‌های ویدئویی هوش مصنوعی Higgsfield (سان‌فرانسیسکو)، ارائه‌دهندهٔ سیستم‌های ناوبری مبتنی بر هوش مصنوعی Advanced Navigation (سیدنی)، رهبر تصویربرداری پزشکی مبتنی بر هوش مصنوعی Aidoc (تل‌آویو) و ارائه‌کنندهٔ بیمه‌پوششی سایبری فعال با هوش مصنوعی Envelop (لندن) سرمایه‌گذاری کرده است. خروجی‌های پرتفوی این شرکت شامل پیشگام هوش مصنوعی چینی SenseTime (که در سال ۲۰۲۱ در هنگ‌کنگ لیست شد) و ارائه‌دهندهٔ خدمات هوش مصنوعی بریتانیایی InstaDeep (که در سال ۲۰۲۳ توسط BioNTech به‌مبلغ ۶۸۰ میلیون دلار خریداری شد) می‌شود. این شرکت از زمان تأسیس در سال ۲۰۱۸، حدود ۵۰۰ میلیون دلار سرمایه در دو صندوق جذب کرده است.

    آنتوان بلوندو می‌گوید: «سنگاپور می‌تواند تعداد زیادی از استعدادهای چین قاره‌ای، استعدادهای هندی و در واقع از تقریباً همه جای جهان را جذب کند.» او که وقتی مسافرت نمی‌کند، زمان خود را بین دو منزلش در سانفرانسیسکو و دوبی تقسیم می‌کند، این حرف را در مصاحبه‌ای در حاشیهٔ کنفرانس جهانی مدیران اجرایی فوربس ماه گذشته در جاکارتا زد.

    او افزود: «به‌ویژه از چین، که دارای یک مجموعهٔ بزرگ از استعدادهای بسیار توانمند و سطح مهارت بالایی است.» به‌عنوان مثال، استارتاپ عامل هوش مصنوعی Manus که توسط Benchmark، Tencent و HSG (قبلاً Sequoia China) حمایت می‌شود، اوایل امسال از چین به سنگاپور نقل مکان کرد. غول مد سریع‌السیر Shein، شرکت سرمایه‌گذاری Hillhouse و HSG نیز در سال‌های اخیر همین حرکت را انجام داده‌اند.

    بلوندو مقایسه‌ای بین سنگاپور و تل‌آویو، یکی از پیشروترین مراکز استارتاپی جهان که شرکت نرم‌افزاری امنیت سایبری Wiz (که توسط گوگل به‌مبلغ ۳۲ میلیارد دلار خریداری شد) و پیشگام دوربین‌روی خودرو Mobileye (که توسط اینتل به‌مبلغ ۱۵ میلیارد دلار خریداری شد) را به‌وجود آورد، می‌کشد. او می‌گوید: «در سنگاپور، مساحت جغرافیایی بسیار فشرده‌ای دارید که تقریباً تمام صنایع، از مالی و لجستیک تا ارتباطات و خطوط هوایی، و شامل دفاتر منطقه‌ای شرکت‌های جهانی می‌شود.» به‌عنوان مثال، گوگل و متا از سنگاپور به‌عنوان دفتر منطقه‌ای خود استفاده می‌کنند.

    تصمیم OpenAI برای نامگذاری سنگاپور به‌عنوان مرکز آسیایی خود، ناشی از ظهور این شهر‑دولت «به‌عنوان پیشرو در هوش مصنوعی» بود، همان‌طور که سِم آلتمن، مدیرعامل، سال گذشته در بیانیه‌ای اعلام کرد. جیسون کوون، مسئول ارشد استراتژی OpenAI، در ماه می افزود که سنگاپور بالاترین میزان استفاده سرانه از ChatGPT را دارد.

    CL104689
    (چپ به راست) آنتوان بلوندو، هم‌بنیان‌گذار و شریک مدیریت Alpha Intelligence Capital؛ دانیل آیوز، مدیر اجرایی و سرپرست جهانی تحقیق فناوری در Wedbush؛ آنتونی تان، مدیرعامل، هم‌بنیان‌گذار و رئیس هیئت مدیره Grab؛ و ژانگ یا‑قین، پروفسور صندقی و رئیس دانشکدهٔ دانشگاه تسینگهوا در کنفرانس جهانی مدیران اجرایی فوربس 2025. به میانه‌گری ریچ کارلگارد (در سمت راست)، فیوتوریست و ستون‌نویس Forbes Asia. Forbes Asia

    فراتر از سنگاپور، بلوندو سه بازار دیگر را که آماده‌اند به مراکز هوش مصنوعی تبدیل شوند شناسایی می‌کند: کره‌جنوبی، تایوان و هند.

    او نقش مهمی برای کره‌جنوبی در ربات‌های مبتنی بر هوش مصنوعی پیش‌بینی می‌کند، شامل ربات‌های انسان‌نما و سایر ربات‌ها که در صنایع مختلفی چون خودروسازی، لجستیک و ساخت‌ونقش کشتی به‌کار می‌روند. او می‌گوید: «کره‌جنوبی می‌تواند بهترین‌های هوش مصنوعی و بهترین رباتیک را به‌دست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً کارآمد ترکیب کند.»

    برخی از بزرگ‌ترین شرکت‌های کره‌جنوبی پیشاپیش در زمینهٔ رباتیک مشارکت داشته‌اند. سامسونگ الکترونیک حدود ۱۸۰ میلیون دلار در Rainbow Robotics سرمایه‌گذاری کرد تا سال گذشته بزرگ‌ترین سهامدار آن شود. هیوندای موتور یک سهم کنترلی در Boston Dynamics را از گروه SoftBank در سال ۲۰۲۰ خریداری کرد و ارزش‌گذاری سازندهٔ ربات‌های شبیه سگ را حدود ۱.۱ میلیارد دلار تعیین کرد. گروه دوسان در سال ۲۰۲۳ واحد ربات‌های همکار خود، Doosan Robotics، را در بورس فهرست کرد و ۳۱۲ میلیون دلار جذب کرد؛ که بزرگ‌ترین IPO کره‌جنوبی در آن سال بود.

    OpenAI امسال پیش از این در پایتخت کره‌جنوبی، سئول، حضور خود را برقرار کرد. این کشور بیشترین تعداد مشترکین پرداخت‌کننده برای ChatGPT را پس از ایالات متحده دارد. Anthropic قصد دارد اوایل سال آینده دفتر خود را در سئول افتتاح کند تا به مشتریان خود بیکرانتر نزدیک شود؛ مشتریان آن شامل SK Telecom و استارتاپ فناوری حقوقی Law&Company می‌شوند. Anthropic در بیانیه‌ای می‌گوید: «جامعهٔ توسعه‌دهندگان در کره یکی از قوی‌ترین‌های ما در سطح جهان است و یک مهندس نرم‌افزار کره‌ای در حال حاضر به‌عنوان برترین کاربر Claude Code جهان شناخته می‌شود؛ که عمق استعداد فنی و پذیرش بازار را نشان می‌دهد.»

    «کره‌جنوبی می‌تواند بهترین‌های هوش مصنوعی و بهترین رباتیک را به‌دست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً مؤثر ترکیب کند.»

    اطمینان بلوندو نسبت به تایوان از صنعت سخت‌افزار پیشرو جهان آن ناشی می‌شود. این جزیره میزبان تولیدکنندگان الکترونیک بزرگ همچون Foxconn، Quanta و Wistron است که بلوندو می‌گوید می‌توانند به سطوح بالاتر رفته و به سخت‌افزارهای مرتبط با هوش مصنوعی ارتقا یابند.

    به‌تدریج که افراد بیشتری در ساخت سخت‌افزارهای مجهز به هوش مصنوعی مشارکت می‌گیرند، بلوندو بر این باور است که این تعامل موج جدیدی از استعدادهای هوش مصنوعی را پرورش خواهد داد. او می‌گوید: «تایوان در سه یا چهار سال آینده به‌مکانی جذاب برای کسب تخصص تبدیل خواهد شد، نه‌تنها در حوزه سخت‌افزار، بلکه در فضای دستگاه‌های مجهز به هوش مصنوعی نیز.»

    در مورد هند، بلوندو به این نکته اشاره می‌کند که صنعت برون‌سپاری این کشور با ارزش ۲۵۰ میلیارد دلار — بزرگ‌ترین در جهان — تحت تحول هوش مصنوعی قرار گرفته و نسلی جدید از متخصصان هوش مصنوعی را پرورش می‌دهد. او می‌گوید: «امروز، هوش مبتنی بر انسان، مانند مهندسان نرم‌افزار، بخشی از آن باید به هوش ماشین منتقل شود.» بزرگ‌ترین شرکت‌های برون‌سپاری هند — Wipro، Infosys، HCLTech و Tata Consultancy Services — همگی در حال سرمایه‌گذاری در راه‌حل‌های هوش مصنوعی هستند، مانند چت‌بات‌هایی که برای جایگزینی مراکز تماس طراحی شده‌اند.

    OpenAI قصد دارد تا پایان سال یک دفتر در دهلی نو افتتاح کند. این کشور دومین بازار بزرگ از نظر تعداد کاربران و بیشترین تعداد کاربران دانشجویی ChatGPT است. سِم آلتمن در بیانیه‌ای می‌گوید: «هند تمام عوامل لازم برای تبدیل شدن به پیشرو جهانی هوش مصنوعی را دارد — استعداد فنی شگفت‌انگیز، بستر توسعه‌دهندگان در سطح جهانی، و حمایت قوی دولت از طریق مأموریت IndiaAI.»

    Anthropic برنامه دارد اوایل سال آینده دفتر خود را در بنگلور، مرکز فناوری پیشرفتهٔ هند، راه‌اندازی کند. این کشور همچنین دومین بازار بزرگ از نظر تعداد کاربران چت‌بات Claude این استارتاپ است. داریو آمودی، هم‌بنیان‌گذار و مدیرعامل Anthropic، در بیانیه‌ای می‌گوید: «هند به‌دلیل مقیاس بزرگ استعدادهای فنی‌اش و تعهد دولت هندی برای اطمینان از اینکه منافع هوش مصنوعی به تمام بخش‌های جامعه، نه‌تنها بخش‌های متمرکز، دست یابد، جذاب است.»

    ندان نیلکانی، شریک مؤسس میلیاردر شرکت Infosys، در سخنرانی‌اش در آوریل در همایش جهانی فناوری گفت که او معتقد است هند به‌عنوان «پایتخت استفاده از هوش مصنوعی» جهان خواهد شد.

    بلوندو می‌گوید: «ما فکر می‌کنیم هند همان‌جایی است که چین سه تا هفت سال پیش بود.» او ادامه می‌دهد: «هند برای یک رشد عظیم در ارزش کل حوزه هوش مصنوعی پیش‌بینی شده است.»