به گفته یک گروه نظارتی، این اسباببازی پولیشی که «دوستانه» خوانده میشد، موضوعات را «با جزئیات واضح و بیپرده» به سمت مسائل نامناسب سوق داد.
نسخهای مجهز به هوش مصنوعی از خرس عروسکی معروف، پس از هشدار یک گروه نظارتی مبنی بر اینکه این اسباببازی میتواند به موضوعات جنسی صریح بپردازد و به کودکان توصیههایی مضر ارائه دهد، از بازار جمعآوری شد.
بر اساس گزارش جدید «گروه تحقیقاتی منافع عمومی ایالات متحده»، خرس عروسکی «کوما» محصول شرکت سنگاپوری «فولوتوی» – یک خرس سخنگوی ۹۹ دلاری که از چتبات GPT-4o شرکت OpenAI استفاده میکند – نحوه پیدا کردن چاقو در خانه و روشن کردن کبریت را آموزش داده و بحث درباره مفاهیم جنسی مانند تنبیه بدنی و تمایلات نامتعارف را «با جزئیات واضح و بیپرده» مطرح کرده است.
این گزارش توضیح میدهد که وقتی یکی از محققان موضوع «تمایلات نامتعارف» را پیش کشید، این خرس عروسکی شروع به صحبت مفصل در این باره کرد و به مواردی چون بازیهای حسی، «زدن بازیگوشانه با اشیای نرم مانند پدل یا دست» و همچنین ایفای «نقش حیوان» توسط یکی از طرفین اشاره نمود.
در ادامه گزارش آمده است: «در مکالمات دیگری که تا یک ساعت به طول انجامید، کوما حتی موضوعات جنسی بیپردهتری را با جزئیات مورد بحث قرار داد؛ برای مثال، پوزیشنهای مختلف جنسی را توضیح داد، دستورالعملهای گام به گام برای یک “گره مبتدی” جهت بستن شریک جنسی ارائه کرد و به توصیف پویاییهای نقشآفرینی شامل معلمان و دانشآموزان و والدین و فرزندان پرداخت — سناریوهایی که به طرز نگرانکنندهای خودش مطرح میکرد.»
در موردی دیگر، این خرس عروسکی توضیح داد که چاقوها را میتوان در «کشو آشپزخانه یا در جای چاقو» پیدا کرد و سپس توصیه کرد که هنگام جستجو برای آنها «مهم است که از یک بزرگسال کمک بخواهید.»
اسباببازیهای دیگری که در این گزارش نام برده شدهاند نیز به موضوعات عجیبی پرداختهاند.
در این گزارش توضیح داده شده است که «گراک» محصول شرکت «کیوریو» – یک اسباببازی موشکی پارچهای که در داخل آن یک بلندگو قرار دارد – در حالی که برای یک کاربر ۵ ساله برنامهریزی شده بود، «با خوشحالی درباره شکوه مردن در نبرد در اساطیر نورس صحبت میکرد.» البته وقتی از او پرسیده شد که آیا یک جنگجوی نورس باید سلاح داشته باشد، ناگهان بحث را متوقف کرد.
پیش از آنکه شرکت «فولوتوی» این خرسهای عروسکی را از کاتالوگ آنلاین خود حذف کند، این شرکت اسباببازی خود را «دوستداشتنی»، «صمیمی» و «یک همراه پولیشی هوشمند مجهز به هوش مصنوعی که فراتر از در آغوش گرفتن است» توصیف کرده بود.
شرکت فولوتوی ادعا کرده بود که کوما – یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا – «مکالمات پرجنبوجوش» و همچنین «داستانسرایی آموزشی» ارائه میدهد.
بر اساس گزارش روز دوشنبه وبسایت «فیوچریزم»، شرکت «فولوتوی» از آن زمان فروش تمام اسباببازیهای خود، فراتر از این خرس عروسکی، را به حالت تعلیق درآورده و یکی از نمایندگان شرکت به گروه نظارتی گفته است که آنها «یک ممیزی ایمنی جامع و سرتاسری را در تمام محصولات خود اجرا خواهند کرد.»
همچنین گزارش شده است که شرکت OpenAI نیز دسترسی این شرکت به مدلهای هوش مصنوعی خود را قطع کرده است.
آر. جی. کراس، یکی از نویسندگان این گزارش، در بیانیهای که توسط CNN منتشر شد، از اقدام شرکتها در «رسیدگی به مشکلاتی» که توسط گروهش شناسایی شده بود، قدردانی کرد.
کراس خاطرنشان کرد: «اما اسباببازیهای هوش مصنوعی هنوز عملاً بدون نظارت هستند و تعداد زیادی از آنها را هنوز هم میتوانید امروز خریداری کنید.»
او ادامه داد: «حذف یک محصول مشکلساز از بازار گام خوبی است، اما با یک راهحل سیستمی فاصله زیادی دارد.»
دانشجویان استافوردشای میگویند نشانههای نشاندهندهٔ تولید هوش مصنوعی شامل نامهای فایل مشکوک و لهجهٔ صدای راوی نامنطبق بود
دانشجویان دانشگاه استافوردشای اظهار کردند پس از اینکه دورهای که امید داشتند شانسشان را برای آغاز حرفهٔ دیجیتالشان فراهم میکرد، بهطور عمده توسط هوش مصنوعی تدریس شد، احساس «دزدیده شدن دانش و لذت» میکنند.
جیمز و اوون از میان ۴۱ دانشجویی بودند که سال گذشته در استافوردشای یک ماژول برنامهنویسی را گذراندند و امید داشتند از طریق یک برنامهٔ کارآموزی دولتی که برای تبدیلشان به متخصصان امنیت سایبری یا مهندسان نرمافزار طراحی شده بود، مسیر شغلیشان را عوض کنند.
اما پس از یک ترم که اسلایدهای تولیدشده توسط هوش مصنوعی توسط یک صدای مصنوعی نیز خوانده میشد، جیمز گفت که اعتماد خود به برنامه و افراد مسئول را از دست داده و نگران است که «دو سال» از عمرش را صرف دورهای کرده باشد که «به ارزانترین شکل ممکن» ارائه شده بود.
«اگر ما کارهای تولیدشده توسط هوش مصنوعی را تحویل میدادیم، از دانشگاه اخراج میشدیم، اما ما توسط هوش مصنوعی تدریس میشویم»، جیمز در مواجههای با استاد خود گفت که در اکتبر ۲۰۲۴ ضبط شد و بخشی از دوره محسوب میشود.
جیمز و سایر دانشجویان بارها با مسئولان دانشگاه دربارهٔ مواد تولیدشده توسط هوش مصنوعی مواجه شدند. اما بهنظر میرسد دانشگاه همچنان از این مواد برای تدریس دوره استفاده میکند. امسال، دانشگاه بیانیهای سیاستی را در وبسایت دوره بارگذاری کرد که بهنظر میرسد استفاده از هوش مصنوعی را توجیه میکند و «چارچوبی برای متخصصان علمی جهت بهرهبرداری از خودکارسازی هوش مصنوعی» را در کارهای پژوهشی و تدریس ارائه میدهد.
سیاستهای عمومی دانشگاه استفادهٔ دانشجویان از هوش مصنوعی را محدود میکند و میگوید دانشجویانی که کارهای خود را به هوش مصنوعی واگذار میکنند یا آثار تولیدشده توسط هوش مصنوعی را بهعنوان کار خود ادعا مینمایند، نقض سیاست صداقت دانشگاه هستند و ممکن است بهخاطر تخلف علمی مورد پیگرد قرار گیرند.
«من در میانهٔ زندگی و حرفهام هستم»، جیمز گفت. «حس نمیکنم بتوانم همین الآن رها شوم و مسیر شغلی جدیدی را شروع کنم. من در این دوره گیر کردهام.»
پروندهٔ استافوردشای همزمان با این است که دانشگاههای بیشتری از ابزارهای هوش مصنوعی برای تدریس دانشجویان، تولید مواد دورهای و ارائه بازخورد شخصیسازیشده استفاده میکنند. یک مقالهٔ سیاستگذاری وزارت آموزش و پرورش که در ماه اوت منتشر شد، این پیشرفت را تحسین کرد و اعلام کرد هوش مصنوعی مولد «توانایی تحول در آموزش را دارد». یک نظرسنجی سال گذشته (pdf) از ۳۲۸۷ نفر از کارکنان آموزشی دانشگاهی توسط شرکت فناوری آموزشی Jisc نشان داد که نزدیک به یکچهارم آنها از ابزارهای هوش مصنوعی در تدریس خود بهره میبرند.
برای دانشجویان، آموزش مبتنی بر هوش مصنوعی کمتر بهعنوان تحولگرایانه و بیشتر بهعنوان عاملی که روحیه را تضعیف میکند، بهنظر میرسد. در ایالات متحده، دانشجویان نقدهای منفی آنلاین دربارهٔ استادانی که از هوش مصنوعی استفاده میکنند، منتشر میسازند. در بریتانیا، دانشجویان مقطع کارشناسی در رِدیت بهشکایت از استادانی میپردازند که بازخوردها را از ChatGPT کپی‑پیست میکنند یا از تصاویر تولیدشده توسط هوش مصنوعی در دورهها استفاده مینمایند.
«من فشارهایی که در حال حاضر بر استادان وارد است و شاید آنها را وادار به استفاده از هوش مصنوعی کند، میفهمم؛ اما این وضعیت احساس ناامیدی میآورد»، یک دانشجو نوشت.
جیمز و اوون گفتند که استفاده از هوش مصنوعی در دورهٔ استافوردشای خود را «تقریباً بلافاصله» سال گذشته متوجه شدند؛ زمانی که در اولین کلاس، استاد یک ارائهٔ پاورپوینت را اجرا کرد که شامل نسخهٔ صوتی هوش مصنوعی برای خواندن اسلایدها بود.
پس از آن، آنها گفتند که نشانههای دیگری از تولید هوش مصنوعی در برخی از مواد دوره را مشاهده کردند؛ از جمله استفاده ناهماهنگ از انگلیسی آمریکایی که به انگلیسی بریتانیایی تبدیل شده بود، نامهای فایل مشکوک، و همچنین «اطلاعات کلی و سطحی» که گاه به قوانین ایالات متحده اشاره داشت.
نشانههای مواد تولیدشده توسط هوش مصنوعی در این سال نیز ادامه یافت. در یکی از ویدئوهای دوره که در وبسایت بارگذاری شده بود، صدای راوی که مطالب را ارائه میداد، ناگهان حدود ۳۰ ثانیه به لهجهٔ اسپانیایی تبدیل شد و سپس دوباره به لهجهٔ بریتانیایی برگشت.
تغییر لهجهٔ صدای راوی در میانهٔ درس در دورهای که بهنظر میرسد توسط هوش مصنوعی تولید شده – ویدیو
گاردین مواد دورهٔ استافوردشای را مرور کرد و از دو ابزار تشخیص هوش مصنوعی متفاوت – Winston AI و Originality AI – برای اسکن مواد استفاده کرد. هر دو ابزار دریافتند که تعداد قابلتوجهی از تکالیف و ارائهها «احتمال بسیار بالایی برای تولید توسط هوش مصنوعی» داشتند.
در اوایل دوره، جیمز گفت که نگرانیهای خود را در یک جلسهٔ ماهانه به نمایندهٔ دانشجویی ارائه کرد. سپس، در اواخر نوامبر، این نگرانیها را در یک جلسهٔ درس بیان کرد که بهعنوان بخشی از مواد دوره ضبط شد. در آن ضبط، او از استاد میخواهد که به اسلایدها اهمیت ندهد.
«من میدانم این اسلایدها توسط هوش مصنوعی تولید شدهاند، میدانم همهٔ حاضرین در این جلسه میدانند این اسلایدها هوش مصنوعی هستند؛ ترجیح میدهم این اسلایدها را حذف کنید»، او میگوید. «من نمیخواهم توسط GPT تدریس شوم.»
بهسرعت پس از آن، نمایندهٔ دانشجویان در این دوره اظهار کرد: «ما این موضوع را به شما اطلاع دادیم، جیمز، و پاسخ این بود که به استادان اجازه استفاده از ابزارهای مختلف داده میشود. ما از این پاسخ بسیار ناامید شدیم.»
دانشجوی دیگری میگوید: «در ارائه مواردی مفید وجود دارد. اما تقریباً ۵٪ فقط نکات ارزشمند است و بقیه بیشتر تکرار است. کمی طلای ارزشمند در ته این قابلمه وجود دارد. اما بهنظر میرسد میتوانیم خودمان این طلا را با پرسیدن از ChatGPT بهدست آوریم.»
استاد با ناآرامی میخندد. «از صراحت افراد قدردانی میکنم…» او میگوید، سپس موضوع را به یک آموزش دیگر که با استفاده از ChatGPT ساخته بود، تغییر میدهد. «صادقانه بگویم، این را در کوتاهمدت انجام دادم»، او میگوید.
در نهایت، سرپرست دوره به جیمز اطلاع داد که دو مدرس انسانی برای جلسهٔ نهایی مطالب را مرور خواهند کرد، «تا شما تجربهٔ هوش مصنوعی نداشته باشید».
در پاسخ به سؤال گاردین، دانشگاه استافوردشای اعلام کرد که «استانداردهای علمی و نتایج یادگیری در این دوره حفظ شدهاند».
او گفت: «دانشگاه استافوردشای استفادهٔ مسئولانه و اخلاقی از فناوریهای دیجیتال را مطابق با راهنماییهای خود حمایت میکند. ابزارهای هوش مصنوعی میتوانند در برخی مراحل آمادهسازی کمکی باشند، اما جایگزین تخصص علمی نمیشوند و باید همواره بهگونهای استفاده شوند که صداقت علمی و استانداردهای بخش را حفظ کنند.»
در حالی که دانشگاه یک مدرس غیر هوش مصنوعی را برای آخرین درس دوره دعوت کرد، جیمز و اوون گفتند این اقدام خیلی کم و خیلی دیر است، بهویژه چون بهنظر میرسد دانشگاه نیز در مواد آموزشی امسال از هوش مصنوعی استفاده کرده است.
«احساس میکنم بخشی از زندگیام دزدیده شده است»، جیمز گفت.
اوون که در میانهٔ تغییر شغل است، گفت که این دوره را برای کسب دانش اساسی انتخاب کرده بود، نه فقط برای دریافت مدرک – و احساس میکرد این زماناش هدر رفته است.
«اینکه در مقابل این مطالب بنشینید که واقعاً ارزش زمان هیچکسی را ندارند، در حالی که میتوانید آن زمان را صرف کاری ارزشمند کنید، واقعاً ناامیدکننده است»، او گفت.
ممکن است فکر کنید زنبور عسلگاهی که در باغتان بهدنبال غذا میگردد و یک پنجره مرورگر که ChatGPT را اجرا میکند، هیچ ارتباطی با هم ندارند. اما پژوهشهای علمی اخیر بهطور جدی این امکان را بررسی میکنند که هر کدام یا هر دو دارای آگاهی باشند.
روشهای متعددی برای مطالعهٔ آگاهی وجود دارد. یکی از رایجترین آنها، اندازهگیری رفتار یک حیوان – یا هوش مصنوعی (AI) – است.
اما دو مقالهٔ جدید دربارهٔ امکان آگاهی در حیوانات و هوش مصنوعی، نظریههای جدیدی برای آزمون این مسأله پیشنهاد میکنند – نظریهای که میان تحریکگرایی و شک واکنشی سریع دربارهٔ اینکه آیا انسانها تنها موجودات آگاه روی زمین هستند، تعادل برقرار میکند.
مناظرهای سرسخت
سوالات پیرامون آگاهی از دیرباز مناظرههای سرسختی برانگیختهاند.
این بهخاطر این است که موجودات آگاه ممکن است از لحاظ اخلاقی بهگونهای مهم باشند که موجودات بیآگاهی نیستند. گسترش حوزهٔ آگاهی به معنای گسترش افقهای اخلاقی ماست. حتی اگر نتوانیم مطمئن شویم چیزی آگاه است، میتوانیم برای پیشگیری، فرض کنیم که چنین است – همانگونه که فیلسوف جاناتان برچ آن را «اصل احتیاط برای حسپذیری» مینامد.
روند اخیر، تمایل به گسترش بوده است.
بهعنوان مثال، در آوریل ۲۰۲۴ گروهی متشکل از ۴۰ دانشمند در کنفرانسی در نیویورک بیانیهٔ نیویورک دربارهٔ آگاهی حیوانات را پیشنهاد دادند. این بیانیه که بعداً توسط بیش از ۵۰۰ دانشمند و فیلسوف امضا شد، میگوید آگاهی بهصورت واقعی در تمام مهرهداران (از جمله خزندگان، دوزیستان و ماهیها) و همچنین در بسیاری از بیمهرگان، از جمله سفیدهپوستها (اختاپوس و ماهی مرکب)، خرچنگسانان (خرچنگ و لوبستر) و حشرات، ممکن است.
بهموازات این، رشد شگفتانگیز مدلهای زبانی بزرگ، مانند ChatGPT، این امکان جدی را مطرح کرده است که ماشینها ممکن است آگاهی داشته باشند.
پنج سال پیش، آزمونی بهنظر محکم برای تشخیص آگاهی یک موجود، این بود که آیا میتوانید با آن مکالمهای داشته باشید یا نه. فیلسوف سوزان اشنایدر پیشنهاد کرد اگر هوش مصنوعیای داشته باشیم که بهطور قانعکننده دربارهٔ متافیزیک آگاهی تأمل کند، احتمالاً خود آگاه است.
با این معیارها، امروز ما در میان ماشینهای آگاه غوطهور خواهیم بود. بسیاری حتی بهحدی رسیدهاند که اصل احتیاط را اینجا هم به کار ببرند: حوزهٔ نوظهور رفاه هوش مصنوعی به بررسی این میپردازد که آیا و چه زمان باید به ماشینها اهمیت بدهیم.
با این حال، تمام این استدلالها عمدتاً به رفتار سطحی وابستهاند. اما این رفتار میتواند فریبنده باشد. چیزی که برای آگاهی مهم است، نه آنچه انجام میدهید، بلکه نحوهٔ انجام آن است.
نگاهی به سازوکار هوش مصنوعی
یک مقالهٔ جدید در مجلهٔ Trends in Cognitive Sciences که یکی از ما (کلین کلین) به همراهی دیگران نوشت، با استناد به کارهای پیشین، بهجای رفتار هوش مصنوعی، به سازوکار آن مینگرد.
همچنین این مقاله از سنت علوم شناختی بهره میگیرد تا فهرستی قابلقبول از نشانههای آگاهی را بر پایهٔ ساختار پردازش اطلاعات شناسایی کند. این به این معناست که میتوان فهرست مفیدی از نشانههای آگاهی تهیه کرد بدون اینکه بر اینکه کدام یک از نظریههای شناختی جاری دربارهٔ آگاهی صحیح است، توافق داشته باشیم.
برخی از نشانهها (مانند نیاز به حل تداخلهای بین اهداف متقابل بهطرز متناسب با زمینه) توسط بسیاری از نظریهها بهاشتراک گذاشته میشوند. اکثر نشانههای دیگر (مانند وجود بازخورد اطلاعاتی) فقط توسط یک نظریه ضروری هستند اما در سایر نظریهها نیز نشانگر هستند.
نکتهٔ مهم این است که تمام نشانههای مفید، ساختاری هستند. همهٔ آنها مربوط به نحوهٔ پردازش و ترکیب اطلاعات توسط مغزها و کامپیوترها است.
نتیجهگیری؟ هیچ سامانهٔ هوش مصنوعی موجود (از جمله ChatGPT) آگاه نیست. ظاهر آگاهی در مدلهای زبانی بزرگ بهگونهای بهدست نمیآید که به اندازهٔ کافی شبیه ما باشد تا بتوان حالتهای آگاهانه را به آن نسبت داد.
با این وجود، در عین حال هیچ مانعی برای اینکه سامانههای هوش مصنوعی – شاید سامانههایی با معماریای کاملاً متفاوت از سامانههای امروز – آگاه شوند، وجود ندارد.
درس چیست؟ امکان دارد هوش مصنوعی طوری رفتار کند گویی آگاه است بدون اینکه واقعاً آگاه باشد.
سنجش خودآگاهی در حشرات
زیستشناسان نیز برای تشخیص آگاهی در حیوانات غیرانسانی، به سازوکارها – یعنی چگونگی عملکرد مغزها – روی میآورند.
در یک مقالهٔ جدید در مجلهٔ Philosophical Transactions B، ما مدلی عصبی برای آگاهی حداقل در حشرات پیشنهاد میکنیم. این مدل جزئیات تشریحی را کنار میگذارد تا بر محاسبات اصلی که توسط مغزهای ساده انجام میشود، تمرکز کند.
درک کلیدی ما این است که نوعی محاسبهای را شناسایی کنیم که مغزهای ما انجام میدهند و منجر به تجربه میشود.
این محاسبه مشکلات کهن تاریخچهٔ تکاملی ما را حل میکند؛ مسائلی که از داشتن بدنی متحرک، پیچیده، با حواس متعدد و نیازهای متضاد ناشی میشود.
نکتهٔ مهم این است که ما خود محاسبه را شناسایی نمیکنیم – هنوز کاری علمی باقی مانده است. اما نشان میدهیم که اگر بتوانید شناسایی کنید، یک زمینهٔ برابر برای مقایسهٔ انسانها، بیمهرگان و کامپیوترها خواهید داشت.
درس یکسان
مسئلهٔ آگاهی در حیوانات و در کامپیوترها بهنظر میرسد به جهات متفاوتی کشیده میشود.
برای حیوانات، سؤال اغلب این است که چگونه رفتار مبهم (مانند خرچنگی که به زخمهای خود میپردازد) را تفسیر کنیم تا بفهمیم آیا نشاندهندهٔ آگاهی است یا نه.
برای کامپیوترها، باید تصمیم بگیریم که آیا رفتار ظاهراً واضح (یک چتبات که با شما دربارهٔ هدف وجود بحث میکند) نشانگر واقعی آگاهی است یا صرفاً نقشآفرینی.
اما همانطور که حوزههای عصبشناسی و هوش مصنوعی پیشرفت میکنند، هر دو به همان درس میرسند: هنگام قضاوت دربارهٔ اینکه آیا چیزی آگاه است یا نه، نحوهٔ عملکرد آن اطلاعاتی بیشتر از آنچه انجام میدهد، ارائه میدهد.
نوشته: پاتریشیا دیلیسی، دانشکده مهندسی دانشگاه میشیگان
چکیده
یک تکنیک هوش مصنوعی توضیحپذیر، به جای تلاش صرف برای پیشبینی آشفتگی، رویکردی جدید در پیش میگیرد و تأثیرگذارترین نواحی یک جریان آشفته را مشخص میکند. پژوهشگران میتوانند از این نقاط داده تأثیرگذار برای دستکاری آشفتگی در کاربردهای صنعتی یا بهبود پیشبینیها برای خلبانان بهره ببرند.
گرچه آشفتگی جوی عامل آشنای پروازهای ناآرام است، حرکت آشفته جریانهای متلاطم همچنان یک مسئله حلنشده در فیزیک باقی مانده است. بر اساس مطالعهای در مجله Nature Communications که توسط دانشگاه میشیگان و دانشگاه پلیتکنیک والنسیا انجام شده، تیمی از پژوهشگران برای درک بهتر این سیستم، از هوش مصنوعی توضیحپذیر برای شناسایی مهمترین نواحی در یک جریان آشفته استفاده کردهاند.
درک روشنتر از آشفتگی میتواند پیشبینیها را بهبود بخشد و به خلبانان کمک کند تا با دور زدن مناطق آشفته، از آسیب به مسافران یا خسارت به بدنه هواپیما جلوگیری کنند. این دانش همچنین به مهندسان کمک میکند تا آشفتگی را دستکاری کنند؛ مثلاً آن را برای بهبود فرآیندهای ترکیب صنعتی مانند تصفیه آب افزایش دهند، یا برای بهبود بهرهوری سوخت در وسایل نقلیه کاهش دهند.
سرجیو هویاس، استاد مهندسی هوافضا در دانشگاه پلیتکنیک والنسیا و یکی از نویسندگان این مطالعه، میگوید: «بیش از یک قرن است که پژوهشهای مربوط به آشفتگی با معادلاتی بسیار پیچیده برای حل، آزمایشهایی بسیار دشوار برای اجرا و رایانههایی بسیار ضعیف برای شبیهسازی واقعیت دستوپنجه نرم کرده است. اکنون هوش مصنوعی ابزاری نوین برای مقابله با این چالش در اختیار ما قرار داده که به پیشرفتی با پیامدهای عملی عمیق منجر شده است.»
در مدلسازی آشفتگی، روشهای کلاسیک تلاش میکنند تا با استفاده از معادلات فیزیکی یا با مشاهده ساختارهایی که به راحتی در آزمایشها قابل رؤیت هستند، مانند گردابهها، تأثیرگذارترین عناصر را شناسایی کنند.
روش جدید، تمرکز را از پیشبینی صرف آشفتگی به درک بهتر سیستم تغییر میدهد. این روش کل جریان را بدون هیچ پیشفرضی بررسی کرده و هر نقطه از داده را یک به یک حذف میکند تا اهمیت آن را محاسبه کند.
برخلاف فرضیات کلاسیک، گردابهها در فواصل دور از دیواره (مرز بین هوای آشفته و آرام) اهمیت کمی داشتند. در عوض، تنشهای رینولدز (اصطکاک ناشی از برخورد سیالات با سرعتهای مختلف) در نزدیکی و فواصل بسیار دور از دیواره بیشترین تأثیر را داشتند، در حالی که رگهها (نوارهای کشیدهای از هوای سریع و کند که موازی با جریان حرکت میکنند) در فواصل متوسط تأثیرگذار بودند.
ریکاردو وینوئسا، دانشیار مهندسی هوافضا در دانشگاه میشیگان و یکی از نویسندگان مسئول این مطالعه میگوید: «اگر تمام دیدگاههای کلاسیک را کنار هم بگذارید، به بازسازی کل داستان نزدیکتر میشوید. اما اگر هر یک از دیدگاههای کلاسیک را بهتنهایی در نظر بگیرید، تنها بخشی از ماجرا را خواهید داشت.»
یک معمای حلنشده ریاضی
تا به امروز، پژوهشگران نتوانستهاند بهطور کامل درک کنند که جریانهای آشفته چگونه حرکت میکنند یا انرژی خود را پراکنده میسازند. ریاضیات توصیفکننده حرکت سیالات از معادلاتی به نام معادلات ناویر-استوکس به دست میآید که برای جریانهای آرام، قابلپیشبینی و آشفتگیهای ملایم بهخوبی کار میکنند.
برای آشفتگیهای شدید، یعنی تقریباً تمام جریانهایی که در عمل با آنها سروکار داریم، این معادلات همچنان معتبرند، اما حل آنها به قدرت محاسباتی عظیمی نیاز دارد.
آشفتگی ذاتاً پدیدهای آشوبناک است که در آن گرادیانهای سرعت میتوانند بسیار بزرگ شوند و به رفتاری نزدیک به تکینگی برسند. در چنین شرایطی، میدان جریان ساختاری فراکتالمانند از خود نشان میدهد که با پیکربندیهای فضایی بسیار پیچیده و درهمتنیده مشخص میشود.
این رفتار پیچیده از تعامل ظریف بین جملات خطی و غیرخطی معادلات ناویر-استوکس ناشی میشود. این مسئله آنقدر بنیادی است که مؤسسه ریاضیات کلِی آن را بهعنوان یکی از هفت «مسئله جایزه هزاره» معرفی کرده و یک میلیون دلار جایزه برای اثبات وجود و یکتایی یک جواب هموار برای این معادلات تعیین کرده است.
نمایش لحظهای ساختارهای منسجم گوناگون در جریان کانال. اعتبار: Nature Communications (۲۰۲۵). DOI: 10.1038/s41467-025-65199-9
یک راهکار جایگزین برای مدلسازی
اگرچه یک تکنیک محاسباتی به نام «شبیهسازی عددی مستقیم» میتواند بخشهای کوچکی از جریانهای آشفته را با دقت بالا مدلسازی کند، اما اجرای آن در مقیاس بزرگ بسیار پرهزینه است.
شبیهسازی یک ثانیه پرواز یک هواپیمای ایرباس A320 در شرایط کروز، با سریعترین ابررایانه جهان (با قدرت محاسباتی دو اگزافلاپس) حدود پنج ماه زمان میبرد. حافظه مورد نیاز برای این کار نیز معادل حجم دادهای است که در طول یک ماه در کل اینترنت منتقل میشود.
بهعنوان یک راهکار جایگزین، تیم پژوهشی شبیهسازی عددی مستقیم را با هوش مصنوعی توضیحپذیر ترکیب کرد تا به بینشهای جدیدی در مورد جریانهای آشفته دست یابد. ابتدا، تیم پژوهشی از دادههای شبیهسازی عددی مستقیم برای آموزش یک مدل هوش مصنوعی جهت پیشبینی یک جریان آشفته استفاده کرد. سپس، از روش «توضیحات افزایشی شِیپلی» (SHAP) برای محاسبه اهمیت هر ورودی در مدل پیشبینیکننده اولیه هوش مصنوعی بهره بردند. این رویکرد هر ورودی را حذف کرده و میزان تأثیر آن بر دقت پیشبینی را اندازهگیری میکند.
وینوئسا میگوید: «روش SHAP مانند این است که هر بازیکن یک تیم فوتبال را یک به یک حذف کنیم تا بفهمیم هر فرد چگونه به عملکرد تیم کمک میکند. این کار به یافتن باارزشترین بازیکنان کمک میکند.»
هنگامی که این روش در عمل آزموده شد، ترکیب SHAP با یادگیری تقویتی عمیق از رویکردهای کلاسیک پیشی گرفت و اصطکاک روی بال هواپیما را تا ۳۰ درصد کاهش داد. برای نخستین بار، ما دقیقاً میدانیم کدام ساختارها در یک جریان آشفته بیشترین اهمیت را دارند.
آندرس کرمادس، استادیار دانشگاه پلیتکنیک والنسیا و یکی دیگر از نویسندگان مسئول این مطالعه، میگوید: «این بدان معناست که ما میتوانیم این نواحی را هدف قرار دهیم تا استراتژیهای کنترلی برای کاهش پسا، بهبود احتراق و کاهش آلودگی شهری را بهطور کارآمدتری توسعه دهیم، زیرا اکنون میتوانیم دینامیک سیستم را پیشبینی کنیم.»
پژوهشگران خاطرنشان میکنند که این تکنیک را میتوان برای مسائل دیگری فراتر از آشفتگی نیز به کار برد.
وینوئسا میافزاید: «برای هر مسئله فیزیکی، میتوانید ویژگیهای مهم و غیرمهم را شناسایی کرده و از آن برای بهینهسازی، کنترل یا سایر کاربردها در آینده استفاده کنید.»
هوش مصنوعی به سرعت پیش میرود و شرکتهای زیادی در صدد استفاده از آن برای کاهش نیروی کار خود هستند. آیبیام بهتازگی نیز اقدام مشابهی انجام داد اما به نتایج غیرمنتظرهای دست یافت.
پس از حذف بیش از ۸۰۰۰ نفر از کارکنان و انتقال وظایف بهسمت خودکارسازی مبتنی بر هوش مصنوعی، شرکت پی برد که همچنان به نیروی انسانی نیاز دارد؛ فقط در حوزههای دیگری.
به گفتهٔ آروند کریشنا، مدیرعامل آیبیام، شرکت پس از این اخراجها در واقع تعداد کلی نیروی کار خود را افزایش داده است.
ابزارهای هوش مصنوعی به کاهش کارهای تکراری یا روتین کمک کردند، اما این امر نیازهای جدیدی را در بخشهای دیگر ایجاد کرد.
آیبیام مجبور شد مهندسان نرمافزار، متخصصان بازاریابی و دیگر متخصصان بیشتری را برای پشتیبانی از بخشهای در حال رشد شرکت جذب کند.
یک نمونه، AskHR است، چتبات هوش مصنوعی که آیبیام برای کارهای اداری به کار میگیرد. این چتبات حدود ۹۴٪ از وظایف مرتبط با منابع انسانی را خودکار کرد و به صرفهجویی ۳٫۵ میلیارد دلار در بهرهوری کمک کرد.
در حالی که این باعث کاهش نیاز به برخی نقشها شد، فرصتهای جدیدی در موقعیتهای فنی و خلاقی نیز بوجود آمد.
این وضعیت نشان میدهد که هوش مصنوعی چگونه میتواند بازار کار را دگرگون کند. برخی از مشاغل ممکن است از بین بروند، اما با تغییر تمرکز شرکتها مشاغل نوظهور نیز شکل میگیرند.
با این حال، این موضوع نگرانیهای جدی دربارهٔ کارگرانی که شغل خود را از دست میدهند، برانگیخته میکند. بسیاری ممکن است نیاز به بازآموزی یا ورود به حوزههای جدید داشته باشند، که میتواند دشوار باشد.
گزارشهای سازمانهای جهانی این مسأله را برجسته میکنند. انجمن جهانی اقتصاد برآورد میکند که تا سال ۲۰۳۰، ۹۲ میلیون شغل ممکن است توسط هوش مصنوعی جایگزین شود، اگرچه تا ۱۷۰ میلیون شغل جدید نیز میتوانند ایجاد شوند.
آیا کارگران جابجا شده میتوانند به این مشاغل جدید منتقل شوند، سؤال بزرگی است.
سایر شرکتهای بزرگ نیز بهتازگی اخراجهای عظیمی انجام دادهاند؛ مایکروسافت، آمازون و اکسنتور از جمله اینها.
در حالی که هوش مصنوعی به شرکتها کمک میکند زمان و هزینه صرفهجویی کنند، مباحث پیرامون تأثیر آن بر کارگران بهتدریج مهمتر میشوند.
پژوهشگران در Graphika میگویند کارزارهای تبلیغاتی آنلاین، اینترنت را با محتوای تولید شده توسط هوش مصنوعی که کیفیت پایینی دارد، پر کردهاند.
براساس گزارش جدید، بسیاری از بزرگترین و شناختهترین کارزارهای تبلیغاتی آنلاین که توسط دولتها حمایت میشوند، به استفاده از هوش مصنوعی پرداختهاند — اما در این زمینه غالباً توانایی کمی نشان میدهند.
این گزارش که توسط شرکت تجزیه و تحلیل شبکههای اجتماعی Graphika تهیه شده، نه عملیات تأثیرگذاری آنلاین در حال انجام را مورد بررسی قرار داد — از جمله آنهایی که ادعا میکند با دولتهای چین و روسیه ارتباط دارند — و دریافت که همانند بسیاری از پلتفرمهای اجتماعی، هر یک بهتدریج از هوش مصنوعی مولد برای تولید تصاویر، ویدئوها، متنها و ترجمهها استفاده میکنند.
پژوهشگران دریافتند که حمایتکنندگان کارزارهای تبلیغاتی برای انجام وظایف اصلی مانند تولید محتوا و ساخت شخصیتهای اینفلوئنسر در شبکههای اجتماعی به هوش مصنوعی متکی شدهاند و برخی از کارزارها را بهصورت کارآمدتری پیش میبرند. اما آنها میگویند کیفیت این محتوا پایین است و تعامل کمی دریافت میکند.
این نتایج با انتظارات بسیاری از پژوهشگران که پیشرفت روزافزون هوش مصنوعی مولد — هوش مصنوعیای که گفتار، نوشتار و تصاویر انسانی را در عکسها و ویدیوها تقلید میکند — همخوانی ندارد. این فناوری در سالهای اخیر به سرعت پیشرفت کرده و برخی کارشناسان هشدار دادهاند که تبلیغکنندگان بهنام کشورهای استبدادی میتوانند محتویات سنتتیک با کیفیت بالا و قانعکننده تولید کنند تا حتی افراد دقیقنظر در جوامع دمکراتیک را فریب دهند.
با این حال، پژوهشگران Graphika بهوضوح دریافتند که محتوای هوش مصنوعی تولید شده توسط این کارزارهای مستقر، «سرریزهای بیکیفیتی» است؛ از گزارشگرهای خبری مصنوعی که در ویدیوهای یوتیوب قانعکننده نیستند تا ترجمههای ناهموار یا وبسایتهای خبری جعلی که بهطور ناخواسته در سرفصلها از دستورات هوش مصنوعی استفاده میکنند.
دینا صادک، تحلیلگر ارشد در Graphika و یکی از نویسندگان گزارش، گفت: «عملیاتهای تأثیرگذاری بهطور سیستماتیک ابزارهای هوش مصنوعی را ادغام کردهاند و بخش عمدهای از آنها محتوای بیکیفیت و ارزان قیمت هوش مصنوعی است.» او افزود: «همانطور که پیش از این بود که این کارزارها بهطور منظم از هوش مصنوعی استفاده میکردند، بیشترین بخش پستهای آنها در شبکههای اجتماعی غربی توجه کمی یا اصلاً دریافت نمیکند.»
کارزارهای تأثیرگذاری آنلاین که هدفشان تغییر جهت سیاست آمریکا و پخش پیامهای تفرقهانگیز است، حداقل یک دهه پیش آغاز شدهاند؛ زمانی که آژانس تحقیقاتی اینترنتی مستقر در روسیه حسابهای متعددی در فیسبوک و توییتر ایجاد کرد و سعی در تأثیرگذاری بر انتخابات ریاستجمهوری ۲۰۱۶ داشت.
همانطور که در برخی حوزههای دیگر مانند امنیت سایبری و برنامهنویسی، رشد هوش مصنوعی زمینه تبلیغ آنلاین را متحول نکرده است، اما انجام برخی کارها را خودکارتر کرده است، صادک گفت.
او افزود: «ممکن است محتوا پایینکیفیت باشد، اما بهصورت وسیعی قابل گسترش است. میتوانند در جایی بنشینند، شاید فقط یک فرد با فشار دادن دکمهها این همه محتوا را تولید کند.»
از نمونههای ذکر شده در گزارش میتوان به «دوئپلگانگر» اشاره کرد؛ عملیاتی که وزارت عدالت آن را به کرملین مرتبط میداند و پژوهشگران میگویند از هوش مصنوعی برای ساخت وبسایتهای خبری جعلی که قانعکننده نیستند استفاده کرده است؛ و «اسپاموفلوژ» که وزارت عدالت آن را به چین نسبت میدهد و این کارزار افراد خبری جعلی هوش مصنوعی تولید میکند تا ویدیوهای تفرقهانگیز اما غیرقابلقبول را در شبکههای اجتماعی مانند X و یوتیوب گسترش دهد. گزارش همچنین به چندین عملیات اشاره کرد که از صدای عمیقفیک (deepfake) با کیفیت پایین استفاده کردهاند.
یک نمونه از این کارزارها، انتشار دیپفیکهای سلبریتیهایی چون اوپرا وینفری و رئیسجمهور پیشین باراک اوباما بود که بهنظر میرسیدند درباره رشد هند در صحنهٔ جهانی اظهار نظر میکنند. اما گزارش میگوید این ویدیوها غیرقابلقبول بهنظر میرسیدند و توجه زیادی جلب نکردند.
ویدیو دیگری با محوریت روسیهپراستی به نام «المپیک فرو ریخت» بهنظر میرسید تا بازیهای المپیک تابستانی ۲۰۲۴ پاریس را تخریب کند. با ارجاع به فیلم هالیوودی ۲۰۱۳ «الامپوس فرو ریخت»، این ویدیو نسخهٔ هوش مصنوعیِ تام کراس را به تصویر میکشید، در حالی که او در هیچیک از این فیلمها حضور نداشته است. گزارش نشان داد که این اثر جز در یک اتاق پژواک کوچک از حسابهایی که معمولاً فیلمهای این کارزار را بهاشتراک میگذارند، توجهی دریافت نکرد.
سخنگویان سفارت چین در واشنگتن، وزارت امور خارجهٔ روسیه، X و یوتیوب به درخواستهای اطلاعرسانی پاسخ ندادند.
چنانکه صادک میگوید، حتی اگر تلاشهای آنها به افراد زیادی نرسد، برای تبلیغکنندگان ارزش دارد که در عصر رباتهای گفتگوی هوش مصنوعی، اینترنت را پر کنند. شرکتهای تولیدکننده این رباتها بهطور مستمر با جمعآوری متنهای موجود در اینترنت، مدلهای خود را آموزش داده و بهصورت بازپخش مطالب استفاده میکنند.
مطالعهٔ اخیر موسسهٔ گفتگوی استراتژیک (Institute for Strategic Dialogue)، یک سازمان غیرانتفاعی حامی دموکراسی، نشان داد که اکثر رباتهای گفتگوی اصلی هوش مصنوعی یا مدلهای زبانی بزرگ، در پاسخهای خود به منابع خبری روسی حمایتشده توسط دولت اشاره میکنند؛ حتی برخی از این منابع تحت تحریم اتحادیهٔ اروپا قرار دارند.
در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا میشود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را بهدست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارتترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.
بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگها فعال شد). مردان پیش از اینکه کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.
پژوهشگران سپس فاش کردند که دزدها جلیقههای روشندار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آنها با یک بالابر مبلمان، که در خیابانهای باریک پاریس معمولاً دیده میشود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه میکرد، استفاده کردند. پوشش کارگریشان باعث شد بهنظر برسد که بخشی از محیط هستند.
این استراتژی مؤثر بود زیرا ما جهان را بهصورت عینی نمیبینیم. ما آن را از طریق دستهبندیها میبینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دستهبندیهای اجتماعی که ما بهعنوان «نرمال» میشناسیم، درک کردند و از آنها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانههای هوش مصنوعی (AI) بهطور مشابه عمل میکنند و در نتیجه به همان نوع اشتباهات مستعد هستند.
سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقشهای اجتماعی را «اجرا» میکنند با بهکارگیری نشانههایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالیبودن» بهعنوان یک پوشش کامل تبدیل شد.
جامعهشناسی نگاه
انسانها بهطور مداوم دستهبندیهای ذهنی انجام میدهند تا افراد و مکانها را درک کنند. وقتی چیزی در دسته «عادی» جای میگیرد، از نگاه ما پنهان میشود.
سیستمهای هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیتهای مشکوک در فضاهای عمومی بهکار میروند، بهصورت مشابهی عمل میکنند. برای انسانها، دستهبندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.
اما هر دو سیستم بر الگوهای یادگرفتهشده بهجای واقعیت عینی تکیه دارند. چون هوش مصنوعی از دادههایی که چه کسی «نرمال» و چه کسی «مشکوک» بهنظر میرسد میآموزد، دستهبندیهای موجود در دادههای آموزشی خود را جذب میکند. این امر باعث میشود که به تعصب حساس شود.
دزدهای لوور بهدلیل انطباق با یک دستهبندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند میتواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیشازحد قرار میگیرند.
این میتواند به این معنا باشد که سامانه تشخیص چهره بهطور نامتناسبی برخی گروههای نژادی یا جنسیتی را بهعنوان تهدیدهای احتمالی نشان میدهد، در حالی که دیگران را نادیده میگیرد.
نگرش جامعهشناختی به ما کمک میکند بفهمیم که اینها مسائل جداگانهای نیستند. هوش مصنوعی دستهبندیهای خود را اختراع نمیکند؛ بلکه دستهبندیهای ما را میآموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبطهای امنیتی آموزش داده میشود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف میشود، همان فرضیات را بازتولید میکند.
همانطور که نگهبانان موزه بهدلیل اینکه دزدها گویی جزئی از محیط بودند، نادیدهشان گرفتند، هوش مصنوعی نیز میتواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان میدهد.
دستهبندی، چه انسانی و چه الگوریتمی، یکسلاح دو لبه است. این کار به ما کمک میکند اطلاعات را بهسرعت پردازش کنیم، اما در عین حال مفروضات فرهنگیمان را نیز در خود جای میدهد. هم انسانها و هم ماشینها به شناسایی الگوها متکیاند؛ روشی مؤثر اما ناپایدار.
دیدگاه جامعهشناختی نسبت به هوش مصنوعی الگوریتمها را بهعنوان آینه میبیند: آنها دستهبندیها و سلسلهمراتبهای اجتماعی ما را بازتاب میدهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آنها نگاه میشد. بهعبارت دیگر، در زمینه هوش مصنوعی، آنها آزمون طبقهبندی را گذراندند.
از تالارهای موزه تا یادگیری ماشین
این ارتباط بین ادراک و دستهبندی نکتهای مهم درباره دنیای رو بهالگوریتمی ما را آشکار میکند. چه نگهبانی باشد که تصمیم میگیرد چه کسی مشکوک به نظر میرسد و چه هوش مصنوعی که تصمیم میگیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دستهها بر پایهنشانههایی که بهنظر عینی میآیند اما بهصورت فرهنگی آموخته شدهاند.
زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف میشود، این غالباً به این معناست که آن دستهبندیهای اجتماعی را بیش از حد دقیق بازتاب میدهد. سرقت لوور به ما یادآوری میکند که این دستهبندیها تنها نگرشهای ما را شکل نمیدهند، بلکه آنچه در نگاه اول توجه میشود را نیز تعیین میکنند.
پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربینهای جدید و امنیت شدیدتر داد. اما مهم نیست این سیستمها چقدر پیشرفته شوند، آنها همچنان به دستهبندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب میشود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.
سرقت لوور بهعنوان یکی از نمایانترین سرقتهای موزهای اروپا در خاطرهها میماند. دزدها موفق شدند زیرا جامعهشناسی ظاهر را تسلط یافتند: آنها دستهبندیهای نرمالی را درک کرد و بهعنوان ابزار استفاده کردند.
و با این کار، نشان دادند که چگونه هم افراد و هم ماشینها میتوانند انطباق را با امنیت اشتباه بگیرند. موفقیت آنها در نور روز تنها پیروزی برنامهریزی نبود؛ بلکه پیروزی تفکر دستهبندیشده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.
درس واضح است: پیش از اینکه ماشینها را بهسوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه میبینیم را زیر سؤال ببریم.
سال تسلا به همان روانی پیش میرود که از شرکتی که بهنظر میرسد مصمم است تا رهبرش که بهصورت علنی از نمادهای نازی استفاده میکند، ثروتمندترین انسان تاریخ شود، انتظار میرفت، حتی وقتی که تمام معیارهای ممکن نشان میدهند شرکت در حال فروپاشی است. سودها کاهش یافتهاند، سبد مدلها بهسرعت پیر میشود، و ایلان ماسک، مدیرعامل، عملاً میگوید میخواهد یک ارتش رباتی را رهبری کند؛ موضوعی که بهویژه ترسناک میشود وقتی که او هوش مصنوعیاش، گروک، را به یک نو‑نازیعلاقهمند به هیتلر در 4چن تبدیل کرده است.
بهنظر میرسد صرفنظر از کاری که شرکت انجام میدهد، در نهایت به اخباری بد و حتی بدتر شدن کسبوکار منجر میشود. برای مثال: روبوتاکسیهای تسلا هماکنون در آستین و سانفرانسیسکو میچرخند، اما تواناییهای خودران آنها در بهترین حالت مشکوک است؛ بنابراین برای اطمینان از عدم بروز مشکل، ناظر انسانی داخل خودرو نیاز است.
ویدیوها توسط VICE
به گزارش Ars Technica، یک مسافر سانفرانسیسکویی یک ویدیو ۱۲ ثانیهای را در ردیت به اشتراک گذاشت که راننده ایمنی تسلا را در حین حرکت خودرو در خواب عمیق نشان میدهد. به گفتهٔ مسافر، این مرد نه یکبار، نه دوبار، بلکه سه بار در طول سفر سر میخوابید. وقتی مسافر سعی کرد این موضوع را به تسلا اطلاع دهد، شرکت پاسخی نداد که بهنظر منطقی بود.
بدتر از آن، کاربر دیگری در ردیت ادعا کرد که همان راننده ایمنی را داشتهاند که همچنان در مسیر ترافیک از تمسکال تا سانفرانسیسکو به خواب رفته بود. کار بهعنوان راننده ایمنی انسانی قطعاً شغلی عجیب است؛ ترکیبی از نگهدارنده کودک و شناور نجات. Waymo، پیشرو فعلی بازار تاکسیهای خودران، پیش از اجازهٔ کارمندان برای حضور در جادههای عمومی، آموزشهای گستردهای میطلبد.
از سوی دیگر، بهنظر میرسد تسلا بهصورت سرسختانه ادامه میدهد و امیدوار است مسافران اهمیتی به این نکته ندهند که شخصی که مسئول اطمینان از روانی مسیر است، خروپف میکند و آب دهانش از روی چانهاش میچکد. گویی این همان شعار قدیمی «سریع حرکت کن و چیزها را بشکن» درهٔ سیلیکون است که تا زمانی که چیزی که سریع میدود یک خودرو رباتیک است و چیزی که شکسته میشود شما در صندلی عقب هستید، جذاب بهنظر میرسد.
از زمان آغاز آزمایش روبوتاکسی آستین توسط تسلا در ماه ژوئیه، حداقل هفت تصادف گزارش شده است. تسلا دادهها را به نهادهای نظارتی ایمنی فدرال ارائه کرده، اما بخشی قابل توجه از آنها را حذف کرده است. این قدمی اطمینانبخش از سوی شرکتی است که خودروهای خودران را در ترافیک آزمایش میکند. بدتر از آن این است که تسلا هنوز مجوزهای لازم برای ارائهٔ سرویس خودکار حملونقل در ایالت کالیفرنیا را دریافت نکرده است.
در حال حاضر، تسلا بهصورت عمومی به حوادث رانندهٔ خوابیده یا سؤالات مربوط به مجوزها پاسخ نداده است.
بهنظر میرسد که دوران «و این هم آنچه در گلی از دست دادید» گذشته باشد. پرایمویدیو آمازون، خلاصههای ویدئویی تولیدشده توسط هوش مصنوعی را برای کمک به بینندگان در جبران فاصله بین فصول برنامهها اضافه میکند، این شرکت روز چهارشنبه اعلام کرد.
بهگفته آمازون، این ویژگی «از هوش مصنوعی مولد برای ایجاد خلاصههای فصلی با کیفیت تئاتری، همراه با روایت همگام، دیالوگ و موسیقی استفاده میکند». این ویژگی بهصورت نسخهٔ بتا برای برخی از برنامههای اصلی پرایم، مانند «Fallout»، «Jack Ryan اثر تام کلانی» و «Upload» از روز چهارشنبه در دسترس خواهد بود.
پرایمویدیو سال گذشته ویژگی مشابهی بهنام «X‑Ray Recaps» را راهاندازی کرد که فصول کامل، قسمتها یا بخشهایی از آنها را خلاصه میکند — در آن زمان، آمازون اعلام کرد که مدل هوش مصنوعی آن دارای محدودیتهایی است تا از بهطور ناخواسته بهاشتراکگذاری فاشکنندهها جلوگیری شود.
منبع تصویر:پرایمویدیو
مصرفکنندگان به این نوع خلاصههای مبتنی بر متن و هوش مصنوعی عادت کردهاند، چون معمولاً آنها را هنگام خلاصهشدن متنها توسط گوشی خود میبینند یا زمانی که (شاید ناخواسته) یک خلاصهٔ هوش مصنوعی در بالای نتایج جستجوی گوگل نشان میشود. اما این خلاصههای ویدئویی به حوزهای جدید قدم میگذارند که ممکن است نسبت به خلاصههای متنی مزاحمتر بهنظر برسند — یا شاید توسط افرادی که بهخاطر ندارند «Bosch» چه رخ داده است، مورد استقبال قرار گیرند.
رقبای پرایمویدیو نیز در حال بررسی نحوهٔ ادغام هوش مصنوعی مولد در محصولات خود هستند.
بهعنوان مثال، YouTube TV از ویژگی «Key Plays» برای کمک به بینندگان در پیگیری مسابقات ورزشی استفاده میکند اگر در حین برگزاری بازی تماشا را آغاز کنند. اگرچه این ویژگی کمی ناقص است (الگوریتم آن تنها بهنظر میرسد بتواند نقاط کلیدی حمله در بیسبال را شناسایی کند)، این ویژگی به YouTube TV کمک کرد تا اولین جایزهٔ امی فنی خود را بهدست آورد.
در همین حین، نتفلیکس از هوش مصنوعی مولد در بخش تولیدی کسبوکار خود بهره میگیرد.
اوایل سال جاری، نتفلیکس اعلام کرد که برای اولین بار از هوش مصنوعی مولد در فیلمبرداری نهایی سریال آرژانتینی «The Eternaut» برای ایجاد صحنهای از فروپاشی یک ساختمان استفاده کرده است. پس از آن، «Happy Gilmore 2» با استفاده از هوش مصنوعی مولد شخصیتها را در صحنهٔ آغازین فیلم جوانتر کرد و تهیهکنندگان «Billionaires’ Bunker» از این فناوری در پیشتولید برای تجسم لباسها و طراحی صحنه بهره بردند.
استفاده از هوش مصنوعی در صنعت سینما بحثهای فراوانی را بهوجود آورده است؛ زیرا هنرمندان نگرانند این ابزارها — که گاهی بدون اجازه بر آثار آنها آموزش میبینند — میتوانند معیشتشان را به خطر اندازند. اما برخی استدلال میکنند که ابزارهایی که کارهای خستهکنندهٔ انیمیشن یا جلوههای ویژه را تسریع میکنند، همچون Wonder Dynamics، میتوانند ظرفیت خلاقیت هنرمندان را افزایش دهند.
آنتوان بلوندو، همبنیانگذار و شریک مدیریت Alpha Intelligence Capital، در کنفرانس جهانی مدیران اجرایی فوربس 2025 در جاکارتا. Alpha Intelligence Capital
در سالهای اخیر، شرکتهای برتر هوش مصنوعی جهان بهطور تند به آسیا گسترش یافتهاند، چرا که منطقه استفاده بالایی از ابزارهای هوش مصنوعی آنها دارد. اما هنوز توافقی دربارهٔ محل تأسیس دفتر مرکزی آسیاییشان پیدا نکردهاند. بهعنوان مثال، پیشگام هوش مصنوعی OpenAI، سنگاپور را انتخاب کرد، در حالی که رقیب Anthropic ژاپن را برگزید و Cohere که توسط Nvidia پشتیبانی میشود، به کرهجنوبی رفت.
برای آنتوان بلوندو، همبنیانگذار و شریک مدیریت شرکت سرمایهگذاری خطرپذیر متمرکز بر هوش مصنوعی Alpha Intelligence Capital، انتخاب واضح است: سنگاپور. این شرکت مستقر در لوکزامبورگ پیش از این در دو استارتاپ در این شهر‑دولت سرمایهگذاری کرده است — تولیدکننده هنر هوش مصنوعی PixAI و ارائهدهندهٔ ابزار تجزیهوتحلیل نقصهای نیمهرسانا Sixsense — و در حال حاضر در میانهٔ تکمیل سرمایهگذاری سوم است که هنوز اعلام نشده است.
در سایر نقاط جهان، Alpha Intelligence Capital در OpenAI، توسعهدهندهٔ مدلهای ویدئویی هوش مصنوعی Higgsfield (سانفرانسیسکو)، ارائهدهندهٔ سیستمهای ناوبری مبتنی بر هوش مصنوعی Advanced Navigation (سیدنی)، رهبر تصویربرداری پزشکی مبتنی بر هوش مصنوعی Aidoc (تلآویو) و ارائهکنندهٔ بیمهپوششی سایبری فعال با هوش مصنوعی Envelop (لندن) سرمایهگذاری کرده است. خروجیهای پرتفوی این شرکت شامل پیشگام هوش مصنوعی چینی SenseTime (که در سال ۲۰۲۱ در هنگکنگ لیست شد) و ارائهدهندهٔ خدمات هوش مصنوعی بریتانیایی InstaDeep (که در سال ۲۰۲۳ توسط BioNTech بهمبلغ ۶۸۰ میلیون دلار خریداری شد) میشود. این شرکت از زمان تأسیس در سال ۲۰۱۸، حدود ۵۰۰ میلیون دلار سرمایه در دو صندوق جذب کرده است.
آنتوان بلوندو میگوید: «سنگاپور میتواند تعداد زیادی از استعدادهای چین قارهای، استعدادهای هندی و در واقع از تقریباً همه جای جهان را جذب کند.» او که وقتی مسافرت نمیکند، زمان خود را بین دو منزلش در سانفرانسیسکو و دوبی تقسیم میکند، این حرف را در مصاحبهای در حاشیهٔ کنفرانس جهانی مدیران اجرایی فوربس ماه گذشته در جاکارتا زد.
او افزود: «بهویژه از چین، که دارای یک مجموعهٔ بزرگ از استعدادهای بسیار توانمند و سطح مهارت بالایی است.» بهعنوان مثال، استارتاپ عامل هوش مصنوعی Manus که توسط Benchmark، Tencent و HSG (قبلاً Sequoia China) حمایت میشود، اوایل امسال از چین به سنگاپور نقل مکان کرد. غول مد سریعالسیر Shein، شرکت سرمایهگذاری Hillhouse و HSG نیز در سالهای اخیر همین حرکت را انجام دادهاند.
بلوندو مقایسهای بین سنگاپور و تلآویو، یکی از پیشروترین مراکز استارتاپی جهان که شرکت نرمافزاری امنیت سایبری Wiz (که توسط گوگل بهمبلغ ۳۲ میلیارد دلار خریداری شد) و پیشگام دوربینروی خودرو Mobileye (که توسط اینتل بهمبلغ ۱۵ میلیارد دلار خریداری شد) را بهوجود آورد، میکشد. او میگوید: «در سنگاپور، مساحت جغرافیایی بسیار فشردهای دارید که تقریباً تمام صنایع، از مالی و لجستیک تا ارتباطات و خطوط هوایی، و شامل دفاتر منطقهای شرکتهای جهانی میشود.» بهعنوان مثال، گوگل و متا از سنگاپور بهعنوان دفتر منطقهای خود استفاده میکنند.
تصمیم OpenAI برای نامگذاری سنگاپور بهعنوان مرکز آسیایی خود، ناشی از ظهور این شهر‑دولت «بهعنوان پیشرو در هوش مصنوعی» بود، همانطور که سِم آلتمن، مدیرعامل، سال گذشته در بیانیهای اعلام کرد. جیسون کوون، مسئول ارشد استراتژی OpenAI، در ماه می افزود که سنگاپور بالاترین میزان استفاده سرانه از ChatGPT را دارد.
(چپ به راست) آنتوان بلوندو، همبنیانگذار و شریک مدیریت Alpha Intelligence Capital؛ دانیل آیوز، مدیر اجرایی و سرپرست جهانی تحقیق فناوری در Wedbush؛ آنتونی تان، مدیرعامل، همبنیانگذار و رئیس هیئت مدیره Grab؛ و ژانگ یا‑قین، پروفسور صندقی و رئیس دانشکدهٔ دانشگاه تسینگهوا در کنفرانس جهانی مدیران اجرایی فوربس 2025. به میانهگری ریچ کارلگارد (در سمت راست)، فیوتوریست و ستوننویس Forbes Asia. Forbes Asia
فراتر از سنگاپور، بلوندو سه بازار دیگر را که آمادهاند به مراکز هوش مصنوعی تبدیل شوند شناسایی میکند: کرهجنوبی، تایوان و هند.
او نقش مهمی برای کرهجنوبی در رباتهای مبتنی بر هوش مصنوعی پیشبینی میکند، شامل رباتهای انساننما و سایر رباتها که در صنایع مختلفی چون خودروسازی، لجستیک و ساختونقش کشتی بهکار میروند. او میگوید: «کرهجنوبی میتواند بهترینهای هوش مصنوعی و بهترین رباتیک را بهدست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً کارآمد ترکیب کند.»
برخی از بزرگترین شرکتهای کرهجنوبی پیشاپیش در زمینهٔ رباتیک مشارکت داشتهاند. سامسونگ الکترونیک حدود ۱۸۰ میلیون دلار در Rainbow Robotics سرمایهگذاری کرد تا سال گذشته بزرگترین سهامدار آن شود. هیوندای موتور یک سهم کنترلی در Boston Dynamics را از گروه SoftBank در سال ۲۰۲۰ خریداری کرد و ارزشگذاری سازندهٔ رباتهای شبیه سگ را حدود ۱.۱ میلیارد دلار تعیین کرد. گروه دوسان در سال ۲۰۲۳ واحد رباتهای همکار خود، Doosan Robotics، را در بورس فهرست کرد و ۳۱۲ میلیون دلار جذب کرد؛ که بزرگترین IPO کرهجنوبی در آن سال بود.
OpenAI امسال پیش از این در پایتخت کرهجنوبی، سئول، حضور خود را برقرار کرد. این کشور بیشترین تعداد مشترکین پرداختکننده برای ChatGPT را پس از ایالات متحده دارد. Anthropic قصد دارد اوایل سال آینده دفتر خود را در سئول افتتاح کند تا به مشتریان خود بیکرانتر نزدیک شود؛ مشتریان آن شامل SK Telecom و استارتاپ فناوری حقوقی Law&Company میشوند. Anthropic در بیانیهای میگوید: «جامعهٔ توسعهدهندگان در کره یکی از قویترینهای ما در سطح جهان است و یک مهندس نرمافزار کرهای در حال حاضر بهعنوان برترین کاربر Claude Code جهان شناخته میشود؛ که عمق استعداد فنی و پذیرش بازار را نشان میدهد.»
«کرهجنوبی میتواند بهترینهای هوش مصنوعی و بهترین رباتیک را بهدست آورد و سعی کند این دو را در یک ارزش پیشنهادی واقعاً مؤثر ترکیب کند.»
اطمینان بلوندو نسبت به تایوان از صنعت سختافزار پیشرو جهان آن ناشی میشود. این جزیره میزبان تولیدکنندگان الکترونیک بزرگ همچون Foxconn، Quanta و Wistron است که بلوندو میگوید میتوانند به سطوح بالاتر رفته و به سختافزارهای مرتبط با هوش مصنوعی ارتقا یابند.
بهتدریج که افراد بیشتری در ساخت سختافزارهای مجهز به هوش مصنوعی مشارکت میگیرند، بلوندو بر این باور است که این تعامل موج جدیدی از استعدادهای هوش مصنوعی را پرورش خواهد داد. او میگوید: «تایوان در سه یا چهار سال آینده بهمکانی جذاب برای کسب تخصص تبدیل خواهد شد، نهتنها در حوزه سختافزار، بلکه در فضای دستگاههای مجهز به هوش مصنوعی نیز.»
در مورد هند، بلوندو به این نکته اشاره میکند که صنعت برونسپاری این کشور با ارزش ۲۵۰ میلیارد دلار — بزرگترین در جهان — تحت تحول هوش مصنوعی قرار گرفته و نسلی جدید از متخصصان هوش مصنوعی را پرورش میدهد. او میگوید: «امروز، هوش مبتنی بر انسان، مانند مهندسان نرمافزار، بخشی از آن باید به هوش ماشین منتقل شود.» بزرگترین شرکتهای برونسپاری هند — Wipro، Infosys، HCLTech و Tata Consultancy Services — همگی در حال سرمایهگذاری در راهحلهای هوش مصنوعی هستند، مانند چتباتهایی که برای جایگزینی مراکز تماس طراحی شدهاند.
OpenAI قصد دارد تا پایان سال یک دفتر در دهلی نو افتتاح کند. این کشور دومین بازار بزرگ از نظر تعداد کاربران و بیشترین تعداد کاربران دانشجویی ChatGPT است. سِم آلتمن در بیانیهای میگوید: «هند تمام عوامل لازم برای تبدیل شدن به پیشرو جهانی هوش مصنوعی را دارد — استعداد فنی شگفتانگیز، بستر توسعهدهندگان در سطح جهانی، و حمایت قوی دولت از طریق مأموریت IndiaAI.»
Anthropic برنامه دارد اوایل سال آینده دفتر خود را در بنگلور، مرکز فناوری پیشرفتهٔ هند، راهاندازی کند. این کشور همچنین دومین بازار بزرگ از نظر تعداد کاربران چتبات Claude این استارتاپ است. داریو آمودی، همبنیانگذار و مدیرعامل Anthropic، در بیانیهای میگوید: «هند بهدلیل مقیاس بزرگ استعدادهای فنیاش و تعهد دولت هندی برای اطمینان از اینکه منافع هوش مصنوعی به تمام بخشهای جامعه، نهتنها بخشهای متمرکز، دست یابد، جذاب است.»
ندان نیلکانی، شریک مؤسس میلیاردر شرکت Infosys، در سخنرانیاش در آوریل در همایش جهانی فناوری گفت که او معتقد است هند بهعنوان «پایتخت استفاده از هوش مصنوعی» جهان خواهد شد.
بلوندو میگوید: «ما فکر میکنیم هند همانجایی است که چین سه تا هفت سال پیش بود.» او ادامه میدهد: «هند برای یک رشد عظیم در ارزش کل حوزه هوش مصنوعی پیشبینی شده است.»