دسته: هوش مصنوعی

  • تبلیغ هوش مصنوعی مولد EA حالا شامل طرح جلد می‌شود

    ابزارهای هوش مصنوعی برای نمایش نسخه Deluxe NHL 26 به کار رفتند

    AIEANHL 26

    طرح جلد نسخه Deluxe NHL 26 خانواده تاکچوک را نشان می‌دهد
    الکترونیک آرتس

    نسخه Deluxe NHL 26 خانواده هاکی تاکچوک را بر روی جلد به نمایش می‌گذارد. متیو تاکچوک پانترز و بردی تاکچوک سناتورز در کنار پدرشان، کیت تاکچوک افسانه‌ای – یک پاور فورورد – زیر نورهای روشن بر روی یک یخ‌پست مه‌آلود ظاهر می‌شوند. چیزی که EA تا به‌حال فاش نکرده بود این است که برای خلق تصویر تبلیغاتی نسخه ۱۰۰ دلاری، از ابزارهای هوش مصنوعی مولد استفاده کرده است.

    شرکت این دستاورد را در یک ارائه داخلی اخیر به تیم تجربه بازیکن خود معرفی کرد، طبق مدارکی که Kotaku بررسی کرده است. در بخشی که توسط سرپرست بلندمدت بازاریابی ورزشی EA، پال مار، رهبری می‌شد، پرسنل دربارهٔ نحوه استفاده شرکت از ابزارهای هوش مصنوعی مانند GPT و Comfy UI در فرآیند تولید تصویر جلد مطلع شدند.

    دو مانع عمده برای این مفهوم وجود داشت: کیت تاکچوک اکنون پیر شده و هر دو فرزند او در پلی‌آف حضور داشتند و برای عکاسی سنتی در دسترس نبودند. “قدیمی” تعویض سر با استفاده از فتوشاپ رد شد، بنابراین EA با کسب اجازه از خانواده، به هوش مصنوعی مولد تکیه کرد تا کیت را جوان‌سازی کرده و پسرانش را دوباره بازسازی کند. اگرچه همه این کار توسط خلاقان انسانی هدایت و بازبینی شد، درصدی از نتایج نهایی که به‌طور کامل توسط هوش مصنوعی تولید شده‌اند، نامشخص است.

    “در طول اکتشاف، هوش مصنوعی برای تولید نمونه‌های استایلی‌شده استفاده شد”، بخشی از یک اسلاید ارائه می‌خواند. این اسلاید توضیح می‌دهد که تیم مار از یک کتابخانه‌ی تصاویر و حالات هر ورزشکار برای آموزش هوش مصنوعی دربارهٔ ظاهر آن‌ها بهره برد. همچنین از تصاویر مرجع “حال و گذشته” برای آموزش مدلی جهت جوان‌سازی کیت و تولید “PRIME Keith” استفاده شد. یک مرحلهٔ نهایی هوش مصنوعی برای یکنواخت‌سازی نورپردازی بین مدل‌های مختلف به کار رفت و سپس برای اصلاح نهایی به فتوشاپ برگشت.

    طرح جلد نسخه Deluxe NHL 26 جدیدترین نمونه‌ای است از اینکه چگونه شرکت‌های بازی‌سازی از هوش مصنوعی بهره می‌برند، حتی هنگامی که بازیکنانشان به‌هر نشانه‌ای از آن واکنش منفی نشان می‌دهند. EA به‌ویژه در حال تسریع پذیرش این فناوری بوده است. بیش از یک سال پیش، مدیرعامل اندرو ویلسون به‌صراحت از به‌کارگیری هوش مصنوعی توسط شرکت برای خلق هزاران چهرهٔ لازم برای بازگشت مجموعه پرفروش College Football تمجید کرد.

    “اگر هوش‌مصنوعی را به خود واگذارید، کار شما استثنایی نخواهد شد”

    اما برخی از کارمندان در خط مقدم با این فناوری مخالفت می‌کنند؛ چند نفر اخیراً به Business Insider اطلاع دادند که هوش مصنوعی کدهای برنامه‌نویسی را با خطا تولید می‌کند، پاسخ‌های نامفید می‌دهد یا بر روی جریان‌های کاری خودشان آموزش می‌بیند به‌طوری که ممکن است امنیت شغلی آن‌ها را به خطر بیندازد.

    “ما هوش مصنوعی را به‌عنوان شتاب‌دهنده‌ای قدرتمند برای خلاقیت، نوآوری و ارتباط بازیکن می‌بینیم”، ویلسون در گزارش مالی ماه می به سرمایه‌گذاران گفت. “در تمام تیم‌های ما، ما در جریان‌های کاری و قابلیت‌های جدید برای ادغام هوش مصنوعی سرمایه‌گذاری می‌کنیم تا نحوه ساخت، مقیاس‌بندی و شخصی‌سازی تجربیات را ارتقا دهیم؛ از جهان‌های پویا داخل بازی تا ارائه بازنمایی‌های اصیل از ورزشکاران و تیم‌ها در مقیاس شگفت‌انگیز؛ توسعه‌دهندگان ما از هوش مصنوعی برای پیشبرد مرزهای ممکن در طراحی، انیمیشن و داستان‌گویی استفاده می‌کنند و به ما کمک می‌کنند تا گیم‌پلی عمیق‌تر و غوطه‌ورتر ارائه دهیم”.

    این در عمل چه معنایی دارد؟ ارائه مار سرنخ کوچکی می‌دهد. در «دروس کلیدی» خود از آزمایش با تصویر جلد نسخه Deluxe NHL 26، او دیگر کارمندان را تشویق می‌کند تا مشورت‌های قانونی بگیرند اما استفاده از هوش مصنوعی را زود آغاز کنند، چون مدل‌ها زمان‌بر برای آموزش هستند. همچنین او سعی می‌کند تمایز مبهمی بین این که هوش مصنوعی تمام کار را انجام می‌دهد و این که انسان‌ها هنوز کنترل فرآیند خلاقانه را در دست دارند، حفظ کند.

    “از هوش مصنوعی برای گسترش آرمان‌های خود استفاده کنید”، یکی از اسلایدهای ارائه می‌خواند. “اگر هوش مصنوعی را به‌تنهایی بگذارید، کار شما استثنایی نخواهد شد”. در زیر این بیانیه‌ پر بار، تصویری از یک سرخط دیده می‌شود که تعطیلات اخیر هوش مصنوعی کوکاکولا را به‌عنوان «چشم‌پرتی کج‌و‌خم» نقد می‌کند. به‌نظر می‌رسد پیام این است که ابزارهای هوش مصنوعی زمانی بهترین عملکرد را دارند که هیچ‌کس متوجه استفاده از آنها نباشد.

    دنیای جدید شجاعانه فروش کارت‌پک‌ها توسط هوش مصنوعی

    شرکت EA در حال حاضر برای فروش به عربستان سعودی و سایر کشورها در قالب یک خرید اهرمی ۵۵ میلیارد دلاری برنامه‌ریزی شده است. به گزارش The Financial Times، سرمایه‌گذاری‌های بزرگ در هوش مصنوعی یکی از راه‌های احتمالی است که شرکت می‌تواند برای سرویس‌دهی به این بدهی در آینده از آن استفاده کند. برخی از کارمندان نگرانند که این ممکن است به اخراج‌های آنها و تجربه‌ای بدتر برای بازیکنان منجر شود.

    بخش دیگری از ارائه داخلی به استفاده از ابزارهای هوش مصنوعی خدمات مشتری برای ارائه کمک درون‑بازی به بازیکنان اختصاص داشت. به‌عنوان مثال، اگر در جدیدترین College Football برای پاس دادن مشکل دارید، یک چت‌بات می‌تواند لینک‌های راهنمای آنلاین یا ویدیوهای کوتاه آموزشی را ارائه دهد. اما یک نمونهٔ نظری برای کاربردهای ممکن این فناوری گزینهٔ سومی را نیز پیشنهاد می‌کند: خرید بسته‌های کارت.

    “یا این بسته‌ای است که می‌تواند به شما کمک کند سریع‌تر سطح بگذرید”، در یک اسلاید ارائه خوانده می‌شود. ربات ادامه می‌دهد: “در این بسته کوارتر‌بک‌ها و گیرنده‌های با آمار دقت برتر موجود است – عالی برای تقویت مسیرهای کوتاه و پرتاب‌ها”. هیچ شواهدی وجود ندارد که EA در حال حاضر درصدد پیاده‌سازی چنین ویژگی‌ای در بازی‌های واقعی خود باشد، اما این دقیقاً نمادی است از اینکه چرا بسیاری از بازیکنان به‌طور واکنشی ضد هوش مصنوعی هستند.

    EA از اظهار نظر خودداری کرد.

    به‌روزرسانی ۲۶/۱۱/۲۵ ساعت ۱۲:۰۸ ب.ظ. ET: EA تأیید کرد که خانواده تاکچوک اجازه استفاده از هوش مصنوعی را داده‌اند. 

  • تحقیقات هوش مصنوعی با مشکل محتوای کم‌کیفیت مواجه است؛ دانشگاهیان می‌گویند: «این یک آشوب است»

    Aisha Down

    مردی که در دفتر روی لپ‌تاپ تایپ می‌کند
    نویسنده، کوین ژو، اکنون Algoverse را اداره می‌کند؛ یک شرکت پژوهش و مربی‌گری هوش مصنوعی برای دانش‌آموزان دبیرستانی. عکاسی: Cavan Images/Alamy

    پژوهش‌های هوش مصنوعی مورد سؤال قرار گرفته‌اند، زیرا نویسنده ادعا می‌کند امسال بیش از ۱۰۰ مقاله درباره هوش مصنوعی نوشته است که ۸۹ مقاله از آنها این هفته در یکی از پیشروترین کنفرانس‌های جهان درباره هوش مصنوعی و یادگیری ماشین ارائه می‌شود؛ این موضوع سؤالاتی را در میان دانشمندان رایانه درباره وضعیت پژوهش‌های هوش مصنوعی برانگیخته است.

    یک شخص ادعا می‌کند امسال ۱۱۳ مقاله علمی درباره هوش مصنوعی تألیف کرده است که ۸۹ مقاله از آنها این هفته در یکی از پیشروترین کنفرانس‌های جهان در زمینه هوش مصنوعی و یادگیری ماشین ارائه می‌شود؛ این امر سؤال‌هایی را در میان دانشمندان رایانه درباره وضعیت پژوهش‌های هوش مصنوعی به وجود آورده است.

    نویسنده، کوین ژو، به‌تازگی مدرک لیسانس رشته‌ی علوم کامپیوتر را از دانشگاه کالیفرنیا، برکلی دریافت کرده و در حال حاضر شرکت Algoverse را که یک شرکت پژوهشی و مربی‌گری هوش مصنوعی برای دانش‌آموزان دبیرستانی است، مدیریت می‌کند؛ بسیاری از این دانش‌آموزان هم‌نویسندگان مقالات او هستند. خود ژو در سال ۲۰۱۸ از دبیرستان فارغ‌التحصیل شد.

    مقالاتی که او در دو سال گذشته منتشر کرده است، موضوعاتی نظیر استفاده از هوش مصنوعی برای شناسایی دامداران کوچ‌نشین در جنوب صحرای آفریقا، ارزیابی ضایعات پوستی و ترجمه گویش‌های اندونزیایی را شامل می‌شوند. در پروفایل لینکدین خود، او ادعا می‌کند که «بیش از ۱۰۰ مقاله برتر کنفرانس در سال گذشته» منتشر کرده است که «توسط OpenAI، مایکروسافت، گوگل، استنفورد، MIT، آکسفورد و دیگران ارجاع شده‌اند».

    مقاله‌های ژو «فاجعه» هستند، هانی فرید، استاد علوم کامپیوتر در برکلی، در مصاحبه‌ای گفت. او افزود: «من تا حد زیادی مقتنع هستم که کل این مسأله، از بالا به پایین، صرفاً کدگذاری «vibe» است»، که به معنای استفاده از هوش مصنوعی برای ایجاد نرم‌افزار است.

    ناظران ربات‌ها در آشفتگی

    استانداردهای بازبینی پژوهش‌های هوش مصنوعی با بیشتر حوزه‌های علمی دیگر متفاوت است. اکثر کارهای هوش مصنوعی و یادگیری ماشین تحت فرایندهای سخت‌گیرانه بازنگری همتا، همانند رشته‌های شیمی و زیست‌شناسی، قرار نمی‌گیرند؛ در عوض، مقالات غالباً به‌صورت کمتر رسمی در کنفرانس‌های بزرگ مانند NeurIPS، یکی از برترین همایش‌های جهان در زمینه یادگیری ماشین و هوش مصنوعی، ارائه می‌شوند؛ که ژو نیز در برنامه این کنفرانس حضور دارد.

    مطالعه موردی ژو نشانگر یک مسألهٔ بزرگ‌تر در پژوهش‌های هوش مصنوعی است، فرید گفت. کنفرانس‌هایی از جمله NeurIPS با افزایش چشمگیر تعداد مقالات ارسالی مواجه شده‌اند: در سال جاری NeurIPS ۲۱٬۵۷۵ مقاله دریافت کرد، که در مقایسه با زیر ۱۰٬۰۰۰ مقاله در سال ۲۰۲۰، افزایش چشمگیری است. یک کنفرانس دیگر برتر هوش مصنوعی، کنفرانس بین‌المللی نمایاندن یادگیری (ICLR)، گزارش داد که برای کنفرانس ۲۰۲۶، افزایش ۷۰٪ در مقالات ارسالی داشته است و نزدیک به ۲۰٬۰۰۰ مقاله دریافت کرده، در حالی که برای کنفرانس ۲۰۲۵ این عدد کمی بیش از ۱۱٬۰۰۰ مقاله بود.

    «نقد‌کنندگان از کیفیت پایین مقالات شکایت می‌کنند و حتی گمان می‌کنند برخی از آن‌ها توسط هوش مصنوعی تولید شده‌اند. چرا این جشنواره علمی طعم خود را از دست داده است؟» بلاگ فناوری چینی 36Kr در یک پست نوامبر درباره ICLR پرسید و اشاره کرد که میانگین امتیازهایی که نقد‌کنندگان به مقالات اختصاص داده‌اند، سالانه کاهش یافته است.

    در همین حال، دانشجویان و پژوهشگران تحت فشار فزاینده‌ای برای افزایش تعداد مقالات و همگام شدن با همتایان خود قرار دارند. انتشار عدد دو رقمی – که حتی کمتر تعداد سه رقمی – از مقالات علمی رشتهٔ رایانه با کیفیت بالا در یک سال، برای پژوهشگران غیرمعمول است، دانشگاهیان گفتند. فرید می‌گوید که گاهی دانش‌آموزان او مقالاتی «vibe coded» می‌نویسند تا تعداد انتشارهای خود را بالا ببرند.

    «افراد جوان بسیار زیادی می‌خواهند وارد هوش مصنوعی شوند. در حال حاضر یک جنون وجود دارد»، فرید گفت.

    NeurIPS مقالات ارسالی را بازبینی می‌کند، اما فرآیند آن بسیار سریع‌تر و کمتر دقیق از بازنگری علمی استاندارد است، جفری والینگ، استادیار در دانشگاه فناوری ویرجینیا، بیان کرد. امسال، این کنفرانس از تعداد زیادی از دانشجویان دکترا برای ارزیابی مقالات استفاده کرده که یک صندلی مسئول (area chair) در NeurIPS گفت این امر روی فرآیند تأثیر منفی گذاشته است.

    «واقعیت این است که داوران کنفرانس اغلب باید در مدت زمان کوتاهی ده‌ها مقاله را بررسی کنند و معمولاً بازبینی کمی یا اصلاً وجود ندارد»، والینگ گفت.

    والینگ با فرید موافقت کرد که تعداد مقالات منتشر شده بیش از حد است و گفت که نویسندگانی را دیده است که بیش از ۱۰۰ مقاله در یک سال منتشر کرده‌اند. او افزود: «پژوهشگران بیشتر به خاطر حجم انتشاراتشان به‌جای کیفیت پاداش می‌گیرند… همه به افسانهٔ بهره‌وری فوق‌العاده علاقه‌مندند»، او گفت.

    در صفحه سؤالات متداول Algoverse، پاسخ‌ها دربارهٔ اینکه برنامهٔ این شرکت چگونه می‌تواند به آیندهٔ تحصیلی یا شغلی متقاضیان کمک کند، توضیح می‌دهد: «مهارت‌ها، دستاوردها و انتشاراتی که در اینجا به‌دست می‌آورید در جامعهٔ علمی مورد احترام فراوانی قرار دارند و می‌توانند واقعیاً درخواستٔ دانشگاه یا رزومهٔ شما را تقویت کنند. این به‌ویژه زمانی صادق است که پژوهش شما در یک کنفرانس برتر پذیرفته شود – دستاوردی متمایز حتی برای پژوهشگران حرفه‌ای.»

    فرید می‌گوید که اکنون به دانش‌آموزان توصیه می‌کند که وارد پژوهش هوش مصنوعی نشوند، به‌دلیل «جنون» موجود در این حوزه و حجم بالای کارهای کم‑کیفیتی که توسط افرادی که به‌دنبال بهبود چشم‌انداز شغلی خود هستند، منتشر می‌شود.

    «این فقط یک آشوب است. نمی‌توانید همگام بمانید، نمی‌توانید منتشر کنید، نمی‌توانید کار خوب انجام دهید، نمی‌توانید اندیشمند باشید»، او گفت.

    سیل ضایعات

    با این‌حال، کارهای برجسته‌ای همچنان از این فرآیند به‌دست آمده‌اند. به‌ویژه مقالهٔ گوگل دربارهٔ ترانسفورمرها با عنوان «Attention Is All You Need» – که پایهٔ نظری پیشرفت‌های هوش مصنوعی منجر به ChatGPT شد – در سال ۲۰۱۷ در NeurIPS ارائه شد.

    سازمان‌دهندگان NeurIPS تأیید می‌کنند که این کنفرانس تحت فشار است. در اظهاری به گاردین، سخنگویی گفت که رشد هوش مصنوعی به‌عنوان یک حوزه، «افزایش قابل‌توجهی در تعداد مقالات ارسالی و ارزش افزودهٔ بیشتر به پذیرش‌های بازنگری شده در NeurIPS» را به دنبال داشته و «بار قابل‌توجهی بر روی سیستم بازنگری ما وارد کرده است».

    مراجعات ژو عمدتاً به کارگاه‌های داخل NeurIPS تعلق داشته‌اند که فرآیند انتخاب متفاوتی نسبت به جلسهٔ اصلی دارند و اغلب جایی هستند که کارهای کارآیی‌نوبت‌شده ارائه می‌شوند، گفت سازمان‌دهندگان NeurIPS. فرید اظهار داشت که این توضیح برای این‌که یک فرد نام خود را بر روی بیش از ۱۰۰ مقاله بگذارد، کافی نیست.

    «من این را به‌عنوان استدلالی قانع‌کننده برای گذاشتن نام خود بر روی ۱۰۰ مقاله که احتمالاً نمی‌توانید به‌طور معناداری در آن‌ها مشارکت کنید، نمی‌بینم»، فرید گفت.

    مشکل بزرگ‌تر از سیل مقالات در NeurIPS است. بازبین‌های ICLR از هوش مصنوعی برای ارزیابی حجم عظیمی از مقالات استفاده کردند – که منجر به ارجاع‌های «توهمی» و بازخوردی شد که «بسیار پرحرف با نکات گلوله‌ای فراوان» بود، طبق مقالهٔ اخیر منتشر شده در Nature.

    احساس سقوط به‌قدری گسترده است که یافتن راه‌حلی برای این بحران، خود به‌عنوان موضوعی برای مقاله‌ها تبدیل شده است. یک مقالهٔ موضعی در ماه می ۲۰۲۵ – نسخهٔ علمی و مستدل نظرات روزنامه‌ای – که توسط سه دانشمند کامپیوتر کره‌جنوبی نوشته شده بود و راه‌حلی برای «چالش‌های بی‌سابقهٔ افزایش مقالات همراه با نگرانی‌های فزاینده در مورد کیفیت بازنگری و مسئولیت بازبین‌ها» پیشنهاد می‌داد، در کنفرانس بین‌المللی یادگیری ماشین ۲۰۲۵ جایزهٔ برترین کار را دریافت کرد.

    در عین حال، فرید می‌گوید که شرکت‌های بزرگ فناوری و سازمان‌های کوچک ایمنی هوش مصنوعی اکنون کارهای خود را بر روی arXiv بارگذاری می‌کنند، سایتی که پیش‌تر تنها برای پیش‌چاپ‌های کم‌دید در حوزه ریاضیات و فیزیک اختصاص داشت و اینترنت را با کارهایی که به‌عنوان علم ارائه می‌شوند اما تحت استانداردهای بازنگری نیستند، سیل می‌کند.

    هزینهٔ این، به‌قول فرید، این است که تقریباً غیرممکنی دانست که در حوزهٔ هوش مصنوعی چه می‌گذرد – برای روزنامه‌نگاران، عموم مردم و حتی متخصصان این حوزه: «به‌عنوان یک خوانندهٔ متوسط هیچ فرصتی ندارید تا سعی کنید درک کنید چه اتفاقی در ادبیات علمی می‌افتد. نسبت سیگنال به نویز شما تقریباً برابر یک است. من به‌ سختی می‌توانم به این کنفرانس‌ها بروم و بفهمم دقیقاً چه می‌گذرد.»

    «به دانش‌آموزان می‌گویم اگر هدف‌تان بهینه‌سازی تعداد مقالات منتشرشده است، در واقع این کار آن‌قدر سخت نیست. فقط کارهای بسیار ضعیف و کم‌کیفیت انجام دهید و آن‌ها را به کنفرانس‌ها تزریق کنید. اما اگر می‌خواهید کارهای دقیق و اندیشمندانه انجام دهید، در موقعیتی ضعیف هستید چون عملاً به‌صورت یک‌جانبه از سلاح‌های خود خالی شده‌اید»، او گفت.

  • ویدیو: ربات انسان‌نمای آمریکایی به سرعت دویدن انسان نزدیک شد در نمایش دویدن جدید

    این کلیپ به وضوح شروع سریع ربات، تغییرات جهت روان و ترمزگیری تیز آن را در حین دویدن داخل یک مجتمع نشان می‌دهد.

    دوئیدن فیگور ۰۳
    فیگور ۰۳ در حال دویدن در ویدیو جدید. مدیرعامل فیگور آی، برت آدکوک/اینستاگرام

    آینده کف کارخانه‌ها و کمک‌های خانگی حالا خیلی سریع‌تر شد.

    اخیراً، مدیرعامل فیگور آی، برت آدکوک، یک ویدیو کوتاه در رسانه‌های اجتماعی به اشتراک گذاشت که سرعت و چابکی شگفت‌انگیز ربات انسان‌نمای فیگور ۰۳ را به نمایش می‌گذارد.

    این کلیپ به وضوح شروع سریع ربات، تغییرات جهت روان و ترمزگیری تیز آن را در حین دویدن داخل یک مجتمع نشان می‌دهد. این حرکات با تصور رایج که انسان‌نماهای امروزی کند و سنگین هستند، کاملاً در تضاد است.

    «این کنترلر ربات F.۰۳ توسط یک شبکه عصبی onboard ساخته‌شده توسط تیم هلیکس اجرا می‌شود»، آدکوک در کپشن اینستاگرام نوشت.

    شکستن سد سرعت

    برای سال‌ها، پاشنه آشیل ربات‌های انسان‌نمای چندمنظوره، ناتوانی‌شان در حرکت سریع بوده است.

    شرکت‌هایی که ربات‌های انسان‌نما می‌سازند، اغلب حداکثر سرعت راه‌رفتنشان را اعلام نمی‌کنند، زیرا این اعداد معمولاً چشمگیر نیستند.

    رقبایی مانند دیجیت از اگیلیتی رباتیکز و فینیکس از سنکچوآری آی، معمولاً حداکثر سرعت راه‌رفتن را در محدوده محافظه‌کارانه ۳ تا ۴ مایل در ساعت اعلام کرده‌اند.

    فیگور آی مستقر در کالیفرنیا، عدد خودش را برای فیگور ۰۳ به عنوان ۱.۳ متر بر ثانیه یا ۲.۷ مایل در ساعت گزارش کرد که به نظر متواضعانه می‌رسد.

    اما این فیلم جدید خلاف آن را نشان می‌دهد. فوربز گزارش داد که ربات به نظر می‌رسد در انتهای بالایی سرعت دویدن انسانی – ۴ تا ۶ مایل در ساعت – عمل می‌کند.

    جالب اینجاست که ربات با هر دو پا همزمان از زمین جدا نشان داده شده؛ حرکتی که از نظر فنی دویدن را تعریف می‌کند و نیاز به کنترل پایداری دینامیکی پیچیده دارد. این یک مانع مهندسی عظیم است که حالا بر آن غلبه شده.

    این حرکت سریع و روان – به ویژه توانایی کند کردن سریع و اجرای چرخش – نشان‌دهنده پیشرفت عمده در سیستم کنترل فیگور و عملگرهای گشتاور بالا است.

    شبکه عصبی تیم هلیکس، هوش پیچیده‌ای را فراهم می‌کند که فیگور ۰۳ برای اجرای حرکات پیچیده و چابک مانند دویدن و چرخش‌های سریع به آن نیاز دارد. به طور قابل توجه، این توسعه آن را از یک اتوماتون سفت و خشک به سمت یک ماشین توانمندتر سوق می‌دهد.

    «فیگور ۰۳ به دلایل متعددی برای کاربردهای تجاری مناسب است. عملگرها می‌توانند دو برابر سریع‌تر کار کنند در حالی که چگالی گشتاور بهبودیافته (nm/kg) را حفظ می‌کنند. مهم‌ترین نتیجه این امر، توانایی ما برای برداشتن و قرار دادن اقلام با سرعت‌های بالاتر است»، وب‌سایت اشاره کرد.

    این پیشرفت به نظر می‌رسد پاسخی مستقیم به یا معیاری جدید در برابر بهبودهای اخیر سرعت باشد که توسط ربات‌های رقیب مانند آپتیموس تسلا نشان داده شده.

    به نظر می‌رسد مسابقه برای کاربرد پویا و واقعی در دنیای واقعی آغاز شده است.

    فیگور ۰۳ مجهز به سنسورهای پیشرفته است

    ربات نسل سوم یک ماشین آماده تولید برای استفاده هم در خانه و هم در صنعت است.

    با قد ۱۷۳ سانتی‌متر، فیگور ۰۳ ارتقایی نسبت به پیشینیانش فیگور ۰۲ است و دارای سیستم حسی تیزتر، زیبایی‌شناسی نرم‌تر و هماهنگی بهبودیافته است.

    با ۹ درصد جرم کمتر و حجم به طور قابل توجهی کاهش‌یافته نسبت به ربات فیگور ۰۲، ربات فیگور ۰۳ بسیار آسان‌تر برای مانور دادن است، به ویژه در محیط‌های خانگی.

    اینترستینگ انجینیرینگ قبلاً گزارش داد که طراحی ربات دارای تنظیم پیشرفته‌ای است که به آن اجازه می‌دهد اشیاء را بگیرد و گریپ خود را به طور مداوم تنظیم کند.

    یک جزء کلیدی این قابلیت، دست‌های نرم‌تر و انعطاف‌پذیرتر آن است که مجهز به سنسورهای نوک انگشت هستند و فشار بسیار سبک را – تا ۳ گرم (حدود وزن یک گیره کاغذ) – تشخیص می‌دهند. این سطح بالای حساسیت به ربات امکان دستکاری ایمن اقلام ظریف مانند ظروف شیشه‌ای را می‌دهد و از لغزش ابزارها یا اشیاء جلوگیری می‌کند.

    ترکیب حرکت سریع و قابلیت تولید، فیگور ۰۳ را به یک مدعی سرسخت در بازار رو به رشد انسان‌نماها تبدیل می‌کند.

  • درام پیش از انتشار رِنگِیدز در دستینی ۲: شایعات دستینی ۳ و اتهامات هوش مصنوعی

    رنگیدز ۲
    دستینی ۲

    بونگی اخیراً زمان زیادی را صرف صحبت درباره‌ی بسته‌ی الحاقی رِنگِیدز برای دستینی ۲ کرده که هفته‌ی آینده، در ۲ دسامبر، منتشر می‌شود. یک استریم، یک ویدیو مستند و یک تریلر وجود داشت و جو کلی برای این بسته‌ی الحاقی که به شدت تحت تأثیر جنگ ستارگان است و با همکاری خود لوکاس‌فیلم ساخته شده، مثبت بوده. اما حالا، دو خبر جداگانه جامعه را به هم ریخته.

    اولین مورد، گزارشی از چند نفوذگر بونگی است که می‌گوید دستینی ۳ در «مرحله‌ی ابتدایی بسیار اولیه» در حال توسعه است. این برای جامعه خبر تازه‌ای است، چون به نظر نمی‌رسید چنین چیزی در برنامه باشد و اگر هم باشد، سال‌ها طول می‌کشد تا به دست ما برسد.

    دومین مورد، اتهامی است عمدتاً از سوی @MGecko117 که بونگی از هوش مصنوعی برای خلق هنر مفهومی استفاده کرده که تازه از شرور اصلی بسته‌ی رِنگِیدز، درِدگِن بِیل، به اشتراک گذاشته. گِکو حدود دوازده قطعه از این هنر را بررسی می‌کند که به طور قاطع معتقد است با هوش مصنوعی ساخته شده، و پست‌های او به تنهایی نیم میلیون بازدید در توییتر گرفته، با بازدیدهای بیشتری از طریق نقل‌قول‌های توییت‌ها در این موضوع.

    هنر مفهومی دستینی
    هنر مفهومی دستینی

    پس، نظرات من:

    دستینی ۳ – کمی تعجب‌آور خواهد بود اگر بونگی حداقل در حال بحث درباره‌ی آن نباشد، چون «مرحله‌ی ابتدایی بسیار اولیه» می‌تواند به معنای همین باشد. اما سؤال اینجاست که آیا بازی‌های فعلی بونگی عملکرد خوبی خواهند داشت تا این اتفاق ممکن شود.

    انتشار قریب‌الوقوع ماراتن برای بونگی کاملاً حیاتی است، چون اگر فاجعه‌بار باشد، سرنوشت کل استودیو ممکن است در خطر بیفتد. اگر نه، خب، فضای بسیار بیشتری برای آینده باز می‌شود.

    خود دستینی ۲، چه با بسته‌ی الحاقی جنگ ستارگان‌وار محکم یا نه، نشانه‌های کمی از توانایی برگرداندن تعداد بازیکنانش نشان می‌دهد و جامعه عمدتاً موافق است که تنها چیزی که می‌تواند سری را احیا کند، یک دنباله است. اما بله، ساختن یک دنباله‌ی واقعی برای بازی‌ای مثل دستینی احتمالاً بیش از پنج سال طول می‌کشد و فکر کردن به چنین چیزی برای بونگی در حال حاضر، در بهترین حالت، نظری است. انتظار نداشته باشید بونگی در این باره نظری بدهد.

    بِیل
    دستینی ۲

    اتهامات هوش مصنوعی – راستش، من باور نمی‌کنم. این هنر مفهومی اولیه است و اگر یک دهه دستینی را دنبال کرده باشید، هنر مفهومی زیادی در این سبک خواهید دید. فقط آن زمان، مردم اتهامات هوش مصنوعی را با سرعت هزار مایل در ساعت پرتاب نمی‌کردند، همان‌طور که حالا هر روز هنرمندان بااستعداد، حتی مشهورها، متهم به استفاده از هوش مصنوعی می‌شوند.

    برای چیزی مثل هنر مفهومی، هیچ‌کدام از این جزئیات «هوش مصنوعی‌وار» چندان عجیب به نظر نمی‌رسد. مثلاً، یک شمشیر نوری بدون دسته از دست بِیل بیرون می‌آید. منظورم این است که این کاملاً مثل یک اثبات مفهوم به نظر می‌رسد که کسی یک PNG از تیغه‌ی شمشیر نوری را روی آن زده تا ببیند چطور به نظر می‌رسد. منظورم این است که هوش مصنوعی می‌تواند در این مرحله کسی را که شمشیر نوری در دست دارد، متقاعدکننده نشان دهد. توضیحات متعددی وجود دارد، از روش‌های قدیمی مثل فوتوبَشینگ تا، در بدترین حالت، نوعی ارتقای هوش مصنوعی که همان ژنراتور هوش مصنوعی نیست.

    با این حال، کمک نمی‌کند که بونگی در طول سال‌ها با نیم دوجین رسوایی سرقت ادبی روبرو شده، اخیراً با ماراتن، پس بخش هنری‌شان در حال حاضر کاملاً مورد اعتماد نیست. با این وجود، سرقت ادبی و ژنراتور هوش مصنوعی انواع متفاوتی از رسوایی هستند. من فقط… فکر نمی‌کنم این اتفاق افتاده باشد، اما یک بیانیه‌ی قطعی از بونگی مطمئناً کمک می‌کند. تصور نمی‌کنم بخواهند درست روزی که ویدیوها و مقالات سازندگان درباره‌ی رِنگِیدز منتشر می‌شود، این کار را بکنند، اما حالا وقتش است و خب، بهتر است همین حالا برخورد کنند.

    آیا امروز بدون رسوایی‌های بیشتر جان سالم به در خواهیم برد؟ خب، ساعت ۹ صبح است، پس فکر کنم خواهیم دید.

    من را در توییتر، یوتیوب، بلوسکی و اینستاگرام دنبال کنید.

    رمان‌های علمی-تخیلی من، سری هیروکیلر و سه‌گانه ارث‌بورن را تهیه کنید.

  • زباله‌های هوش مصنوعی ردیت را برای همه نابود می‌کند

    تصویر ممکن است شامل صورت و سر شخص باشد

    عکس-تصویرسازی: کارکنان WIRED؛ Getty Images

    پستی در ردیت درباره عروس‌ای که از یک مهمان عروسی می‌خواهد رنگ خاصی بپوشد که به او نمی‌آید، مطمئناً خشم زیادی برمی‌انگیزد، چه برسد به پستی درباره ساقدوش یا مادر داماد که می‌خواهد لباس سفید بپوشد. سناریویی که در آن والدینی از کسی در هواپیما می‌خواهند صندلی‌اش را عوض کند تا بتوانند کنار کودک کوچک‌شان بنشینند، احتمالاً همان موج خشم را ایجاد می‌کند. اما این پست‌ها ممکن است moderator ردیت را به دلیلی متفاوت عصبانی کنند—این‌ها تم‌های رایجی در ژانر رو به رشدی از پست‌های جعلی تولیدشده توسط هوش مصنوعی هستند.

    این‌ها مثال‌هایی هستند که برای کِسی، یکی از ده‌ها moderator subreddit r/AmItheAsshole به ذهن می‌رسد. با بیش از ۲۴ میلیون عضو، این یکی از بزرگ‌ترین subredditها است و صراحتاً محتوای تولیدشده توسط هوش مصنوعی و داستان‌های ساختگی دیگر را ممنوع می‌کند. از اواخر ۲۰۲۲، زمانی که ChatGPT برای عموم راه‌اندازی شد، کِسی (که خواست فقط با نام کوچکش ذکر شود) و دیگر داوطلبانی که زمان‌شان را برای moderation پست‌های ردیت صرف می‌کنند، با هجوم محتوای هوش مصنوعی دست و پنجه نرم کرده‌اند. برخی از این محتواها کاملاً توسط هوش مصنوعی تولید شده‌اند، در حالی که کاربران دیگر پست‌ها و کامنت‌های‌شان را با برنامه‌های هوش مصنوعی مانند Grammarly ویرایش می‌کنند.

    «احتمالاً بیشتر از آنچه کسی بخواهد واقعاً اعتراف کند شایع است، چون فقط خیلی آسان است که پست‌تان را در ChatGPT بریزید و بگویید ‘هی، این را هیجان‌انگیزتر کن’»، می‌گوید کِسی، که فکر می‌کند ممکن است نیمی از تمام محتوایی که در ردیت پست می‌شود، به نوعی با هوش مصنوعی ایجاد یا بازنویسی شده باشد.

    r/AmItheAsshole ستونی از فرهنگ ردیت است، فرمت‌ای که ده‌ها اگر نه صدها مشتق مانند r/AmIOverreacting، r/AmITheDevil و r/AmItheKameena را الهام بخشیده است—subredditی با بیش از ۱۰۰ هزار عضو که توصیف شده به عنوان «آیا من احمقم، اما نسخه هندی‌اش». پست‌ها معمولاً داستان‌هایی درباره درگیری‌های بین‌فردی هستند، جایی که ردیتورها می‌توانند نظر دهند که چه کسی اشتباه کرده («YTA» یعنی «تو احمقی»، در حالی که «ESH» یعنی «همه افتضاح‌اند»)، چه کسی درست می‌گوید، و بهترین اقدام پیش رو چیست. کاربران و moderatorها در این واریانت‌های r/AmItheAsshole گزارش داده‌اند که محتوای مشکوک به تولید توسط هوش مصنوعی بیشتری می‌بینند، و دیگران می‌گویند این یک مسئله سایت‌محور است که در انواع subredditها رخ می‌دهد.

    «اگر subreddit عمومی عروسی یا AITA، روابط، یا چیزی شبیه به آن داشته باشید، به شدت ضربه خواهید خورد»، می‌گوید moderator subreddit r/AITAH، واریانتی از r/AmItheAsshole با تقریباً ۷ میلیون عضو. این moderator، بازنشسته‌ای که به شرط ناشناس ماندن صحبت کرد، ۱۸ سال در ردیت فعال بوده—بیشتر عمر آن—و همچنین دهه‌ها تجربه در کسب‌وکار وب قبل از آن داشته است. او هوش مصنوعی را تهدیدی وجودی بالقوه برای پلتفرم می‌بیند.

    «خود ردیت یا باید کاری کند، یا مار دم خودش را می‌بلعد»، می‌گوید او. «به جایی رسیده که هوش مصنوعی هوش مصنوعی را تغذیه می‌کند.»

    در پاسخ به درخواست نظر، سخنگوی ردیت گفت: «ردیت انسانی‌ترین مکان در اینترنت است و ما می‌خواهیم این‌طور بماند. ما محتوای دستکاری‌شده و رفتارهای غیراصیل را ممنوع می‌کنیم، از جمله حساب‌های ربات هوش مصنوعی misleading که خود را به جای افراد جا می‌زنند و کمپین‌های تأثیر خارجی. محتوای تولیدشده توسط هوش مصنوعی که به وضوح برچسب‌گذاری شده، معمولاً مجاز است به شرطی که در چارچوب قوانین جامعه و قوانین سایت‌محور ما باشد.» سخنگو افزود که بیش از ۴۰ میلیون «حذف اسپم و محتوای دستکاری‌شده» در نیمه اول ۲۰۲۵ وجود داشته است.

    تغییر جو به سمت بدتر

    آلی، ۲۶ ساله که در کالج جامعه‌ای در فلوریدا تدریس خصوصی می‌کند و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، متوجه شده که ردیت در سال گذشته «واقعاً رو به وخامت رفته» به خاطر هوش مصنوعی. احساسات او توسط کاربران دیگر در subredditهایی مانند r/EntitledPeople، r/simpleliving و r/self به اشتراک گذاشته می‌شود، جایی که پست‌ها در سال گذشته از افزایش محتوای مشکوک به هوش مصنوعی شکایت کرده‌اند. صرف احتمال اینکه چیزی توسط هوش مصنوعی تولید شده باشد، اعتماد بین کاربران را فرسوده است. «هوش مصنوعی ردیت را به توده‌ای آشغال تبدیل می‌کند»، یک حساب در r/AmITheJerk نوشت. «حتی اگر پستی مشکوک به هوش مصنوعی نباشد، وجود هوش مصنوعی مثل داشتن جاسوس در اتاق است. خود شک، دشمن است.» آلی قبلاً از خواندن subredditهایی مانند r/AmIOverreacting لذت می‌برد. اما حالا نمی‌داند تعاملاتش واقعی هستند یا نه، و زمان کمتری نسبت به سال‌های گذشته در پلتفرم صرف می‌کند.

    «هوش مصنوعی همه را خسته می‌کند»، می‌گوید moderator r/AITAH. «می‌بینم مردم تلاش عظیمی برای یافتن منابع برای دیگران می‌کنند، فقط برای اینکه با ‘ها، گول خوردی، این همه دروغ است’ پاسخ داده شوند.»

    تشخیص هوش مصنوعی

    راه‌های مطمئن کمی برای اثبات اینکه چیزی هوش مصنوعی است یا نه وجود دارد، و بیشتر مردم عادی به شهود خودشان تکیه می‌کنند. متن حتی سخت‌تر از عکس‌ها و ویدیوها ارزیابی می‌شود، که اغلب نشانه‌های قطعی دارند. پنج ردیتوری که با WIRED صحبت کردند، استراتژی‌های متفاوتی برای شناسایی متن تولیدشده توسط هوش مصنوعی داشتند. کِسی متوجه می‌شود وقتی پست‌ها عنوان‌شان را کلمه به کلمه در بدنه تکرار می‌کنند یا از خط تیره بلند استفاده می‌کنند، و همچنین وقتی پست‌کننده در تاریخچه کامنت‌هایش املا و نقطه‌گذاری افتضاحی دارد اما چیزی با دستور زبان کامل پست می‌کند. آلی از حساب‌های تازه‌تأسیس ردیت و پست‌هایی با ایموجی در عنوان جا می‌خورد. moderator r/AITAH از پست‌های خاصی حس «دره ناآشنا» می‌گیرد. اما این «نشانه‌ها» ممکن است در پستی که اصلاً از هوش مصنوعی استفاده نمی‌کند هم وجود داشته باشد.

    «در این مرحله، کمی حس ‘وقتی می‌بینی می‌دونی’ است»، می‌گوید تراویس لوید، دانشجوی دکترا در Cornell Tech که تحقیقاتی درباره چالش‌های جدید مبتنی بر هوش مصنوعی که moderatorهای ردیت با آن روبرو هستند، منتشر کرده است. «در حال حاضر، ابزارهای قابل اعتمادی برای تشخیص ۱۰۰ درصدی آن وجود ندارد. پس مردم استراتژی‌های خودشان را دارند، اما لزوماً ضدگلوله نیستند.»

    علاوه بر این، با ظاهر شدن متن‌های هوش مصنوعی بیشتر در دنیای واقعی، مردم شروع به تقلید از ویژگی‌های رایج زبان تولیدشده توسط هوش مصنوعی می‌کنند، چه از هوش مصنوعی استفاده کنند یا نه. در ردیت، حلقه بازخورد هوش مصنوعی ممکن است حتی incestuousتر باشد، زیرا پلتفرم شرکت‌های هوش مصنوعی مانند Anthropic و Perplexity را به خاطر allegedly scraping محتوای ردیت بدون اجازه برای آموزش چت‌بات‌ها، شکایت کرده است. نتایج خلاصه هوش مصنوعی گوگل به طور infamous از کامنت‌های ردیت که در واقع جوک‌های sarcastic هستند، کشیده شده، مانند کاربری که پیشنهاد داد از چسب برای چسباندن بهتر پنیر به خمیر پیتزا استفاده شود.

    «هوش مصنوعی از مردم آموزش می‌بیند، و مردم آنچه دیگران را می‌بینند کپی می‌کنند»، می‌گوید کِسی. «مردم بیشتر شبیه هوش مصنوعی می‌شوند، و هوش مصنوعی بیشتر شبیه مردم.»

    طعمه خشم علیه اقلیت‌ها

    هر دو moderator AITA می‌گویند که روند پست‌های طعمه خشم را مشاهده کرده‌اند که ممکن است با هوش مصنوعی نوشته شده باشند و به نظر می‌رسد فقط برای بدنام کردن افراد ترنس و دیگر جمعیت‌های آسیب‌پذیر وجود دارند. moderator r/AITAH می‌گوید subreddit در ماه پراید با هجوم محتوای ضدترنس روبرو شد، در حالی که کِسی می‌گوید به طور متناوب در صف moderation ظاهر می‌شود.

    «چیزهایی مثل ‘والدینم از نام انتخابی‌ام استفاده نکردند و من ترنس هستم و به خاطرش منفجر شدم چون چطور جرأت کردند’ یا ‘کسی جنسیت من را فرض کرد و من سیس هستم اما چطور جرأت کردند جنسیت من را فرض کنند’»، می‌گوید کِسی. «این‌ها فقط برای عصبانی کردن از افراد ترنس، افراد گی، افراد سیاه‌پوست، زنان طراحی شده‌اند.»

    در subredditهایی که حول اخبار و سیاست می‌چرخند، هوش مصنوعی راه‌های جدیدی برای انتشار disinformation فراهم کرده است. این چیزی است که تام، ردیتوری که سه سال به moderation r/Ukraine کمک کرد و برای حفظ حریم خصوصی فقط با نام کوچکش صحبت کرد، همراه با تکنیک‌های دستکاری اجتماعی مانند astroturfing که قبل از برنامه‌هایی مانند ChatGPT وجود داشتند، تجربه کرد. اما حالا، هوش مصنوعی می‌تواند این تاکتیک‌ها را اتوماتیک کند، و نگه داشتن آن برای moderatorهای انسانی را حتی سخت‌تر می‌کند.

    «مثل یک نفر ایستاده در مزرعه در برابر موج جزر و مدی بود»، می‌گوید تام. «می‌توانید با تلاش بسیار کم، نویز زیادی ایجاد کنید.»

    در r/Ukraine، که نزدیک به یک میلیون عضو دارد، تام به یاد می‌آورد که از دیگر modها آموزش گرفته تا گسترش پروپاگاندای روسی را کاهش دهد و حتی حمایت تخصصی از ادمین‌های ردیت دریافت کرده، که یک قدم بالاتر از داوطلبان هستند و واقعاً برای ردیت کار می‌کنند و حقوق می‌گیرند.

    پول‌سازی از کارما

    علاوه بر انگیزه‌های ایدئولوژیک، راه‌های کمتر شناخته‌شده‌ای برای پول‌سازی از محتوای ردیت هم وجود دارد. برخی واضح‌تر هستند، مانند برنامه Reddit Contributor، که به پست‌کننده‌ها اجازه می‌دهد از گرفتن upvotes (که به عنوان «کارما» شناخته می‌شود) و جوایزی که کاربران دیگر می‌توانند برای‌شان بخرند، پول دربیاورند. hustlerهای ردیت theoretically می‌توانند از محتوای تولیدشده توسط هوش مصنوعی برای جمع کردن کارما، سود بردن از آن، و حتی فروش حساب‌های‌شان استفاده کنند.

    «حساب ردیت من ارزش پولی زیادی دارد، و می‌دانم چون مردم مدام سعی می‌کنند بخرندش»، می‌گوید تام. «می‌تواند برای اهداف شیطانی هم استفاده شود، اما مشکوکم که بیشترش افراد بی‌حوصله‌ای هستند که زمان دارند، مثل ‘خب، می‌توانم در یک ماه صد دلار کنار دربیاورم با تقریباً هیچ کاری’.»

    حساب‌های دیگر به کارما نیاز دارند تا به subredditهای NSFW با الزامات کارما دسترسی پیدا کنند، جایی که سپس می‌توانند چیزهایی مانند لینک‌های OnlyFans را تبلیغ کنند. هر دو کِسی و moderator r/AITAH متوجه حساب‌هایی شده‌اند که در subredditهای بزرگ‌تر پست می‌کنند تا کارما جمع کنند قبل از رفتن به پست محتوای بزرگسالانه. برخی از آن‌ها کلاهبردار هستند. دیگران ممکن است فقط سعی در امرار معاش داشته باشند.

    «گاهی واقعی است، گاهی درگیری واقعی‌ای است که واقعاً داشته‌اند، گاهی جعلی، گاهی هر طور که باشد توسط هوش مصنوعی تولید شده»، می‌گوید کِسی. «تقریباً می‌خواهم اسمش را gamification بگذارم، جایی که فقط سعی می‌کنند سیستم را همان‌طور که تنظیم شده استفاده کنند.»

    زمان اضافی که moderatorهای ردیت برای غربال کردن مواد مشکوک به هوش مصنوعی صرف می‌کنند، بازتابی از این است که محتوای هوش مصنوعی به طور کلی موانع جدیدی ایجاد کرده، که فراتر از حوزه moderation رسانه‌های اجتماعی گسترش می‌یابد.

    «آنچه moderatorهای ردیت با آن دست و پنجه نرم می‌کنند، همان چیزی است که مردم همه جا الان با آن روبرو هستند، یعنی سازگاری با دنیایی که ایجاد محتوای تولیدشده توسط هوش مصنوعی که plausible به نظر می‌رسد، تلاش بسیار کمی می‌برد، و ارزیابی آن تلاش بسیار بیشتری می‌برد»، می‌گوید لوید. «این بار واقعی‌ای روی دوش‌شان است، مثل معلمان و هر کس دیگر.»

  • آیا هوش مصنوعی می‌تواند به پیش‌بینان‌ها کمک کند تا طوفان‌های ویرانگر را بهتر پیش‌بینی کنند؟

    مرکز ملی طوفان‌های گرمسیری قابلیت‌های گوگل دیپ‌مایند را آزمایش کرد.


    در این عکس آرشیوی از ۳۰ مه ۲۰۲۵، هواشناس تحلیل طوفان‌های گرمسیری، آیدان ماهونی، در ایستگاه خود در مرکز ملی طوفان‌های اداره ملی اقیانوسی و جوی (NOAA) در میامی مشغول به کار است.
    چنددان خانا/ای‌اف‌پی از طریق گتی ایمیجز، آرشیو

    چرا هیچ طوفانی در سال ۲۰۲۵ به خاک ایالات متحده نرسید

    طبق گزارش NOAA، پس از افزودن مدل دیپ‌مایند به جعبه ابزار گسترده پیش‌بینان‌ها، این مدل در برخی موارد عملکرد بهتری نسبت به همتایان سنتی و حجیم خود داشت.

    این سازمان پیش‌بینی طوفان ملیسا را به عنوان مثالی برجسته ذکر کرد.

    مدل دیپ‌مایند، و همچنین نسخه هوش مصنوعی مدل اروپایی، به پیش‌بینان‌های مرکز ملی طوفان‌ها (NHC) درجه‌ای غیرمعمول از اطمینان داد که طوفان ملیسا به سرعت به یک طوفان عمده دسته ۵ تبدیل خواهد شد و پیش از آن ضربه ویرانگری به جامائیکا وارد خواهد کرد.

    «من واقعاً از توانایی [مدل دیپ‌مایند] در مدیریت تشدید سریع تحت تأثیر قرار گرفتم، زیرا این موضوعی چالش‌برانگیز برای بسیاری از این نوع مدل‌ها بوده است»، گفت مت لانزا، ویراستار مدیر وبلاگ The Eyewall. «کاری که در طول ملیسا انجام داد، بدون شک در هشدار دادن درباره ریسک بسیار بالا نقش حیاتی ایفا کرد»، لانزا افزود.

    به طور کلی، NOAA گزارش می‌دهد که مدل دیپ‌مایند دقیق‌ترین مدل برای مسیر طوفان و شدت آن بود و تنها پیش‌بینی که از آن در دقت پیشی گرفت، پیش‌بینی‌های رسمی NHC بود.

    ساختمان‌ها و سازه‌های آسیب‌دیده در منطقه سنت الیزابت، جامائیکا، در ۲۹ اکتبر ۲۰۲۵، پس از عبور طوفان ملیسا از جزیره دیده می‌شود.
    ای‌اف‌پی ویدئوگرافیک/ای‌اف‌پی از طریق گتی ایمیجز، آرشیو

    طوفان ملیسا یکی از قوی‌ترین طوفان‌های آتلانتیک ثبت‌شده در تاریخ است که به خشکی رسیده

    جیمز فرانکلین، رئیس سابق شاخه NHC، در شبکه‌های اجتماعی نتایج را تحلیل کرد و آن را «سال طلایی» برای مدل گوگل دیپ‌مایند نامید.

    سخنگوی تیم گوگل دیپ‌مایند گفت که اگرچه این عملکرد قوی برای قابلیت‌های پیش‌بینی آب و هوای مدل بود، اما توصیه می‌کنند عملکرد مدل را بر اساس یک طوفان یا معیار واحد توصیف نکنند.

    چگونه کار می‌کند؟

    مدل‌های سنتی آب و هوا – مانند مدل اروپایی و سیستم پیش‌بینی جهانی آمریکایی که NHC به طور منظم از آن استفاده می‌کند – بر شبیه‌سازی‌های پیچیده تکیه دارند که از معادلات جوی و فیزیکی استفاده می‌کنند و برای اجرا به زمان و قدرت محاسباتی قابل توجهی نیاز دارند.

    مدل‌های هوش مصنوعی آب و هوا، مانند مدل دیپ‌مایند، به قدرت محاسباتی کمتری نیاز دارند و سریع‌تر هستند. آن‌ها با بررسی داده‌های تاریخی آب و هوا، شناسایی الگوها و روابط از طوفان‌های گذشته، یاد می‌گیرند پیش‌بینی کنند و پیش‌بینی‌های خود را در ثانیه‌ها تکمیل می‌کنند.

    «مدل‌های هوش مصنوعی/یادگیری ماشین از اطلاعات میدان‌های آب و هوایی گذشته استفاده می‌کنند، معمولاً بیش از ۴۰ سال از وضعیت جو در فواصل ۶ ساعته، تا «یاد بگیرند» جو چگونه با گذشت زمان تکامل می‌یابد»، گفت رایان تورن، استاد و پژوهشگر در دانشگاه آلبانی که متخصص مدل‌سازی آب و هوا است.

    «پس از اینکه مدل هوش مصنوعی/یادگیری ماشین جو را یاد گرفت، می‌توانید اطلاعات وضعیت فعلی جو را به آن بدهید تا پیش‌بینی ایجاد کند»، تورن افزود.

    در مورد مدل هوش مصنوعی دیپ‌مایند، گوگل می‌گوید که صدها سناریوی مختلف آب و هوایی را از یک نقطه شروع واحد در عرض چند دقیقه تولید می‌کند، در حالی که مدل‌های سنتی ساعت‌ها طول می‌کشد تا همین کار را انجام دهند.

    طوفان ملیسا.
    NOAA

    با وجود مزایای استفاده از هوش مصنوعی در فصل طوفان‌های ۲۰۲۵، تحقیقات و آزمایش‌های بیشتری لازم است تا مدل‌های مبتنی بر هوش مصنوعی بر پیش‌بینی مسلط شوند.

    لانزا گفت مدل‌هایی مانند دیپ‌مایند هنوز باید خود را با طوفان‌های خلیج ثابت کنند، زیرا فصل طوفان امسال به طور غیرعادی آرام بود.

    «وقتی به آب و هوای شدید و تغییرات آب و هوایی فکر می‌کنید، باید به این هم فکر کنید که رویدادهایی خارج از مرزهای انتظار رخ خواهند داد و مدل‌سازی هوش مصنوعی ممکن است آن ریسک را ثبت نکند»، گفت لانزا. «اینجاست که مدل‌سازی مبتنی بر فیزیک سنتی ممکن است همچنان ضروری بماند»، لانزا افزود.

    تورن نیز بر اهمیت مدل‌های سنتی تأکید کرد، در حالی که مدل‌های هوش مصنوعی سعی می‌کنند خطاهای ناشی از تغییرات ناگهانی آب و هوا یا شکاف‌های داده‌های آب و هوایی را با هموار کردن تفاوت‌ها کاهش دهند.

    «پخش کردن تفاوت‌ها در سطح وسیع‌تری فاقد معنای فیزیکی است و پیش‌بینی را بعداً تحت تأثیر قرار خواهد داد»، گفت تورن. «مدل‌های کاملاً فیزیکی ما در این زمینه عملکرد بهتری دارند زیرا قوانین فیزیکی را در مدل‌ها گنجانده‌ایم.»

    سخنگوی تیم گوگل دیپ‌مایند گفت که در حالی که مدل‌های هوش مصنوعی آب و هوا معادلات پیچیده فیزیکی و جوی را مانند همتایان سنتی خود پردازش نمی‌کنند، آن‌ها را با استفاده از مدل‌های سنتی برای آموزش و شرایط اولیه تکمیل می‌کنند – ترکیبی از سرعت و دقت برای بهبود پیش‌بینی‌ها.

  • آیا تست DNA انجام داده‌اید؟ این چت‌بات درباره نتایج شما صحبت خواهد کرد.

    الکس کوتلار، مؤسس Bystro AI، در دفترهای استارتاپ در بوستون.
    الکس کوتلار، مؤسس Bystro AI، در دفترهای استارتاپ در بوستون. دیوید ال. رایان/کارکنان گلوب

    آزمون‌های ژنتیکی ارسال‌شونده که میلیون‌ها نفر برای ردیابی پیشینهٔ خود از آن استفاده می‌کنند، می‌توانند به مردم در داشتن زندگی سالم‌تر نیز کمک کنند. این دقیقاً پیام Bystro AI است؛ استارتاپی بوستونی که با به‌کارگیری هوش مصنوعی، به افراد کمک می‌کند تا از DNA خود درس‌های کلیدی زندگی را بیاموزند.

    Bystro که در سال ۲۰۲۱ تأسیس شد، ثبت‌نام کاربران برای چت‌بات هوش مصنوعی جدید خود را آغاز کرده است. کاربران می‌توانند نتایج آزمون ژنتیکی خود را به آن وارد کنند و سپس سؤالاتی دربارهٔ بهینه‌سازی رژیم غذایی، بهترین نوع تمرینات یا احتمال ابتلا به بیماری‌های جدی مانند بیماری کلیه یا آلزایمر بپرسند.

    «من فکر می‌کنم در آدم‌ها تمایل پنهانی برای کنترل سلامت خود وجود دارد»، الکس کوتلار، بنیان‌گذار شرکت، گفت. «و تا جایی که می‌توانم، می‌خواهم به آن‌ها توانمندی این‌کار را اعطا کنم.»

    ویدئوی ویژه

    Bystro از سامانه‌ای هوش مصنوعی استفاده می‌کند که بر پایهٔ حجم عظیمی از پژوهش‌های مربوط به ژنتیک انسان و سلامت آموزش‌دیده است. این سامانه در نسخهٔ تجاری عرضه می‌شود تا به پزشکان و دانشمندان کمک کند داده‌های ژنتیکی مهم را به‌سرعت استخراج کرده و هم برای پژوهش و هم برای درمان بیماران به‌کار ببرند. شرکت انتظار دارد برای نسخهٔ حرفه‌ای، ماهانه بین ۲۰۰ تا ۳۰۰ دلار هزینه دریافت کند و همچنین قصد دارد مجوزهایی برای کاربران دانشگاهی و شرکتی ارائه دهد.

    اما Bystro همچنین قصد دارد نسخه‌ای مصرف‌کننده‌محور به‌قیمت ۱۰ دلار در ماه ارائه دهد که برای افرادی است که اطلاعات ژنومیک خود را از سرویس‌های تحلیل ژنوم‌های انسانی که برای پیگیری تاریخچهٔ خانوادگی افراد ارائه می‌شود، مانند Ancestry یا 23andMe، خریداری کرده‌اند.

    برخی پژوهشگران متخصص در ژنتیک و بیماری‌ها، تردید خود را نسبت به این‌که چنین خدمتی به مصرف‌کنندگان سود می‌رساند، ابراز کردند. آن‌ها استدلال می‌کنند که ژنتیک نقش نسبتاً کمی در اکثر وضعیت‌های پزشکی ایفا می‌کند، در حالی که محیط و سبک زندگی اهمیت بیشتری دارند. لیندسی فارر، استادیورژیک در دانشگاه بوستون، گفت: «پروفایل‌های ژنتیکی اکثر افراد خطر ابتلا به بیماری‌های شایع دوران بزرگسالی و سالمندی را تنها تا کسری که معمولاً به‌مرّ کمتر از ۵۰ درصد است، افزایش می‌دهند. نه ۱۰۰ درصد.»

    یک نگرانی دیگر می‌تواند حریم شخصی باشد. کوتلار می‌داند که DNA یک فرد از جملهٔ خصوصی‌ترین اطلاعات است. او می‌گوید Bystro سامانهٔ هوش مصنوعی خود را بر پایهٔ پژوهش‌های علمی آموزش می‌دهد، نه بر روی اطلاعات ژنتیکی کاربران. «ما نیازی نداریم که از داده‌های افراد یاد بگیریم»، او افزود. «مجموعهٔ داده‌ها تا زمانی که کاربر بخواهد از آن استفاده کند، باقی می‌ماند، اما ما کاری با آن انجام نمی‌دهیم.»

    کوتلار بر این باور است که افرادی که نگران سلامت خود هستند، حق دسترسی به تمام اطلاعاتی که می‌توانند به‌دست آورند را دارند.

    یک تصویر صفحه‌ای از پاسخ چت‌بات AI Bystro به درخواست ارزیابی ریسک ابتلا به بیماری کلیوی یک شخص، با استفاده از DNA یک فرد ناشناس به‌عنوان آزمایش.
    یک تصویر صفحه‌ای از پاسخ چت‌بات AI Bystro به درخواست ارزیابی ریسک ابتلا به بیماری کلیوی یک شخص، با استفاده از DNA یک فرد ناشناس به‌عنوان آزمایش. Bystro

    او در مارس ۱۹۸۶ در اوکراین به‌دنیا آمد، زمانی که این کشور هنوز جزو اتحاد جماهیر شوروی بود؛ یک ماه پس از آن انفجار راکتور هسته‌ای در چرنوبیل رخ داد. کوتلار و خانواده‌اش از منطقهٔ رادیواکتیو فرار کردند، هرچند دولت مقیاس فاجعه را مخفی نگه داشت. «ما فقط به این دلیل می‌دانستیم که باید فرار کنیم که کودکان افراد ثروتمند شوروی در حال فرار بودند»، او گفت.

    پس از سال‌ها آزارهای ضد یهودی، کوتلار و مادرش در سال ۱۹۹۱ به آمریکا مهاجرت کردند؛ او در آن زمان پنج ساله بود. در همین دوران، خانواده با مشکلات سلامتی متعددی مواجه شدند — شامل لوسمی، سرطان ریه و مری و کم‌کاری تیروئید. خود کوتلار نیز برای ترمیم کارتیل‌های شکنندهٔ شانه‌هایش به چندین عمل جراحی نیاز داشت.

    کوتلار برنامهٔ مهندسی زیست‌پزشکی را در دانشگاه بوستون آغاز کرد، اما بعداً به رشتهٔ مدیریت بازرگانıی تغییر مسیر داد؛ با این حال علاقه‌اش به پزشکی هرگز کم‌رنگ نشد. «من به‌مدت ۱۲ ساعت در روز PubMed (پایگاه دادهٔ آنلاین پزشکی) مطالعه می‌کردم تا بفهمم چه مشکلی در من وجود دارد و چگونه می‌توانم خانواده‌ام را در برابر آن محافظت کنم.»

    در دانشگاه ایموری آتلانتا، کوتلار دکترای ژنتیک را دریافت کرد و تمرکز خود را بر توسعه ابزارهایی گذاشت که به افراد کمک می‌کند تا اطلاعات مفید را از حجم عظیم داده‌های ژنتیکی استخراج کنند. ظهور سیستم‌هایی نظیر ChatGPT گزینهٔ قدرتمند جدیدی فراهم کرد — هوش مصنوعی‌ای که می‌تواند گفتار عادی انسان را درک کرده و به زبانی پاسخ دهد که افراد غیرمتخصص به‌راحتی درک کنند.

    اموری در تأمین هدیهٔ یک میلیون دلاری از یک خیرکار ناشناس برای راه‌اندازی Bystro کمک کرد. نام این شرکت ربطی به رستوران‌های صمیمی ندارد؛ این واژهٔ روسی به معنای «سریع» است.

    کاربران Bystro می‌توانند بپرسند آیا ویژگی‌های ژنتیکی خاصی دارند که ممکن است در آینده منجر به مشکلات سلامتی شوند. برای مثال، بسیاری از افراد با سابقهٔ افریقایی ژنی دارند که در برابر بیماری‌های انگلی محافظت می‌کند، اما به‌طرز قابل‌توجهی احتمال ابتلا به بیماری کلیوی را افزایش می‌دهد.

    یا کاربری می‌تواند بپرسد آیا یک مشکل پزشکی موجود ممکن است ریشهٔ ژنتیکی داشته باشد. به‌عنوان مثال، فردی که به‌طور مکرر دچار سوءهاضمه است، می‌تواند دریابد که به‌صورت ژنتیکی مستعد عدم تحمل لاکتوز است.

    اما ساموئل اسکاپینو، مدیر هوش مصنوعی و علوم زندگی در مؤسسهٔ AI تجربی در دانشگاه نورث‌ایسترن، گفت عوامل محیطی برای اکثر افراد به‌مرّ بیش از ژنتیک اهمیت دارند. «حتی اگر سیگنالی از کد ژنتیک استخراج شود، احتمالاً توسط انتخاب‌های سبک زندگی شما یا مکانی که به‌دنیا آمده‌اید، کم‌رنگ می‌شود»، اسکاپینو اظهار کرد. «همهٔ این عوامل متنوع تأثیر بسیار بزرگ‌تری خواهند داشت.»

    با این حال، نظرسنجی‌ای توسط مرکز پزشکی دانشگاه تگزاس سوت‌وِست‌رن نشان می‌دهد که ۴۰ درصد از ساکنان ایالات متحده از نوعی آزمایش ژنتیکی استفاده کرده‌اند. کوتلار بر این باور است که بسیاری از آن‌ها خوش‌حالانه برای یک چت‌بات DNA ثبت‌نام خواهند کرد.

    «با Bystro، هر کسی که ژنوم و سؤال دارد می‌تواند گفت‌و‌گویی با زیست‌شناسی خود آغاز کند»، او گفت.

  • هوش مصنوعی می‌تواند تا ۲۰۲۶، یک‌سوم از فیلم‌ها و انیمیشن‌های بلند را به‌دست گیرد، بر اساس گفته تِنست چین

    سون ژونگ‌هوای
    HIIFF

    هوش مصنوعی مولد آماده است تا عرضه محتواهای برتر تصویری را متحول کند؛ نایب رئیس غول رسانه‌های آنلاین چینی تِنست و مدیرعامل تِنست ویدیو، سون ژونگ‌هوای، پیش‌بینی می‌کند که تا یک‌سوم از فیلم‌ها و انیمیشن‌های بلند می‌تواند «توسط هوش مصنوعی تسلط پیدا کند یا به‌طور عمیق درگیر هوش مصنوعی باشد» در طول دو سال آینده، اگرچه نگرانی‌های ماندگار دربارهٔ دقت عملکرد و انسجام بصری باقی‌مانده‌اند.

    در جلسه‌ای که در 7ام جشنواره بین‌المللی فیلم جزیره هینان (HIIFF) برگزار شد، سون پیش‌بینی کرد که در سال‌های آینده تحول چشمگیری در تولید محتوای تلویزیونی و فیلم‌های برتر رخ خواهد داد.

    «از منظر زمانی، با نگاه به یک یا دو سال آینده، دلایل کافی داریم تا انتظار داشته باشیم تغییرات مشهودی در ساختار عرضه محتواهای این پلتفرم رخ دهد،» سون اظهار کرد. «در دسته‌های اصلی مانند فیلم، تلویزیون و انیمیشن، آثار تحت تسلط یا به‌طور عمیق درگیر هوش مصنوعی می‌توانند به‌احتمال ۱۰ تا ۳۰ درصد از کل سهم برسند.»

    با اشاره به محتوای کوتاه‌مدت، سون نتیجه‌گیری کرد که مسابقه‌ توسط محصولات هوش مصنوعی مولد پیشاپیش به‌دست آمده است.

    سون گفت: «محتوای کوتاه شبیه کالاهای مصرفی پرسرعت (FMCG) است که بی‌رحمانه به دنبال کارایی می‌گردد.» او افزود: «در این زمینه، درام‌های کوتاه و انیمیشن‌های کوتاهی که می‌شناسیم پیشتاز شده‌اند و هزینه‌ها را به‌طرز چشمگیری کاهش داده‌اند. ما برآورد می‌کنیم که شرکت‌های بومی هوش مصنوعی در زمینه انیمیشن‌های کوتاه هم‌اکنون تقریباً ۳۰٪ از بازار را تشکیل می‌دهند.»

    علیرغم پیش‌بینی خوش‌بینانه، عوامل متعددی همچنان به‌عنوان موانع برای هوش مصنوعی مولد در محتوای بلندمدت باقی مانده‌اند، از جمله توانایی حفظ ثبات و عدم توانایی در تکرار عملکردهای انسانی.

    سون توضیح داد: «فناوری ویدئوی هوش مصنوعی هنوز نتوانسته است مسائلی چون ثبات بصری و قابلیت کنترل را حل کند.» او افزود: «با افزایش مدت زمان صحنه‌ها، تغییرات جزئیات در شخصیت‌ها به‌وضوح آشکار می‌شود.»

    سون همچنین اشاره کرد که بازی‌های انسانی شامل میکرو‑ابرازات و میکرو‑حرکات است که نسل فعلی هوش مصنوعی قادر به بازتولید آن‌ها نیست، که این امر در ایجاد تنش و ظرافت عاطفی خلأهایی به‌وجود می‌آورد.

    او همچنین ذکر کرد که اکثر محتوای تولیدشده توسط هوش مصنوعی به‌صورت رزولوشن ۱۰۸۰p HD محدود است، که با استانداردهای ۴K یا انتشار در سالن‌های سینمایی DCI مطابقت ندارد.

    با این حال، سون تأکید کرد که این موانع موقت هستند و پیش‌بینی کرد که هوش مصنوعی به فیلمسازان امکان می‌دهد به ژانرهای بلندپروازانه‌ای بازگردند که پیشتر به‌دلیل ریسک مالی زیاد، برای استودیوها غیرقابل تأیید بودند.

    سون گفت: «ژانرهایی که پیش‌تر به‌دلیل ریسک‌های بازار نادیده گرفته می‌شدند، مانند علمی‑تخیلی بزرگ و روایت‌های عظیم «عصر کشفیات»، با کاهش هزینه‌ای که هوش مصنوعی فراهم می‌کند، احیا خواهند شد.»

    برای سازگاری با این آینده، سون فاش کرد که تِنست ویدیو به‌طور فعال ابزارهای هوش مصنوعی را در جریان کارهای سنتی خود می‌گنجاند؛ او گفت که در حال حاضر هوش مصنوعی در مراحل اولیه طراحی مفهوم، پیش‑نمایش (pre‑vis) و روت‌اسکاپینگ به‌کار گرفته می‌شود. در تولید مجازی با LED، هوش مصنوعی برای ساخت صحنه‌های دیجیتال پیچیده‌ای که به‌عنوان پس‌زمینه مورد نیاز است، استفاده می‌شود.

    سون به انتقادهایی که هوش مصنوعی سبب بیکاری در صنایع خلاق می‌شود پاسخ داد و بیان کرد که تِنست توسعه استعدادها را به‌عنوان اولویت اصلی در شرکت می‌داند.

    سون گفت: «مدل استعدادی برای تولید فیلم‌های آینده به افراد با توانایی‌های چندوجهی (پُلی‌مت) نیاز دارد؛ به زبان ساده‌تر، ما به مهندسان هنر یا هنرمندان فنی نیاز داریم و با برترین دانشگاه‌ها و مؤسسات برای پرورش این افراد همکاری می‌کنیم.»

    سون گفت: «ما واقعاً خوش‌شانسیم که می‌توانیم دورهٔ رنسانس واقعی را در صنعت فیلم تجربه کنیم. هیجان‌انگیزترین تجربه‌های انسانی هنگام عبور از حالت عدم‌اطمینان به سمت یقین رخ می‌دهد.»

  • تحقیقات هوش مصنوعی با مشکل بی‌کیفیتی مواجه است؛ محققان می‌گویند: «وضعیت هرج‌ومرج است»

    تحقیقات هوش مصنوعی زیر سؤال قرار گرفته است؛ چرا که نویسنده ادعا می‌کند بیش از ۱۰۰ مقاله درباره هوش مصنوعی نوشته است؛ که یک کارشناس آن را «فاجعه» می‌نامد.

    یک فرد ادعا می‌کند که در این سال ۱۱۳ مقاله علمی در حوزه هوش مصنوعی منتشر کرده است؛ ۸۹ مقاله از اینها امشب در یکی از برترین همایش‌های جهان در زمینه هوش مصنوعی و یادگیری ماشین ارائه می‌شود؛ که این موضوع سؤالاتی را در میان محققان علوم کامپیوتر درباره وضعیت پژوهش‌های هوش مصنوعی برانگیخته است.

    نویسنده، کوین ژو، به‌تازگی مدرک لیسانس علوم کامپیوتر خود را از دانشگاه کالیفرنیا، برکلی دریافت کرده و اکنون شرکت Algoverse را که یک شرکت تحقیق و مشاوره هوش مصنوعی برای دانش‌آموزان دبیرستانی است – بسیاری از این دانش‌آموزان هم‌نویسندگان او در مقالات می‌باشند – اداره می‌کند. ژو خود در سال ۲۰۱۸ دیپلم دبیرستان خود را به‌دست آورد.

    مقالاتی که او در دو سال گذشته منتشر کرده است، شامل موضوعاتی مانند به‌کارگیری هوش مصنوعی برای شناسایی چوپانان کوچ‌نشین در جنوب صحرای آفریقا، ارزیابی ضایعات پوستی، و ترجمه گویش‌های اندونزیایی می‌شود. در صفحهٔ لینکدین‌اش، او ادعا می‌کند که «بیش از ۱۰۰ مقاله در کنفرانس‌های برتر در سال گذشته» منتشر کرده و این مقالات «توسط OpenAI، مایکروسافت، گوگل، استنفورد، MIT، آکسفورد و دیگران» ارجاع داده شده‌اند.

    پپ‌های ژو یک «فاجعه» است، هانی فرید، استاد علوم کامپیوتر در برکلی، در مصاحبه‌ای گفت. «من تقریباً مطمئن هستم که تمام این کار، از بالا تا پایین، صرفاً کدنویسی با هوش مصنوعی است»، او افزود، که به معنای استفاده از هوش مصنوعی برای ایجاد نرم‌افزار است.

    فرید در یک پست اخیر در لینکدین به انتشار پراکندهای مقالات ژو اشاره کرد؛ این موضوع بحثی درباره موارد مشابه دیگر در میان پژوهشگران هوش مصنوعی برانگیخت، که گفته‌اند این رشته‌ای که به‌تازگی پرطرفدار شده، با سیلابی از مقالات کم‌کیفیت مواجه است؛ این مسأله ناشی از فشارهای دانشگاهی و، در برخی موارد، ابزارهای هوش مصنوعی است.

    در پاسخ به سؤال گاردین، ژو اعلام کرد که بر ۱۳۱ مقاله نظارت داشته است؛ این مقالات «پروژه‌های تیمی» هستند که توسط شرکتش Algoverse اجرا می‌شوند. این شرکت برای دانش‌آموزان دبیرستانی و دوره‌های کارشناسی مبلغ ۳,۳۲۵ دلار بابت برنامهٔ انتخابی ۱۲ هفته‌ای مشاورهٔ آنلاین دریافت می‌کند – برنامه‌ای که شامل کمک برای ارسال کارها به همایش‌ها می‌شود.

    «در حداقل، من به بررسی روش‌شناسی و طراحی آزمایشی در پیشنهادها کمک می‌کنم و پیش‌نویس‌های کامل مقاله‌ها را پیش از ارسال می‌خوانم و نظراتم را اعلام می‌کنم»، او گفت و افزود که پروژه‌های مرتبط با حوزه‌های زبان‌شناسی، بهداشت یا آموزش شامل «پژوهشگر اصلی یا مربی با تخصص مرتبط» می‌شوند.

    تیم‌ها از «ابزارهای استاندارد بهره‌وری نظیر مدیران ارجاع، بررسی‌کنندهٔ املایی، و گاهی مدل‌های زبانی برای ویرایش متن یا بهبود وضوح» استفاده کردند، او در پاسخ به این سؤال که آیا مقالات با هوش مصنوعی نوشته شده‌اند، گفت.

    ناظران ربات‌ها در آشفتگی

    استانداردهای بازبینی مقالات در حوزه هوش مصنوعی با بیشتر حوزه‌های علمی دیگر متفاوت است. بیشتر کارهای هوش مصنوعی و یادگیری ماشین تحت فرآیند دقیق بررسی همتاهای علمی مانند در شیمی یا زیست‌شناسی قرار نمی‌گیرند؛ در عوض، مقالات اغلب به‌صورت غیررسمی‌تر در همایش‌های بزرگی چون NeurIPS – یکی از معتبرترین همایش‌های جهانی یادگیری ماشین و هوش مصنوعی – که ژو قرار است در آن ارائه دهد، ارائه می‌شوند.

    موارد ژو به یک مسألهٔ بزرگ‌تر در پژوهش هوش مصنوعی اشاره می‌کند، فرید گفت. همایش‌هایی از جمله NeurIPS با افزایش قابل توجهی در تعداد مقالات دریافتی مواجه هستند: این همایش در سال جاری ۲۱٬۵۷۵ مقاله دریافت کرده است که در سال ۲۰۲۰ کمتر از ۱۰٬۰۰۰ مقاله دریافت می‌کرد. یک همایش برتر دیگر هوش مصنوعی، International Conference on Learning Representations (ICLR)، گزارش داد که تعداد مقالات سالانهٔ خود برای همایش ۲۰۲۶، ۷۰٪ افزایش یافته است و به‌حدی نزدیک به ۲۰٬۰۰۰ مقاله رسیده؛ در مقایسه با بیش از ۱۱٬۰۰۰ مقاله در همایش ۲۰۲۵.

    «نقادان از کیفیت پایین مقالات شکایت می‌کنند، حتی گمان می‌دارند که برخی به‌وسیلۀ هوش مصنوعی تولید شده‌اند. چرا این جشنوارهٔ علمی طعم خود را از دست داده؟» این سؤال توسط وبلاگ فناوری چینی ۳۶Kr در یک پست نوامبر درباره ICLR مطرح شد و به این نکته اشاره کرد که میانگین امتیازهای داده‌شده به مقالات توسط بازبین‌ها سال به سال کاهش یافته است.

    در این میان، دانشجویان و پژوهشگران تحت فشار روزافزون برای افزایش تعداد مقالات و هم‌سطحی شدن با همتایانشان قرار دارند. تولید دو رقمی (و حتی سه رقمی) مقالهٔ علمی با کیفیت بالا در زمینهٔ علوم کامپیوتری در یک سال، امری نادر است؛ محققان اظهار داشتند. فرید می‌گوید که گاهی دانش‌آموزان او برای افزایش شمار مقالات خود، مقالاتی را با کدنویسی هوش مصنوعی تهیه می‌کنند.

    «بسیاری از جوانان می‌خواهند وارد هوش مصنوعی شوند. در حال حاضر یک هوس بزرگ وجود دارد»، فرید گفت.

    NeurIPS مقالات ارسالی را بازبینی می‌کند، اما فرایند آن بسیار سریع‌تر و کمتر دقیق نسبت به ارزیابی همتاهای علمی استاندارد است، جفری والینگ، استادیار دانشگاه ویرجینیای تک، گفت. در سال جاری، این همایش از تعداد زیادی دانشجوی دکترا برای ارزیابی مقالات بهره گرفته است؛ که یک رئیس بخش NeurIPS اعلام کرد این أمر فرایند را به‌خطر انداخته است.

    «واقعیت این است که بسیاری از ارزیابان همایش‌ها مجبورند در مدت زمان کوتاهی ده‌ها مقاله را بررسی کنند و معمولاً امکان اصلاح یا بازنگری وجود ندارد»، والینگ گفت.

    والینگ با فرید موافقت کرد که در حال حاضر تعداد زیادی مقاله منتشر می‌شود و گفت که با نویسندگانی که بیش از ۱۰۰ مقاله در یک سال منتشر کرده‌اند، مواجه شده است. «در دنیای آکادمیک، بیشتر برای حجم انتشار مقالات پاداش می‌دهند نه برای کیفیت… همه به افسانهٔ بهره‌وری فوق‌العاده علاقه‌مندند»، او افزود.

    در صفحهٔ پرسش‌های متداول (FAQ) Algoverse متعلق به ژو، توضیح داده می‌شود که چگونه برنامهٔ این شرکت می‌تواند افق‌های تحصیلی یا شغلی درخواست‌کنندگان را ارتقا بخشد. او می‌گوید: «مهارت‌ها، دستاوردها و انتشاراتی که اینجا به‌دست می‌آورید، در جامعهٔ علمی بسیار مورد احترام است و می‌تواند به‌طرز چشمگیری پروندهٔ پذیرش دانشگاه یا رزومهٔ شما را تقویت کند. این امر به‌ویژه در صورتی صادق است که پژوهش شما در یک همایش برتر پذیرفته شود – دستاوردی معتبر حتی برای پژوهشگران حرفه‌ای.»

    فرید می‌گوید که اکنون به دانش‌آموزان توصیه می‌کند از ورود به پژوهش‌های هوش مصنوعی خودداری کنند، زیرا «هوس» موجود در این حوزه و حجم بالای کارهای کم‌کیفیت که افراد برای بهبود چشم‌انداز شغلی خود منتشر می‌کنند، در حال گسترش است.

    سیل بی‌کیفیتی

    کارهای برجسته‌ای همچنان از این روند به‌دست آمده است. به‌عنوان مثال، مقالهٔ گوگل دربارهٔ ترانسفورمرها با عنوان «Attention Is All You Need» — که پایهٔ نظری پیشرفت‌های هوش مصنوعی منجر به ChatGPT است — در سال ۲۰۱۷ در NeurIPS ارائه شد.

    سازمان‌دهندگان NeurIPS تصدیق کردند که این همایش تحت فشار است. در اظهار نظری به گاردین، یک سخنگوی این همایش گفت که رشد هوش مصنوعی به‌عنوان حوزه‌ای، «افزایش قابل‌توجهی در تعداد مقالات ارسالی و ارزش افزوده در پذیرش‌های بازبینی همتا در NeurIPS» را به همراه داشته است؛ که «بار سنگینی بر سیستم ارزیابی ما وارد کرده است».

    مقالات ارسالی ژو عمدتاً در کارگاه‌های NeurIPS بوده‌اند، که فرآیند انتخاب متفاوتی نسبت به همایش اصلی دارند و معمولاً محلی برای ارائهٔ کارهای تازه‌کارانه هستند، به‌نظر برگزار‌کنندگان NeurIPS. فرید افزود که این توجیهی قانع‌کننده برای اینکه یک نفر نام خود را بر بیش از ۱۰۰ مقاله بگذارد، به‌نظر نمی‌رسد.

    «این توجیه برای افزودن نام خود بر ۱۰۰ مقاله که به‌طور معنا‌داری نمی‌توانستید در آن‌ها مشارکت کنید، برایم قانع‌کننده نیست»، فرید گفت.

    این مشکل بزرگ‌تر از سیل مقالات در NeurIPS است. ICLR برای بررسی حجم زیادی از ارسال‌ها از هوش مصنوعی بهره برد؛ که به‌نظر می‌رسید منجر به ارجاعاتی «تخیلی» و بازخوردی «بسیار پرحرف با تعداد زیادی نکته‌نامه» شده است، طبق مقاله‌ای اخیر در Nature.

    احساس کاهش کیفیت به حدی گسترده شد که یافتن راه‌حل برای این بحران خود به‌عنوان موضوعی برای مقالات بدل گشت. مقالهٔ موضعی‌ای که در ماه می ۲۰۲۵ منتشر شد — نسخهٔ علمی و مبتنی بر شواهدی از یک مقالهٔ سرخط روزنامه — توسط سه دانشمند کامپیوتر کرهٔ جنوبی تألیف شد که راه‌حلی برای «چالش‌های بی‌سابقهٔ رشدی که در ارسال مقالات رخ داده، به‌همراه نگرانی‌های فزاینده درباره کیفیت ارزیابی و مسئولیت داوران» ارائه داد؛ این مقاله جوایز کار برتر را در همایش بین‌المللی یادگیری ماشین ۲۰۲۵ به خود اختصاص داد.

    در همین حال، به گفته فرید، شرکت‌های بزرگ فناوری و سازمان‌های کوچک ایمنی هوش مصنوعی کارهای خود را در arXiv بارگذاری می‌کنند؛ سایتی که پیش‌تر فقط برای پیش‌چاپ‌های با بازدید کم در حوزهٔ ریاضیات و فیزیک استفاده می‌شد، و این امر اینترنت را با کارهایی که به‌عنوان علم ارائه می‌شوند پر کرده است — اما تحت استانداردهای بازبینی قرار ندارند.

    هزینهٔ این وضعیت، به گفته فرید، این است که برای خبرنگاران، عموم مردم و حتی کارشناسان این حوزه تقریباً غیرممکن است بفهمند در هوش مصنوعی چه اتفاقی می‌افتد. «به‌عنوان خوانندهٔ متوسط، شما شانس ندارید که بفهمید چه‌ می‌گذرد در ادبیات علمی. نسبت سیگنال به نویز شما تقریباً یک است. من به سختی می‌توانم به این همایش‌ها بروم و بفهمم چه جهنمی در جریان است.»

    «چیزی که به دانشجویان می‌گویم این است که اگر هدف شما انتشار مقالات است، صادقانه بگویم کار خیلی سختی نیست. فقط کارهای بسیار ضعیف و کم‌کیفیت انجام دهید و آنها را به‌صورت انبوه به کنفرانس‌ها بفرستید. اما اگر می‌خواهید کارهای دقیق و اندیشمندانه انجام دهید، در یک موقعیت نامساعد هستید، زیرا عملاً به‌تنهایی سلاح ندارید»، او افزود.

  • محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    محدودیت‌های استفاده از هوش مصنوعی در بخش‌های مختلف: نگرانی جدید

    بسیاری از شرکت‌ها به‌طور فزاینده‌ای دسترسی به ChatGPT و ابزارهای مشابه هوش مصنوعی را مسدود می‌کنند، عمدتاً به دلیل نگرانی از نشت احتمالی داده‌ها.

    سازمان‌ها نگران‌اند که مدل‌های هوش مصنوعی حاوی اطلاعات محرمانه‌ای باشند، که می‌تواند منجر به آسیب‌پذیری‌های امنیتی شود وقتی کاربران در سراسر جهان با درخواست‌های خود سعی می‌کنند از این مدل‌ها استخراج کنند.

    در نتیجه، شرکت‌ها سیاست‌های دیجیتالی سختگیرانه‌تری را اعمال کرده و دسترسی به پلتفرم‌های خارجی هوش مصنوعی را محدود می‌سازند، حتی اگر این ابزارها می‌توانند بهره‌وری و نوآوری را ارتقا دهند.

    دانشگاه‌ها و مؤسسات آموزشی نیز کنترل‌ها را سخت‌تر می‌کنند و از سامانه‌های تشخیص برای شناسایی محتواهای تولید شده توسط هوش مصنوعی در تکالیف استفاده می‌نمایند.

    آموزگاران بر این باورند که استفادهٔ نامحدود از هوش مصنوعی می‌تواند رشد تفکر انتقادی، خلاقیت و مهارت‌های بنیادی را مختل کند.

    این موضع باعث بروز بحث‌هایی شده است که آیا چنین محدودیت‌هایی به‌واقع محافظت از فرآیند یادگیری را تضمین می‌کند یا صرفاً مانع از ارتقای سواد فناورانهٔ دانش‌آموزان می‌شود؛ سواد فناورانه‌ای که آیندهٔ آنان را شکل خواهد داد.

    به‌طور کلی، محدودیت‌های افزایشی اعمال‌شده بر هوش مصنوعی سؤالات مهمی را دربارهٔ پیامدهای طولانی‌مدت برای خود مدل‌های هوش مصنوعی و رابطهٔ جامعه با هوش مصنوعی نوظهور برانگیخته می‌کند.

    محدود کردن استفاده می‌تواند آشنایی عمومی با هوش مصنوعی را کندتر کند و تنوع به‌کارگیری آن را کاهش دهد.

    در مسیر پیشرفت، یافتن تعادل میان امنیت، اخلاق و نوآوری برای اطمینان از این‌که هوش مصنوعی به‌گونه‌ای تکامل یابد که هم امنیت سازمانی و هم رشد شناختی انسان را پشتیبانی کند، امری اساسی خواهد بود.