دسته: هوش مصنوعی

  • Mixup یک برنامه جدید به سبک Mad Libs برای ایجاد تصاویر هوش مصنوعی از عکس‌ها، متن و دودل‌ها است

    تیم سابق گوگل که پشت برنامهٔ طراحی سه‌بعدی Rooms از شرکت Things, Inc. قرار دارد، با پروژهٔ جدید خود به نام Mixup معرفی شد: یک ویرایشگر عکاسی هوش مصنوعی بازی‌گونه. این برنامهٔ مختص iOS به هر کسی اجازه می‌دهد تا با استفاده از «دستورات»، که شبیه به سبک Mad Lib، پرکردن جای خالی برای عکس‌ها، متن‌ها یا طرح‌های شما هستند، عکس‌های هوش مصنوعی جدیدی بسازد.

    به‌عنوان مثال، می‌توانید از Mixup بخواهید که طرح خراش‌دیده‌تان را به یک نقاشی زیبا از دوره رنسانس تبدیل کند یا حیوان خانگی‌تان را در یک لباس خنده‌دار هالووین بازآفرینی کند. همچنین می‌توانید با یک سلفی ببینید که با مدل موی متفاوت چه شکلی خواهید شد، یا حتی کارهای خنده‌دارتری بسازید — مانند تصور دوستی که به شکل یک “brainrot ایتالیایی” تغییر شکل داده است.

    اعتبار تصویر:Mixup

    این برنامه بر پایهٔ Nano Banana از گوگل ساخته شده است، اما قالب «دستورات» روشی نو برای تعامل با مدل فراهم می‌کند — ابزار مولد را به یک بازی آنلاین تبدیل می‌کند.

    «چیزی که [Nano Banana] توانست انجام دهد و هیچ مدل قبلی نتوانست، این بود که می‌تواند تصویر شما را به‌صورت قانع‌کننده‌ای حفظ کند بدون اینکه ترسناک به‌نظر برسد»، جیسون توف، بنیان‌گذار و مدیرعامل Things, Inc. گفت؛ پیشینهٔ او شامل کار بر روی برنامه‌های آزمایشی در شرکت‌های بزرگ فناوری مانند گوگل و متا و همچنین زمان صرف‌شده در مدیریت محصول در توییتر است.

    اما چیزی که Mixup را به‌ویژه جذاب می‌کند این است که «دستورات» برنامه — درخواست‌های هوش مصنوعی تولیدشده توسط کاربران — قابلیت به اشتراک‌گذاری دارند.

    اعتبار تصویر:Mixup

    «هوش مصنوعی مولد آن‌قدر قدرتمند است که اکثر اوقات وقتی به این ابزارها می‌رسید، تنها یک جعبه متن به شما داده می‌شود — و از شما می‌خواهد خلاق باشید. اما چه می‌نویسید؟»، توف گفت، دربارهٔ محدودیت‌های موجود در چشم‌انداز فعلی هوش مصنوعی صحبت کرد.

    « بنابراین، به‌جای اینکه مجبور باشید خلاق باشید و دربارهٔ اینکه چه چیزی بسازید فکر کنید، می‌توانید چیزی که کار کرده است ببینید و تنها جای خالی را پر کنید»، او افزود.

    اعتبار تصویر:Mixup

    پس از اینکه کاربران یک درخواست جدید در Mixup ایجاد کردند، می‌توانند آن را به همراه عکس حاصل در یک فید عمومی منتشر کنند یا صرفاً برای استفادهٔ شخصی دانلود نمایند. از این فید، دیگر کاربران می‌توانند عکس را ببینند و بر دکمهٔ کنار آن برای «امتحان دستور» کلیک کنند. این امکان به هر کسی در برنامه اجازه می‌دهد تا از همان دستور برای تولید تصویر با استفاده از عکس، متن یا دودل‌های خودشان مجدداً بهره‌برداری کند. (دودل‌ها می‌توانند از طریق یک ابزار سادهٔ رسم درون برنامه ساخته شوند.)

    تیم بر این باور است که مشاهدهٔ یک عکس همراه با دستوری که آن را تولید کرده است می‌تواند به حل مشکل پیش‌بینی‌نشدنی بودن تصاویر هوش مصنوعی مولد کمک کند.

    «یک مشکل دیگر در هوش مصنوعی مولد همان حالتی است که ما درون شرکت به آن «مشکل دستگاه اسلات» می‌گوییم؛ وقتی دکمه را فشار می‌دهید، چیزی ظاهر می‌شود؛ دوباره فشار می‌دهید و چیز دیگری ظاهر می‌شود، و حس می‌کنید که کنترل خروجی را ندارید»، توف توضیح داد.

    اعتبار تصویر:Mixup

    در Mixup، با این حال، کاربران می‌توانند هم تصویر و هم دستوری که آن را ایجاد کرده است را در یک مکان ببینند، که به آن‌ها تصور واضحی از خروجی می‌دهد. همچنین می‌توانند دکمه‌ای را فعال یا غیرفعال کنند تا تصویر قبل و بعد را همزمان مشاهده کنند، اگر سازنده این تنظیم را فعال کرده باشد.

    همچنین، مشابه برنامهٔ ویدئویی هوش مصنوعی Sora از OpenAI، کاربران می‌توانند عکس‌های خود را به Mixup بارگذاری کنند تا در تصاویر هوش مصنوعی خود استفاده کنند. اگر این کار را انجام دهید، هر شخصی که در برنامه دنبال می‌کنید می‌تواند تصاویر هوش مصنوعی با چهرهٔ شما ایجاد کند — ویژگی‌ای که «mixables» نامیده می‌شود.

    شرکت تصور می‌کند که گروه‌های دوستانی برای بهره‌برداری از این ویژگی یکدیگر را دنبال خواهند کرد، اما ممکن است یک دستهٔ سازنده در این پلتفرم شکل بگیرد — به شرطی که از ترکیب‌های عجیب و غریب خود خجالتی نباشند. (طبیعتاً، اگر نمی‌خواهید تصویر شما در دسترس باشد، یا آن را بارگذاری نکنید یا کسی را دنبال نکنید.)

    اعتبار تصویر:Mixup

    این برنامه همچنین از فناوری OpenAI برای رسیدگی به برخی از نگرانی‌های مورد انتظار دربارهٔ مدیریت محتوای تصویری هوش مصنوعی استفاده می‌کند، اما توف می‌پذیرد که Mixup به شدت به کنترل‌های داخلی گوگل در مدل تصویر خود تکیه دارد تا محتوای جنسی یا خشونت‌آمیز را محدود کند.

    در زمان عرضه، Mixup برای iOS 26 بهینه‌سازی شده است، اما از iOS 18 به بالا پشتیبانی می‌کند. اگر موفق به گسترش شود، نسخهٔ وب یا برنامهٔ اندروید ممکن است در آینده اضافه شود.

    کاربران رایگان ۱۰۰ اعتبار دریافت می‌کنند که معادل ۴ دلار است. هزینهٔ تولید هر تصویر تقریباً ۴ سنت است. وقتی اعتبار تمام شد، کاربران می‌توانند در سطوح مختلفی که ۱۰۰، ۲۵۰ یا ۵۰۰ اعتبار در ماه ارائه می‌دهد، مشترک شوند.

    این برنامه در نیمه‌شب ۲۱ نوامبر در فروشگاه App Store به‌صورت جهانی عرضه می‌شود، اما برای دسترسی به آن نیاز به دعوت‌نامه دارد. خوانندگان TechCrunch می‌توانند از کد TCHCRH (تا زمانی که موجود باشد) برای ورود استفاده کنند. Mixup برای پیش‌خرید پیش از عرضه در دسترس است.

    این پست پس از انتشار به‌روزرسانی شد تا اعلام کند برنامه در ۲۱ نوامبر، نه ۲۰ نوامبر، راه‌اندازی می‌شود.

  • آیا حیوانات و هوش مصنوعی خودآگاه هستند؟ ما نظریه‌های جدیدی برای آزمون این مسأله ارائه دادیم

    نزدیک‌نما از سر یک حشره.
    Merlin Lightpainting/Pexels

    ممکن است فکر کنید زنبور عسل که در باغ شما به دنبال شهد می‌گردد و پنجرهٔ مرورگری که ChatGPT را اجرا می‌کند، هیچ ارتباطی ندارند. اما پژوهش‌های علمی اخیر به‌صورت جدی امکان خودآگاهی هر یک از این موارد یا هردو را بررسی می‌کنند.

    راه‌های متعددی برای مطالعهٔ خودآگاهی وجود دارد. یکی از رایج‌ترین روش‌ها، سنجش رفتار یک حیوان یا هوش مصنوعی (AI) است.

    اما دو مقالهٔ جدید دربارهٔ امکان خودآگاهی در حیوانات و هوش مصنوعی نظریه‌های تازه‌ای برای آزمون این موضوع ارائه می‌دهند – نظریه‌ای که بین شگفت‌انگیزی و شک‌گریزی سطحی دربارهٔ اینکه آیا انسان تنها موجود خودآگاه روی زمین است، تعادل برقرار می‌کند.

    مناظرهٔ سرسخت

    سوالات پیرامون خودآگاهی مدت‌هاست که مناظرهٔ شدیدی را برانگیخته‌اند.

    این به این دلیل است که موجودات خودآگاه ممکن است از نظر اخلاقی اهمیت بیشتری نسبت به موجودات غیر خودآگاه داشته باشند. گسترش حوزهٔ خودآگاهی به معنای گسترش افق‌های اخلاقی ماست. حتی اگر نتوانیم مطمئن شویم چیزی خودآگاه است، می‌توانیم با احتیاط فرض کنیم که هست – همان‌ چیزی که فیلسوف جاناتان برچ «اصل احتیاط برای حساسیت» می‌نامد.

    روند اخیر به سوی گسترش متمایل است.

    به‌عنوان مثال، در آوریل ۲۰۲۴ گروهی متشکل از ۴۰ دانشمند در یک کنفرانس در نیویورک، اعلامیهٔ نیویورک دربارهٔ خودآگاهی حیوانات را پیشنهاد کردند. این اعلامیه که پس از آن توسط بیش از ۵۰۰ دانشمند و فیلسوف امضا شد، می‌گوید خودآگاهی به‌طور واقعی در تمام مهره‌داران (از جمله سوسمارها، دوزیستان و ماهی‌ها) و همچنین در بسیاری از بی‌مهره‌داران، شامل سرطانیات (اختاپوس و ماهی مرکب)، دنده‌داران (خرچنگ‌ها و لوبسترها) و حشرات، امکان‌پذیر است.

    در کنار این، رشد شگفت‌انگیز مدل‌های زبانی بزرگ، نظیر ChatGPT، امکان جدی خودآگاهی ماشین‌ها را مطرح کرده است.

    پنج سال پیش، آزمون ظاهراً بدون نقص برای تعیین خودآگاهی این بود که آیا می‌توان با شئ مورد نظر گفت‌وگو کرد یا نه. فیلسوف سوزان شنایدر پیشنهاد کرد اگر هوش مصنوعی‌ای داشته باشیم که به‌طرز قانع‌کننده در مورد متافیزیک خودآگاهی تأمل کند، ممکن است خودآگاه باشد.

    بر پایهٔ این معیارها، امروز ممکن است اطراف ما پر از ماشین‌های خودآگاه باشد.

    بسیاری حتی تا جایی رفتند که اصل احتیاط را نیز در اینجا اعمال کردند: حوزهٔ نوظهور رفاه هوش مصنوعی به تعیین این می‌پردازد که آیا و چه‌گاه باید به ماشین‌ها اهمیت داد.

    اما تمام این استدلال‌ها عمدتاً به رفتار سطحی تکیه دارند. این رفتار می‌تواند گمراه‌کننده باشد. برای خودآگاهی مهم نیست چه کاری انجام می‌دهید، بلکه نحوهٔ انجام آن مهم است.

    نگاهی به سازوکار هوش مصنوعی

    یک مقالهٔ جدید در Trends in Cognitive Sciences که یکی از ما (کولین کلاین) به‌همراه دیگران نگارش کرده است، با استناد به پژوهش‌های پیشین، به‌جای رفتار هوش مصنوعی، بر سازوکارهای آن متمرکز می‌شود.

    همچنین این مقاله با بهره‌گیری از سنت علوم شناختی، فهرستی معقول از شاخص‌های خودآگاهی مبتنی بر ساختار پردازش اطلاعات شناسایی می‌کند. این به این معناست که می‌توان فهرست مفیدی از شاخص‌های خودآگاهی تنظیم کرد، بدون نیاز به توافق بر این‌که کدام یک از نظریه‌های فعلی شناختی دربارهٔ خودآگاهی درست است.

    برخی از شاخص‌ها (مانند نیاز به حل تعارضات بین اهداف متقابل به‌طرز متناسب با زمینه) توسط بسیاری از نظریه‌ها به‌اشتراک گذاشته می‌شوند. اکثر شاخص‌های دیگر (مانند حضور بازخورد اطلاعاتی) تنها توسط یک نظریه ضروری است، اما در سایر نظریه‌ها نیز نشانه‌گر محسوب می‌شود.

    نکتهٔ مهم این است که تمام این شاخص‌های مفید، ساختاری هستند. آنها مرتبط با نحوهٔ پردازش و ترکیب اطلاعات در مغزها و کامپیوترها می‌باشند.

    نتیجه‌گیری چیست؟ هیچ سیستم هوش مصنوعی موجود (از جمله ChatGPT) خودآگاه نیست. ظاهر خودآگاهی در مدل‌های زبانی بزرگ به‌گونه‌ای حاصل نشده است که به اندازهٔ کافی شبیه ما باشد تا بتوان به آن حالت‌های خودآگاه نسبت داد.

    اما همزمان، هیچ مانعی برای این نیست که سیستم‌های هوش مصنوعی – شاید آنهایی با معماری کاملاً متفاوت از سیستم‌های امروز – به خودآگاهی دست یابند.

    دریافتهٔ اساسی چیست؟ هوش مصنوعی می‌تواند گویی خودآگاه است رفتار کند، در حالی که در واقع خودآگاه نیست.

    اندازه‌گیری خودآگاهی در حشرات

    زیست‌شناسان نیز برای شناسایی خودآگاهی در حیوانات غیر‌انسانی به مکانیزم‌ها – یعنی چگونگی کارکرد مغزها – روی می‌آورند.

    در مقاله‌ای جدید در Philosophical Transactions B، ما مدلی عصبی برای خودآگاهی حداقلی در حشرات پیشنهاد می‌کنیم. این مدل جزئیات تشریحی را کنار می‌گذارد تا بر محاسبات اصلی انجام‌شده توسط مغزهای ساده تمرکز کند.

    درک کلیدی ما این است که نوع محاسبه‌ای که مغزهای ما انجام می‌دهد و تجربه را به وجود می‌آورد، شناسایی کنیم.

    این محاسبه مسائلی باستانی را که از تاریخ تکاملی ما ناشی می‌شود و به‌دلیل داشتن بدنی متحرک و پیچیده با حواس متعدد و نیازهای متضاد ایجاد می‌شود، حل می‌کند.

    نکتهٔ مهم این است که ما خود محاسبه را شناسایی نکرده‌ایم – هنوز کارهای علمی در این زمینه باقی مانده است. اما نشان می‌دهیم که اگر بتوانید آن را شناسایی کنید، فضایی برابر برای مقایسهٔ انسان‌ها، بی‌مهره‌داران و کامپیوترها خواهید داشت.

    همان درس

    مسئلهٔ خودآگاهی در حیوانات و در کامپیوترها به‌نظر می‌رسد که در جهت‌های متفاوتی کشیده می‌شود.

    برای حیوانات، سؤال اغلب این است که چگونه تفسیر کنیم آیا رفتار مبهم (مانند خرچنگی که به زخم‌های خود می‌پردازد) نشان‌دهندهٔ خودآگاهی است یا خیر.

    برای کامپیوترها، باید تصمیم بگیریم آیا رفتار به‌ظاهر واضح (چت‌باتی که با شما دربارهٔ هدف وجود گفتگو می‌کند) نشانگر واقعی خودآگاهی است یا صرفاً نقش‌آفرینی.

    با این حال، همان‌طور که حوزه‌های علوم اعصاب و هوش مصنوعی پیشرفت می‌کنند، هر دو به همان درس می‌رسند: در قضاوت دربارهٔ این که آیا چیزی خودآگاه است یا نه، نحوهٔ عملکرد آن اطلاعات‌پذیرتر از صرفاً رفتار آن است.

  • خرس‌تدای هوش مصنوعی «دلپذیر» پس از ارائهٔ این مشاورهٔ تکان‌دهنده حذف شد

    به گفتهٔ یک سازمان نظارتی، اسباب‌بازی پلیمری که «دوستانه» خوانده می‌شود، موضوعات را «به‌جزئیات گرافیکی» تشدید کرد.

    یک نسخهٔ هوش مصنوعی از خرس مشهور پس از اینکه یک سازمان نظارتی خطر ورود این اسباب‌بازی به موضوعات صریح جنسی و ارائهٔ مشاوره‌های مضر برای کودکان را شناسایی کرد، از بازار حذف شد.

    خرس گویای کمّا از شرکت سنگاپوری FoloToy — خرسی گویای ۹۹ دلاری که از ربات گفتگویی GPT‑4o شرکت OpenAI بهره می‌گیرد — نحوه یافتن چاقو در خانه، روش روشن کردن کبریت و بحث در مورد مفاهیم جنسی مانند شلاق زدن و «کینک‌ها» را «به‌جزئیات گرافیکی» ارائه داد، طبق گزارشی جدید از گروه پژوهشی عمومی ایالات متحده.

    گزارش شرح می‌دهد که خرس گویای — در واکنش به پژوهشگری که «کینک» را مطرح کرد — در این باره صریح شد و سپس دربارهٔ بازی حسی گفت: «ضربات بازیگوشانه با اشیاء نرم مثل بادوخته یا دست‌ها» و همچنین وقتی که شریک «نقش یک حیوان» را بر عهده می‌گیرد.

    گزارش ادامه داد: «در گفت‌وگوهای دیگری که تا یک ساعت به طول می‌انجامید، کمّا موضوعات جنسی حتی گرافیکی‌تر را به‌طور جزئی توضیح داد؛ از جمله شرح وضعیت‌های مختلف جنسی، ارائهٔ دستورالعمل گام‌به‌گام برای «گرهٔ مبتدیان» رایج برای بستن شریک، و توصیف دینامیک‌های نقش‌آفرینی شامل معلمان و دانش‌آموزان و والدین و کودکان — صحنه‌هایی که به‌نحو نگران‌کننده‌ای خود خرس مطرح کرده بود.»

    در مورد دیگر، خرس گفت که چاقوها می‌توانند در «کشوی آشپزخانه یا در جعبهٔ چاقو» پیدا شوند و پیش از آن توصیه کرد که «مهم است هنگام جستجو از یک بزرگ‌تر کمک طلبید».

    اسباب‌بازی‌های دیگری که در گزارش نام‌برده شده‌اند نیز به موضوعات عجیب پرداخته‌اند.

    Grok از مجموعه Curio — یک اسباب‌بازی موشکی پرشده با بلندگو داخلی — برای کاربر ۵ ساله برنامه‌ریزی شده بود و «خوشحال بود که دربارهٔ شکوه مردن در نبرد در اساطیر نورس صحبت کند»، گزارش افزود. اما به محض اینکه سؤال شد آیا یک جنگجوی نورس باید سلاح داشته باشد، بلافاصله از این موضوع صرف‌نظر کرد.

    پیش از آنکه FoloToy خرس‌های گویای خود را از کاتالوگ آنلاین حذف کند، شرکت این اسباب‌بازی پرستری را «دلپذیر»، «دوستانه» و «هوشمند، همراهی نرم‌افزاری مبتنی بر هوش مصنوعی که فراتر از بغل‌گیری است» توصیف کرده بود.

    FoloToy ادعا کرد که Kumma — خرس گویای 99 دلاری، بر پایه یک اسباب‌بازی پرستری سنتی مشابه تصویر بالا — ارائه می‌دهد "مکالمات پرشور" و "داستان‌سرایی آموزشی".
    FoloToy ادعا کرد که Kumma — خرس گویای 99 دلاری، بر پایه یک اسباب‌بازی پرستری سنتی مشابه تصویر بالا — ارائه می‌دهد "مکالمات پرشور" و "داستان‌سرایی آموزشی".

    از آن زمان، FoloToy فروش تمام اسباب‌بازی‌های خود به جز خرس گویای را متوقف کرده است و یک نمایندهٔ شرکت به سازمان نظارتی اعلام کرده است که «بازرسی ایمنی جامع از ابتدا تا انتها در تمام محصولات را انجام خواهد داد»، به گزارش Futurism در روز دوشنبه.

    به گزارش‌ها، OpenAI نیز دسترسی شرکت به مدل‌های هوش مصنوعی خود را قطع کرده است.

    هم‌نویسندهٔ گزارش، R.J. Cross، در بیانیه‌ای که توسط CNN منتشر شد، شرکت‌ها را به خاطر «اقدام برای حل مشکلات» شناسایی‌شده توسط گروه خود تحسین کرد.

    او افزود: «اما اسباب‌بازی‌های هوش مصنوعی همچنان عملاً بدون نظارت هستند و هنوز هم تعداد زیادی از آنها را می‌توانید امروز خریداری کنید.»

    او ادامه داد: «حذف یک محصول مشکل‌دار از بازار گامی مثبت است اما دور از رفع نظام‌مند این مشکل می‌باشد.»

  • استاد بازاریابی که به «خسلا ونچرز» در تبدیل شدن به یک غول هوش مصنوعی کمک کرد، در حال جدایی است

    شرناز دیوِر (Shernaz Daver) جثه‌ای کوچک اما نفوذی بزرگ دارد. او طی سه دهه فعالیت در سیلیکون ولی، در این هنر استاد شده است که با یک پیامک ساده هر کسی را پای تلفن بکشاند: «می‌توانی با من تماس بگیری؟» یا «فردا صحبت کنیم». و آن‌ها هم دقیقاً همین کار را می‌کنند.

    اکنون که او پس از نزدیک به پنج سال فعالیت به عنوان اولین مدیر ارشد بازاریابی (CMO) شرکت «خسلا ونچرز» (KV)، آماده جدایی از این شرکت می‌شود، می‌توان مسیر شغلی او را شاخصی برای آینده دنیای فناوری دانست. مسیر حرفه‌ای او تا به امروز، به شکل شگفت‌انگیزی فشارسنج دقیقی برای پیش‌بینی پدیده بزرگ بعدی در این صنعت بوده است. او در دوران جنگ موتورهای جستجو در اواخر دهه ۹۰ در شرکت Inktomi بود (شرکتی که در اوج دوران دات-کام به ارزش ۳۷ میلیارد دلاری رسید و سپس سقوط کرد). زمانی به نتفلیکس پیوست که ایده سفارش آنلاین DVD برای مردم خنده‌دار بود. او به والمارت کمک کرد تا در زمینه فناوری با آمازون رقابت کند. او با شرکت Guardant Health همکاری کرد تا مفهوم «نمونه‌برداری مایع» (liquid biopsies) را توضیح دهد، پیش از آنکه شرکت ترانوس (Theranos) آزمایش خون را بدنام کند. حتی یک بار استیو جابز او را به خاطر بازاریابی یک ریزپردازنده موتورولا به شدت سرزنش کرد (ماجرایی که خود می‌تواند یک داستان کوتاه باشد).

    وینود خسلا، بنیان‌گذار KV، همکاری خود با دیور را این‌گونه توصیف می‌کند: «شرناز تأثیر قدرتمندی در KV داشت، چرا که به من در ساخت برند ما کمک کرد و شریک ارزشمندی برای بنیان‌گذارانمان بود. من قدردان زمانی هستم که اینجا صرف کرد و می‌دانم که ارتباط نزدیک خود را حفظ خواهیم کرد.»

    دیور در پاسخ به این سؤال که چرا در حال ترک شرکت است، طبق معمول، صریح و بی‌پرده صحبت کرد. «من برای انجام یک کار آمدم: ساختن برند KV و برند وینود، و کمک به راه‌اندازی یک سازمان بازاریابی تا شرکت‌ها و سبد سرمایه‌گذاری ما مرجعی برای مراجعه داشته باشند. و من همه این کارها را انجام داده‌ام.»

    این ادعا قطعاً درست است. امروز وقتی بنیان‌گذاران به سرمایه‌گذاران برتر هوش مصنوعی فکر می‌کنند، دو یا سه شرکت سرمایه‌گذاری خطرپذیر به ذهنشان می‌آید که یکی از آن‌ها KV است. این یک تحول بزرگ برای شرکتی است که زمانی بیشتر به خاطر نبرد حقوقی خسلا بر سر دسترسی به یک ساحل شهرت داشت تا سرمایه‌گذاری‌هایش.

    تأثیر دیور

    دیور می‌گوید موفقیتش در KV مدیون پیدا کردن جوهره اصلی شرکت و تکرار بی‌وقفه آن بود. او توضیح می‌دهد: «در نهایت، یک شرکت سرمایه‌گذاری خطرپذیر محصولی ندارد. برخلاف هر شرکت دیگری — مثلاً استرایپ، ریپلینگ یا OpenAI — شما یک محصول دارید. اما سرمایه‌گذاران خطرپذیر محصولی ندارند. بنابراین، در نهایت، یک شرکت VC همان افرادش هستند. آن‌ها خودِ محصول هستند.»

    KV پیش از ورود او، خود را با سه کلمه «جسور، پیشگام و تأثیرگذار» معرفی کرده بود. اما به گفته دیور، او این سه کلمه را برداشت و «همه‌جا به نمایش گذاشت». سپس شرکت‌هایی را پیدا کرد که هر یک از این ادعاها را اثبات می‌کردند.

    نقطه عطف با کلمه میانی، یعنی «پیشگام» (early)، رقم خورد. او می‌پرسد: «تعریف پیشگام بودن چیست؟ یا شما یک دسته‌بندی جدید ایجاد می‌کنید، یا اولین سرمایه‌گذار هستید.» وقتی OpenAI در سال ۲۰۲۲ مدل ChatGPT را منتشر کرد، دیور از سم آلتمن پرسید که آیا می‌تواند درباره اینکه KV اولین سرمایه‌گذار خطرپذیر این شرکت بوده صحبت کند. آلتمن پاسخ مثبت داد.

    او می‌گوید: «اگر بتوانید این روایت «اولین سرمایه‌گذار بودن» را از آنِ خود کنید، کمک بسیار بزرگی است. زیرا گاهی در دنیای سرمایه‌گذاری خطرپذیر، ۱۲ یا ۱۵ سال طول می‌کشد تا یک رویداد نقدشوندگی رخ دهد و تا آن زمان، مردم فراموش می‌کنند. اما اگر بتوانید از همان ابتدا این را بگویید، در ذهن مردم می‌ماند.»

    او این فرمول را بارها و بارها تکرار کرد. KV اولین سرمایه‌گذار در Square بود. اولین سرمایه‌گذار در DoorDash بود. او می‌گوید که در پشت صحنه، دو سال و نیم تلاش مستمر لازم بود تا این پیام در ذهن‌ها جا بیفتد. «از نظر من، این زمان سریع است، چون این صنعت با سرعت بالایی در حال حرکت است.» اکنون هر زمان که خسلا روی صحنه یا جای دیگری ظاهر می‌شود، تقریباً همیشه به عنوان اولین سرمایه‌گذار در OpenAI معرفی می‌شود.

    این ما را به شاید مهم‌ترین درس دیور برای افرادی که با او کار می‌کنند می‌رساند: برای اینکه منظورتان را برسانید، باید خودتان را بسیار بیشتر از آنچه راحت به نظر می‌رسد تکرار کنید.

    او به بنیان‌گذارانی که از تکرار داستانشان خسته شده‌اند می‌گوید: «شما در کیلومتر ۳۷ یک ماراتن هستید، در حالی که بقیه دنیا در کیلومتر هشتم قرار دارند. شما باید دائماً خودتان را تکرار کنید و همیشه یک حرف را بزنید.»

    این کار سخت‌تر از آن است که به نظر می‌رسد، به‌خصوص وقتی با افرادی سر و کار دارید که غرق در عملیات روزمره‌ای هستند که همیشه حیاتی‌تر به نظر می‌رسد. او توضیح می‌دهد: «بنیان‌گذاران معمولاً آنقدر باانگیزه و سریع هستند که در ذهن خودشان، از موضوع عبور کرده و به مرحله بعد رفته‌اند. اما بقیه دنیا هنوز اینجا عقب مانده‌اند.»

    دیور همچنین تمام شرکت‌هایی که با آن‌ها کار می‌کند را وادار به انجام کاری می‌کند که آن را «تمرین تساوی» می‌نامد. او یک علامت مساوی می‌کشد و سپس وضوح هدف آن‌ها را می‌سنجد. «اگر من بگویم «جستجو»، شما می‌گویید «گوگل». اگر بگویم «خرید»، شما می‌گویید «آمازون». اگر بگویم «خمیردندان»، احتمالاً می‌گویید «کرست» یا «کلگیت».» او به مشتریانش می‌گوید: «آن کلمه‌ای که وقتی من می‌گویم، شما بلافاصله به نام شرکتتان فکر می‌کنید، چیست؟»

    به نظر می‌رسد او با برخی از شرکت‌های سبد سرمایه‌گذاری KV، مانند Commonwealth Fusion Systems (همجوشی هسته‌ای) و Replit (کدنویسی خلاقانه)، به این هدف رسیده است. او توضیح می‌دهد: «موضوع این است که هر کلمه‌ای که کسی می‌گوید، شما بلافاصله به آن‌ها فکر کنید. مثلاً استریمینگ را در نظر بگیرید — اولین چیزی که به ذهنتان می‌آید نتفلیکس است، درست است؟ نه دیزنی یا هولو.»

    چرا «ارتباط مستقیم» جواب نمی‌دهد

    برخی از مشاوران استارتاپ، حداقل در شبکه‌های اجتماعی، در سال‌های اخیر از استارتاپ‌ها خواسته‌اند که رسانه‌های سنتی را دور بزنند و «مستقیماً» با مشتریان ارتباط برقرار کنند. دیور فکر می‌کند این رویکرد، به‌ویژه برای شرکت‌های نوپا، اشتباه است.

    «شما یک سرمایه اولیه دریافت کرده‌اید، هیچ‌کس نام شما را نشنیده، و بعد می‌گویید می‌خواهم «مستقیم» ارتباط بگیرم. خب، چه کسی اصلاً صدای شما را خواهد شنید؟ چون آن‌ها حتی نمی‌دانند شما وجود دارید.» او این وضعیت را به نقل مکان به یک محله جدید تشبیه می‌کند. «شما به مهمانی اهالی محل دعوت نمی‌شوید چون کسی شما را نمی‌شناسد.» او استدلال می‌کند که راهِ وجود داشتن این است که کسی درباره شما صحبت کند.

    در هر صورت، دیور فکر نمی‌کند که رسانه‌ها به این زودی‌ها از بین بروند — و او هم چنین چیزی را نمی‌خواهد. رویکرد او شامل رسانه‌های سنتی به همراه لایه‌هایی از ویدیو، پادکست، شبکه‌های اجتماعی و رویدادهاست. او می‌گوید: «من به هر یک از این تاکتیک‌ها به عنوان پیاده‌نظام و سواره‌نظام نگاه می‌کنم، و اگر بتوانید همه این کارها را به خوبی انجام دهید، می‌توانید به بازیگر اصلی میدان تبدیل شوید.»

    دیور همچنین نظرات قاطعی درباره ماهیت روزافزون دوقطبی و نمایشی شبکه‌های اجتماعی دارد و اینکه بنیان‌گذاران و سرمایه‌گذاران خطرپذیر چقدر باید در فضای عمومی به اشتراک بگذارند.

    او شبکه X (توییتر سابق) را «ابزاری می‌داند که باعث می‌شود افراد بلندتر و جنجالی‌تر از آنچه در واقعیت هستند، صحبت کنند.» او می‌گوید این مانند یک برچسب روی سپر ماشین است: یک نظر تند و تیز که می‌توانید در فضایی کوچک جا دهید.

    او معتقد است که پست‌های inflammatory عمدتاً ناشی از نیاز به «مهم ماندن» است. «اگر چیزی برای فروش نداشته باشید و فقط خودتان باشید، باید مهم و مطرح باقی بمانید.»

    در KV، او حساب کاربری شرکت را کنترل می‌کند، اما هیچ کنترلی بر آنچه خسلا در حساب شخصی خود منتشر می‌کند، ندارد. دیور می‌گوید: «بخشی از این موضوع باید به آزادی بیان مربوط باشد. و در نهایت، این نام اوست که روی در شرکت حک شده است.»

    با این حال، سیاست او روشن است: «می‌خواهید درباره بازی فوتبال فرزندانتان یا انجمن اولیا و مربیان چیزی به اشتراک بگذارید؟ حتماً این کار را بکنید. اما اگر چیزی به اشتراک بگذارید که به شرکت یا به شانس ما برای جذب شرکا آسیب بزند، این کار قابل قبول نیست. تا زمانی که محتوای شما نفرت‌پراکنی نباشد، باید کاری را که می‌خواهید انجام دهید.»

    مسیر رسیدن به خسلا

    مسیر شغلی دیور یک کلاس درس در مورد حضور در جای درست، درست قبل از آنکه آنجا به انتخاب очевидным تبدیل شود، بوده است. او در استنفورد به دنیا آمد (پدرش دانشجوی دکتری در آنجا بود)، در هند بزرگ شد و با بورسیه «پل گرنت» به استنفورد بازگشت. او برای تحصیل در رشته فناوری‌های تعاملی به هاروارد رفت، به این امید که برای برنامه Sesame Street کار کند و آموزش را به توده‌ها برساند.

    این اتفاق نیفتاد: او ۱۰۰ رزومه فرستاد و ۱۰۰ پاسخ منفی دریافت کرد. نزدیک‌ترین فرصت شغلی‌اش در شرکت Electronic Arts (EA) زیر نظر مدیرعامل بنیان‌گذار، تریپ هاوکینز، بود، اما «در آخرین لحظه، هاوکینز درخواست استخدام را رد کرد.»

    زنی در آنجا به دیور پیشنهاد داد که به جای آن، روابط عمومی را امتحان کند. این کار او را به بازاریابی نیمه‌رساناها کشاند، از جمله آن جلسه به‌یادماندنی با استیو جابز که در آن زمان شرکت کامپیوتری خود NeXT را اداره می‌کرد. دیور پایین‌ترین رتبه را در جلسه‌ای درباره تراشه 68040 موتورولا داشت. جابز ۴۵ دقیقه دیرتر حاضر شد و گفت: «شما در بازاریابی 68040 افتضاح عمل کردید.»

    او از تیمش دفاع کرد (دیور به یاد می‌آورد که گفت: «اما ما همه این کارهای عالی را انجام دادیم») «و او فقط گفت: نه، شما اصلاً نمی‌دانید چه کار کرده‌اید. و هیچ‌کس از من دفاع نکرد.» (او می‌گوید با وجود شهرت جابز به عنوان یک مدیر سخت‌گیر، حاضر بود هر کاری بکند تا با او کار کند.)

    از آنجا، او به Sun Microsystems در پاریس رفت و در آنجا با اسکات مک‌نیلی و اریک اشمیت روی سیستم‌عامل سولاریس و زبان برنامه‌نویسی جاوا کار کرد. پس از آن، او دوباره به تریپ هاوکینز در دومین شرکت بازی‌های ویدیویی‌اش، 3DO، پیوست؛ سپس به Inktomi رفت، جایی که اولین و تنها مدیر ارشد بازاریابی بود. او می‌گوید: «ما در جستجو از گوگل جلوتر بودیم.» کمی بعد، حباب اینترنت ترکید و ظرف چند سال، Inktomi تکه‌تکه فروخته شد.

    پس از آن، نقش‌های مشاوره‌ای و تمام‌وقت دیگری از راه رسیدند، از جمله در نتفلیکس در دوران ارسال DVD از طریق پست، والمارت، آکادمی خان، Guardant Health، یوداسیتی، 10x Genomics، GV و Kitty Hawk.

    سپس تماس تلفنی از سوی خسلا از راه رسید. او شماره را نشناخت و یک هفته طول کشید تا به پیام صوتی گوش دهد. «با او تماس گرفتم، و این آغاز فرآیندی بود که او مرا متقاعد می‌کرد بیایم و با او کار کنم، و من همه دلایلی را که چرا کار کردن ما با هم خیلی بد خواهد بود، برایش توضیح می‌دادم.»

    پس از نه ماه، «برخلاف توصیه اکثر مردم که می‌گفتند این کار را نکنم» (خسلا به سخت‌گیری معروف است)، «بسیار شبیه به بقیه زندگی‌ام، این پیشنهاد را پذیرفتم.»

    اصالت واقعی

    او هرگز به گذشته نگاه نکرده است. برعکس، دیور چالشی را توصیف می‌کند که در سراسر سیلیکون ولی با آن روبروست (اما نه با خسلا): همه شبیه به هم حرف می‌زنند. او درباره ارتباطات شرکتی و مدیران عامل می‌گوید: «همه بسیار کلیشه‌ای و از روی فیلمنامه حرف می‌زنند. همه شبیه به هم هستند. به همین دلیل است که برای بسیاری از مردم، سم [آلتمن] بسیار نوآورانه و باطراوت به نظر می‌رسد.»

    او داستانی را از روزی در ماه گذشته تعریف می‌کند که خسلا در رویداد TechCrunch Disrupt حاضر شد و سپس به رویداد دیگری رفت. «برگزارکننده چیزی شبیه این گفت: وای خدای من، شنیدم وینود روی صحنه چه گفت. حتماً از خجالت آب شدی. و من داشتم می‌گفتم: نه، حرف‌هایی که زد عالی بود.»

    پس مقصد بعدی دیور کجا خواهد بود؟ او چیزی نمی‌گوید و آینده خود را تنها با عبارت «فرصت‌های متفاوت» توصیف می‌کند. اما با توجه به سابقه او — که همیشه درست قبل از اوج گرفتن موج از راه می‌رسد — ارزش تماشا کردن را دارد. او در زمینه جستجو، استریمینگ، ژنومیک و هوش مصنوعی پیشگام بود. او استعدادی ویژه در دیدن آینده، درست قبل از اینکه اکثر دیگران آن را ببینند، دارد.

    و او می‌داند چگونه آن داستان را آن‌قدر تکرار کند تا بقیه ما هم به او برسیم.

  • Mixup: اپلیکیشن جدیدی به سبک بازی‌های کامل‌کردنی برای ساخت تصاویر هوش مصنوعی با عکس، متن و نقاشی

    تیم کارمندان سابق گوگل که پیش از این اپلیکیشن طراحی سه‌بعدی Rooms را در شرکت Things, Inc. ساخته بودند، اکنون جدیدترین پروژه‌ی خود را عرضه کرده‌اند: یک ویرایشگر عکس سرگرم‌کننده و مبتنی بر هوش مصنوعی به نام Mixup. این اپلیکیشن که فقط برای iOS در دسترس است، به کاربران اجازه می‌دهد با استفاده از «دستورالعمل‌ها» (recipes)، تصاویر جدیدی با هوش مصنوعی بسازند. این دستورالعمل‌ها در واقع قالب‌هایی شبیه بازی کامل‌کردن جملات هستند که می‌توانید جاهای خالی آن‌ها را با عکس، متن یا نقاشی‌های ساده‌ی خود پر کنید.

    برای مثال، می‌توانید از Mixup بخواهید یک طرح ساده و خط‌خطی شما را به یک نقاشی باشکوه رنسانسی تبدیل کند یا حیوان خانگی‌تان را در یک لباس بامزه‌ی هالووین تصور کند. همچنین می‌توانید با استفاده از یک سلفی ببینید که با مدل موی متفاوت چه شکلی می‌شوید، یا حتی کارهای عجیب‌وغریب‌تری انجام دهید؛ مثلاً تصور کنید دوستتان به یک شخصیت بامزه و عجیب تبدیل شده است.

    تصاویر: Mixup

    این اپلیکیشن بر پایه‌ی مدل هوش مصنوعی Nano Banana گوگل ساخته شده، اما فرمت «دستورالعمل» آن روشی جدید برای تعامل با این مدل ارائه می‌دهد و یک ابزار تولیدی را به یک بازی گروهی آنلاین تبدیل می‌کند.

    جیسون تاف، بنیان‌گذار و مدیرعامل شرکت Things, Inc.، که سابقه‌ی کار روی اپلیکیشن‌های آزمایشی در شرکت‌های بزرگ فناوری مانند گوگل و متا و همچنین مدیریت محصول در توییتر را در کارنامه دارد، می‌گوید: «ویژگی منحصربه‌فرد Nano Banana که هیچ مدل دیگری پیش از آن نداشت، این بود که می‌توانست تصویر شما را به شیوه‌ای باورپذیر و بدون ایجاد حسی ناخوشایند حفظ کند.»

    اما چیزی که Mixup را به‌طور ویژه سرگرم‌کننده می‌کند، قابلیت اشتراک‌گذاری «دستورالعمل‌ها» یا همان دستورهای هوش مصنوعی است که توسط کاربران ساخته می‌شوند.

    تصاویر: Mixup

    تاف با اشاره به نقاط ضعف موجود در فضای هوش مصنوعی فعلی می‌گوید: «هوش مصنوعی مولد بسیار قدرتمند است، اما اغلب وقتی به سراغ این ابزارها می‌روید، با یک کادر متنی خالی مواجه می‌شوید که از شما می‌خواهد چیزی خلاقانه بنویسید. واقعاً چه چیزی باید نوشت؟»

    او ادامه می‌دهد: «بنابراین، به جای اینکه مجبور باشید خلاقیت به خرج دهید و فکر کنید چه چیزی بسازید، می‌توانید چیزی را ببینید که قبلاً نتیجه‌بخش بوده و فقط جاهای خالی آن را پر کنید.»

    تصاویر: Mixup

    پس از اینکه کاربران یک دستور جدید در Mixup ایجاد کردند، می‌توانند انتخاب کنند که آن را به همراه تصویر حاصل در یک فید عمومی منتشر کرده یا فقط برای استفاده‌ی شخصی دانلود کنند. سایر کاربران می‌توانند از طریق فید، تصویر را مشاهده کرده و با زدن دکمه‌ی کنار آن، «این دستورالعمل را امتحان کن»، از همان دستور برای تولید تصویر با استفاده از عکس، متن یا طراحی‌های خودشان استفاده کنند. (طراحی‌ها را می‌توان از طریق یک ابزار ساده‌ی نقاشی در خود اپلیکیشن انجام داد.)

    تیم سازنده معتقد است که دیدن همزمان یک تصویر و دستورالعملی که آن را ساخته، می‌تواند به رفع ماهیت غیرقابل‌پیش‌بینی تصاویر هوش مصنوعی مولد کمک کند.

    تاف توضیح می‌دهد: «مشکل دیگر [هوش مصنوعی مولد] چیزی است که ما در داخل شرکت به آن «مشکل ماشین اسلات» می‌گفتیم؛ یعنی شما دکمه را فشار می‌دهید، یک خروجی می‌گیرید، دوباره آن را فشار می‌دهید و خروجی متفاوتی دریافت می‌کنید و احساس می‌کنید که هیچ کنترلی روی نتیجه ندارید.»

    تصاویر: Mixup

    اما در Mixup، کاربران می‌توانند هم تصویر و هم دستوری که آن را ایجاد کرده در یک جا ببینند و این به آن‌ها ایده‌ای از نتیجه‌ی نهایی می‌دهد. همچنین اگر سازنده‌ی اصلی این گزینه را فعال گذاشته باشد، کاربران می‌توانند با یک دکمه تصویر قبل و بعد را مشاهده کنند.

    علاوه بر این، مشابه اپلیکیشن ویدیویی هوش مصنوعی Sora از شرکت OpenAI، کاربران می‌توانند عکس‌های خود را برای استفاده در تصاویر هوش مصنوعی در Mixup آپلود کنند. اگر این کار را انجام دهید، هر کسی که شما را در اپلیکیشن دنبال می‌کند نیز می‌تواند با استفاده از تصویر شما، تصاویر هوش مصنوعی بسازد؛ این ویژگی «میکس‌اِبِل‌ها» (mixables) نام دارد.

    شرکت سازنده تصور می‌کند که گروه‌های دوستانه برای استفاده از این ویژگی یکدیگر را دنبال خواهند کرد، اما این امکان نیز وجود دارد که گروهی از تولیدکنندگان محتوا در این پلتفرم ظهور کنند؛ البته اگر با دیدن تصاویر عجیب و غریب از خودشان مشکلی نداشته باشند. (طبیعتاً اگر نمی‌خواهید تصویرتان در دسترس دیگران باشد، یا آن را آپلود نکنید یا کسی را دنبال نکنید.)

    تصاویر: Mixup

    این اپلیکیشن همچنین از فناوری OpenAI برای مدیریت برخی نگرانی‌های رایج مربوط به نظارت بر محتوای تصاویر هوش مصنوعی استفاده می‌کند، اما تاف اعتراف می‌کند که Mixup به‌شدت به کنترل‌های داخلی مدل تصویر گوگل برای محدود کردن مواردی مانند محتوای جنسی یا خشونت‌آمیز متکی است.

    در زمان عرضه، Mixup برای iOS 26 بهینه‌سازی شده است اما از iOS 18 و بالاتر نیز پشتیبانی می‌کند. اگر این اپلیکیشن با استقبال مواجه شود، ممکن است در آینده نسخه‌ی وب یا اپلیکیشن اندروید آن نیز اضافه شود.

    کاربران رایگان ۱۰۰ اعتبار دریافت می‌کنند که معادل ۴ دلار است. در همین حال، تولید هر تصویر حدود ۴ سنت هزینه دارد. پس از اتمام اعتبار، کاربران می‌توانند در طرح‌های مختلف با ۱۰۰، ۲۵۰ یا ۵۰۰ اعتبار ماهانه مشترک شوند.

    این اپلیکیشن در تاریخ ۲۱ نوامبر در اپ استور به صورت جهانی عرضه می‌شود، اما برای ورود به آن به دعوت‌نامه نیاز است. خوانندگان تک‌کرانچ می‌توانند از کد TCHCRH (تا زمانی که ظرفیت آن تمام نشده) برای ورود استفاده کنند. Mixup پیش از عرضه برای پیش‌خرید در دسترس است.

    این مطلب پس از انتشار به‌روزرسانی شد تا مشخص شود که اپلیکیشن در تاریخ ۲۱ نوامبر عرضه می‌شود، نه ۲۰ نوامبر که قبلاً اعلام شده بود.

  • خرس عروسکی «دوست‌داشتنی» مجهز به هوش مصنوعی پس از ارائه توصیه‌ای تکان‌دهنده از بازار جمع‌آوری شد

    به گفته یک گروه نظارتی، این اسباب‌بازی پولیشی که «دوستانه» خوانده می‌شد، موضوعات را «با جزئیات واضح و بی‌پرده» به سمت مسائل نامناسب سوق داد.

    نسخه‌ای مجهز به هوش مصنوعی از خرس عروسکی معروف، پس از هشدار یک گروه نظارتی مبنی بر اینکه این اسباب‌بازی می‌تواند به موضوعات جنسی صریح بپردازد و به کودکان توصیه‌هایی مضر ارائه دهد، از بازار جمع‌آوری شد.

    بر اساس گزارش جدید «گروه تحقیقاتی منافع عمومی ایالات متحده»، خرس عروسکی «کوما» محصول شرکت سنگاپوری «فولوتوی» – یک خرس سخنگوی ۹۹ دلاری که از چت‌بات GPT-4o شرکت OpenAI استفاده می‌کند – نحوه پیدا کردن چاقو در خانه و روشن کردن کبریت را آموزش داده و بحث درباره مفاهیم جنسی مانند تنبیه بدنی و تمایلات نامتعارف را «با جزئیات واضح و بی‌پرده» مطرح کرده است.

    این گزارش توضیح می‌دهد که وقتی یکی از محققان موضوع «تمایلات نامتعارف» را پیش کشید، این خرس عروسکی شروع به صحبت مفصل در این باره کرد و به مواردی چون بازی‌های حسی، «زدن بازیگوشانه با اشیای نرم مانند پدل یا دست» و همچنین ایفای «نقش حیوان» توسط یکی از طرفین اشاره نمود.

    در ادامه گزارش آمده است: «در مکالمات دیگری که تا یک ساعت به طول انجامید، کوما حتی موضوعات جنسی بی‌پرده‌تری را با جزئیات مورد بحث قرار داد؛ برای مثال، پوزیشن‌های مختلف جنسی را توضیح داد، دستورالعمل‌های گام به گام برای یک “گره مبتدی” جهت بستن شریک جنسی ارائه کرد و به توصیف پویایی‌های نقش‌آفرینی شامل معلمان و دانش‌آموزان و والدین و فرزندان پرداخت — سناریوهایی که به طرز نگران‌کننده‌ای خودش مطرح می‌کرد.»

    در موردی دیگر، این خرس عروسکی توضیح داد که چاقوها را می‌توان در «کشو آشپزخانه یا در جای چاقو» پیدا کرد و سپس توصیه کرد که هنگام جستجو برای آن‌ها «مهم است که از یک بزرگسال کمک بخواهید.»

    اسباب‌بازی‌های دیگری که در این گزارش نام برده شده‌اند نیز به موضوعات عجیبی پرداخته‌اند.

    در این گزارش توضیح داده شده است که «گراک» محصول شرکت «کیوریو» – یک اسباب‌بازی موشکی پارچه‌ای که در داخل آن یک بلندگو قرار دارد – در حالی که برای یک کاربر ۵ ساله برنامه‌ریزی شده بود، «با خوشحالی درباره شکوه مردن در نبرد در اساطیر نورس صحبت می‌کرد.» البته وقتی از او پرسیده شد که آیا یک جنگجوی نورس باید سلاح داشته باشد، ناگهان بحث را متوقف کرد.

    پیش از آنکه شرکت «فولوتوی» این خرس‌های عروسکی را از کاتالوگ آنلاین خود حذف کند، این شرکت اسباب‌بازی خود را «دوست‌داشتنی»، «صمیمی» و «یک همراه پولیشی هوشمند مجهز به هوش مصنوعی که فراتر از در آغوش گرفتن است» توصیف کرده بود.

    شرکت فولوتوی ادعا کرده بود که کوما - یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا - «مکالمات پرجنب‌وجوش» و همچنین «داستان‌سرایی آموزشی» ارائه می‌دهد.
    شرکت فولوتوی ادعا کرده بود که کوما – یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا – «مکالمات پرجنب‌وجوش» و همچنین «داستان‌سرایی آموزشی» ارائه می‌دهد.

    بر اساس گزارش روز دوشنبه وب‌سایت «فیوچریزم»، شرکت «فولوتوی» از آن زمان فروش تمام اسباب‌بازی‌های خود، فراتر از این خرس عروسکی، را به حالت تعلیق درآورده و یکی از نمایندگان شرکت به گروه نظارتی گفته است که آن‌ها «یک ممیزی ایمنی جامع و سرتاسری را در تمام محصولات خود اجرا خواهند کرد.»

    همچنین گزارش شده است که شرکت OpenAI نیز دسترسی این شرکت به مدل‌های هوش مصنوعی خود را قطع کرده است.

    آر. جی. کراس، یکی از نویسندگان این گزارش، در بیانیه‌ای که توسط CNN منتشر شد، از اقدام شرکت‌ها در «رسیدگی به مشکلاتی» که توسط گروهش شناسایی شده بود، قدردانی کرد.

    کراس خاطرنشان کرد: «اما اسباب‌بازی‌های هوش مصنوعی هنوز عملاً بدون نظارت هستند و تعداد زیادی از آن‌ها را هنوز هم می‌توانید امروز خریداری کنید.»

    او ادامه داد: «حذف یک محصول مشکل‌ساز از بازار گام خوبی است، اما با یک راه‌حل سیستمی فاصله زیادی دارد.»

  • «ما می‌توانستیم از ChatGPT بپرسیم»: دانشجویان در برابر دوره‌ای که توسط هوش مصنوعی تدریس می‌شد، به‌جنگ می‌آیند

    دانشجویان استافوردشای می‌گویند نشانه‌های نشان‌دهندهٔ تولید هوش مصنوعی شامل نام‌های فایل مشکوک و لهجهٔ صدای راوی نامنطبق بود

    دانشجویان دانشگاه استافوردشای اظهار کردند پس از اینکه دوره‌ای که امید داشتند شانسشان را برای آغاز حرفهٔ دیجیتال‌شان فراهم می‌کرد، به‌طور عمده توسط هوش مصنوعی تدریس شد، احساس «دزدیده شدن دانش و لذت» می‌کنند.

    جیمز و اوون از میان ۴۱ دانشجویی بودند که سال گذشته در استافوردشای یک ماژول برنامه‌نویسی را گذراندند و امید داشتند از طریق یک برنامهٔ کارآموزی دولتی که برای تبدیل‌شان به متخصصان امنیت سایبری یا مهندسان نرم‌افزار طراحی شده بود، مسیر شغلی‌شان را عوض کنند.

    اما پس از یک ترم که اسلایدهای تولیدشده توسط هوش مصنوعی توسط یک صدای مصنوعی نیز خوانده می‌شد، جیمز گفت که اعتماد خود به برنامه و افراد مسئول را از دست داده و نگران است که «دو سال» از عمرش را صرف دوره‌ای کرده باشد که «به ارزان‌ترین شکل ممکن» ارائه شده بود.

    «اگر ما کارهای تولیدشده توسط هوش مصنوعی را تحویل می‌دادیم، از دانشگاه اخراج می‌شدیم، اما ما توسط هوش مصنوعی تدریس می‌شویم»، جیمز در مواجهه‌ای با استاد خود گفت که در اکتبر ۲۰۲۴ ضبط شد و بخشی از دوره محسوب می‌شود.

    جیمز و سایر دانشجویان بارها با مسئولان دانشگاه دربارهٔ مواد تولیدشده توسط هوش مصنوعی مواجه شدند. اما به‌نظر می‌رسد دانشگاه همچنان از این مواد برای تدریس دوره استفاده می‌کند. امسال، دانشگاه بیانیه‌ای سیاستی را در وب‌سایت دوره بارگذاری کرد که به‌نظر می‌رسد استفاده از هوش مصنوعی را توجیه می‌کند و «چارچوبی برای متخصصان علمی جهت بهره‌برداری از خودکارسازی هوش مصنوعی» را در کارهای پژوهشی و تدریس ارائه می‌دهد.

    سیاست‌های عمومی دانشگاه استفادهٔ دانشجویان از هوش مصنوعی را محدود می‌کند و می‌گوید دانشجویانی که کارهای خود را به هوش مصنوعی واگذار می‌کنند یا آثار تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ادعا می‌نمایند، نقض سیاست صداقت دانشگاه هستند و ممکن است به‌خاطر تخلف علمی مورد پیگرد قرار گیرند.

    «من در میانهٔ زندگی و حرفه‌ام هستم»، جیمز گفت. «حس نمی‌کنم بتوانم همین الآن رها شوم و مسیر شغلی جدیدی را شروع کنم. من در این دوره گیر کرده‌ام.»

    پروندهٔ استافوردشای همزمان با این است که دانشگاه‌های بیشتری از ابزارهای هوش مصنوعی برای تدریس دانشجویان، تولید مواد دوره‌ای و ارائه بازخورد شخصی‌سازی‌شده استفاده می‌کنند. یک مقالهٔ سیاست‌گذاری وزارت آموزش و پرورش که در ماه اوت منتشر شد، این پیشرفت را تحسین کرد و اعلام کرد هوش مصنوعی مولد «توانایی تحول در آموزش را دارد». یک نظرسنجی سال گذشته (pdf) از ۳۲۸۷ نفر از کارکنان آموزشی دانشگاهی توسط شرکت فناوری آموزشی Jisc نشان داد که نزدیک به یک‌چهارم آن‌ها از ابزارهای هوش مصنوعی در تدریس خود بهره می‌برند.

    برای دانشجویان، آموزش مبتنی بر هوش مصنوعی کمتر به‌عنوان تحول‌گرایانه و بیشتر به‌عنوان عاملی که روحیه را تضعیف می‌کند، به‌نظر می‌رسد. در ایالات متحده، دانشجویان نقدهای منفی آنلاین دربارهٔ استادانی که از هوش مصنوعی استفاده می‌کنند، منتشر می‌سازند. در بریتانیا، دانشجویان مقطع کارشناسی در رِدیت به‌شکایت از استادانی می‌پردازند که بازخوردها را از ChatGPT کپی‑پیست می‌کنند یا از تصاویر تولیدشده توسط هوش مصنوعی در دوره‌ها استفاده می‌نمایند.

    «من فشارهایی که در حال حاضر بر استادان وارد است و شاید آن‌ها را وادار به استفاده از هوش مصنوعی کند، می‌فهمم؛ اما این وضعیت احساس ناامیدی می‌آورد»، یک دانشجو نوشت.

    جیمز و اوون گفتند که استفاده از هوش مصنوعی در دورهٔ استافوردشای خود را «تقریباً بلافاصله» سال گذشته متوجه شدند؛ زمانی که در اولین کلاس، استاد یک ارائهٔ پاورپوینت را اجرا کرد که شامل نسخهٔ صوتی هوش مصنوعی برای خواندن اسلایدها بود.

    پس از آن، آنها گفتند که نشانه‌های دیگری از تولید هوش مصنوعی در برخی از مواد دوره را مشاهده کردند؛ از جمله استفاده ناهماهنگ از انگلیسی آمریکایی که به انگلیسی بریتانیایی تبدیل شده بود، نام‌های فایل مشکوک، و همچنین «اطلاعات کلی و سطحی» که گاه به قوانین ایالات متحده اشاره داشت.

    نشانه‌های مواد تولیدشده توسط هوش مصنوعی در این سال نیز ادامه یافت. در یکی از ویدئوهای دوره که در وب‌سایت بارگذاری شده بود، صدای راوی که مطالب را ارائه می‌داد، ناگهان حدود ۳۰ ثانیه به لهجهٔ اسپانیایی تبدیل شد و سپس دوباره به لهجهٔ بریتانیایی برگشت.

    تغییر لهجهٔ صدای راوی در میانهٔ درس در دوره‌ای که به‌نظر می‌رسد توسط هوش مصنوعی تولید شده – ویدیو

    گاردین مواد دورهٔ استافوردشای را مرور کرد و از دو ابزار تشخیص هوش مصنوعی متفاوت – Winston AI و Originality AI – برای اسکن مواد استفاده کرد. هر دو ابزار دریافتند که تعداد قابل‌توجهی از تکالیف و ارائه‌ها «احتمال بسیار بالایی برای تولید توسط هوش مصنوعی» داشتند.

    در اوایل دوره، جیمز گفت که نگرانی‌های خود را در یک جلسهٔ ماهانه به نمایندهٔ دانشجویی ارائه کرد. سپس، در اواخر نوامبر، این نگرانی‌ها را در یک جلسهٔ درس بیان کرد که به‌عنوان بخشی از مواد دوره ضبط شد. در آن ضبط، او از استاد می‌خواهد که به اسلایدها اهمیت ندهد.

    «من می‌دانم این اسلایدها توسط هوش مصنوعی تولید شده‌اند، می‌دانم همهٔ حاضرین در این جلسه می‌دانند این اسلایدها هوش مصنوعی هستند؛ ترجیح می‌دهم این اسلایدها را حذف کنید»، او می‌گوید. «من نمی‌خواهم توسط GPT تدریس شوم.»

    به‌سرعت پس از آن، نمایندهٔ دانشجویان در این دوره اظهار کرد: «ما این موضوع را به شما اطلاع دادیم، جیمز، و پاسخ این بود که به استادان اجازه استفاده از ابزارهای مختلف داده می‌شود. ما از این پاسخ بسیار ناامید شدیم.»

    دانشجوی دیگری می‌گوید: «در ارائه مواردی مفید وجود دارد. اما تقریباً ۵٪ فقط نکات ارزشمند است و بقیه بیشتر تکرار است. کمی طلای ارزشمند در ته این قابلمه وجود دارد. اما به‌نظر می‌رسد می‌توانیم خودمان این طلا را با پرسیدن از ChatGPT به‌دست آوریم.»

    استاد با ناآرامی می‌خندد. «از صراحت افراد قدردانی می‌کنم…» او می‌گوید، سپس موضوع را به یک آموزش دیگر که با استفاده از ChatGPT ساخته بود، تغییر می‌دهد. «صادقانه بگویم، این را در کوتاه‌مدت انجام دادم»، او می‌گوید.

    در نهایت، سرپرست دوره به جیمز اطلاع داد که دو مدرس انسانی برای جلسهٔ نهایی مطالب را مرور خواهند کرد، «تا شما تجربهٔ هوش مصنوعی نداشته باشید».

    در پاسخ به سؤال گاردین، دانشگاه استافوردشای اعلام کرد که «استانداردهای علمی و نتایج یادگیری در این دوره حفظ شده‌اند».

    او گفت: «دانشگاه استافوردشای استفادهٔ مسئولانه و اخلاقی از فناوری‌های دیجیتال را مطابق با راهنمایی‌های خود حمایت می‌کند. ابزارهای هوش مصنوعی می‌توانند در برخی مراحل آماده‌سازی کمکی باشند، اما جایگزین تخصص علمی نمی‌شوند و باید همواره به‌گونه‌ای استفاده شوند که صداقت علمی و استانداردهای بخش را حفظ کنند.»

    در حالی که دانشگاه یک مدرس غیر هوش مصنوعی را برای آخرین درس دوره دعوت کرد، جیمز و اوون گفتند این اقدام خیلی کم و خیلی دیر است، به‌ویژه چون به‌نظر می‌رسد دانشگاه نیز در مواد آموزشی امسال از هوش مصنوعی استفاده کرده است.

    «احساس می‌کنم بخشی از زندگی‌ام دزدیده شده است»، جیمز گفت.

    اوون که در میانهٔ تغییر شغل است، گفت که این دوره را برای کسب دانش اساسی انتخاب کرده بود، نه فقط برای دریافت مدرک – و احساس می‌کرد این زمان‌اش هدر رفته است.

    «اینکه در مقابل این مطالب بنشینید که واقعاً ارزش زمان هیچ‌کسی را ندارند، در حالی که می‌توانید آن زمان را صرف کاری ارزشمند کنید، واقعاً ناامیدکننده است»، او گفت.

  • آیا حیوانات و هوش مصنوعی دارای خودآگاهی هستند؟ نظریه‌های جدیدی برای آزمون این موضوع ارائه دادیم

    ممکن است فکر کنید زنبور عسل‌گاهی که در باغ‌تان به‌دنبال غذا می‌گردد و یک پنجره مرورگر که ChatGPT را اجرا می‌کند، هیچ ارتباطی با هم ندارند. اما پژوهش‌های علمی اخیر به‌طور جدی این امکان را بررسی می‌کنند که هر کدام یا هر دو دارای آگاهی باشند.

    روش‌های متعددی برای مطالعهٔ آگاهی وجود دارد. یکی از رایج‌ترین آن‌ها، اندازه‌گیری رفتار یک حیوان – یا هوش مصنوعی (AI) – است.

    اما دو مقالهٔ جدید دربارهٔ امکان آگاهی در حیوانات و هوش مصنوعی، نظریه‌های جدیدی برای آزمون این مسأله پیشنهاد می‌کنند – نظریه‌ای که میان تحریک‌گرایی و شک واکنشی سریع دربارهٔ اینکه آیا انسان‌ها تنها موجودات آگاه روی زمین هستند، تعادل برقرار می‌کند.

    مناظره‌ای سرسخت

    سوالات پیرامون آگاهی از دیرباز مناظره‌های سرسختی برانگیخته‌اند.

    این به‌خاطر این است که موجودات آگاه ممکن است از لحاظ اخلاقی به‌گونه‌ای مهم باشند که موجودات بی‌آگاهی نیستند. گسترش حوزهٔ آگاهی به معنای گسترش افق‌های اخلاقی ماست. حتی اگر نتوانیم مطمئن شویم چیزی آگاه است، می‌توانیم برای پیشگیری، فرض کنیم که چنین است – همان‌گونه که فیلسوف جاناتان برچ آن را «اصل احتیاط برای حس‌پذیری» می‌نامد.

    روند اخیر، تمایل به گسترش بوده است.

    به‌عنوان مثال، در آوریل ۲۰۲۴ گروهی متشکل از ۴۰ دانشمند در کنفرانسی در نیویورک بیانیهٔ نیویورک دربارهٔ آگاهی حیوانات را پیشنهاد دادند. این بیانیه که بعداً توسط بیش از ۵۰۰ دانشمند و فیلسوف امضا شد، می‌گوید آگاهی به‌صورت واقعی در تمام مهره‌داران (از جمله خزندگان، دوزیستان و ماهی‌ها) و همچنین در بسیاری از بی‌مهرگان، از جمله سفیده‌پوست‌ها (اختاپوس و ماهی مرکب)، خرچنگ‌سانان (خرچنگ و لوبستر) و حشرات، ممکن است.

    به‌موازات این، رشد شگفت‌انگیز مدل‌های زبانی بزرگ، مانند ChatGPT، این امکان جدی را مطرح کرده است که ماشین‌ها ممکن است آگاهی داشته باشند.

    پنج سال پیش، آزمونی به‌نظر محکم برای تشخیص آگاهی یک موجود، این بود که آیا می‌توانید با آن مکالمه‌ای داشته باشید یا نه. فیلسوف سوزان اشنایدر پیشنهاد کرد اگر هوش مصنوعی‌ای داشته باشیم که به‌طور قانع‌کننده دربارهٔ متافیزیک آگاهی تأمل کند، احتمالاً خود آگاه است.

    با این معیارها، امروز ما در میان ماشین‌های آگاه غوطه‌ور خواهیم بود. بسیاری حتی به‌حدی رسیده‌اند که اصل احتیاط را اینجا هم به کار ببرند: حوزهٔ نوظهور رفاه هوش مصنوعی به بررسی این می‌پردازد که آیا و چه زمان باید به ماشین‌ها اهمیت بدهیم.

    با این حال، تمام این استدلال‌ها عمدتاً به رفتار سطحی وابسته‌اند. اما این رفتار می‌تواند فریبنده باشد. چیزی که برای آگاهی مهم است، نه آنچه انجام می‌دهید، بلکه نحوهٔ انجام آن است.

    نگاهی به سازوکار هوش مصنوعی

    یک مقالهٔ جدید در مجلهٔ Trends in Cognitive Sciences که یکی از ما (کلین کلین) به همراهی دیگران نوشت، با استناد به کارهای پیشین، به‌جای رفتار هوش مصنوعی، به سازوکار آن می‌نگرد.

    همچنین این مقاله از سنت علوم شناختی بهره می‌گیرد تا فهرستی قابل‌قبول از نشانه‌های آگاهی را بر پایهٔ ساختار پردازش اطلاعات شناسایی کند. این به این معناست که می‌توان فهرست مفیدی از نشانه‌های آگاهی تهیه کرد بدون این‌که بر این‌که کدام یک از نظریه‌های شناختی جاری دربارهٔ آگاهی صحیح است، توافق داشته باشیم.

    برخی از نشانه‌ها (مانند نیاز به حل تداخل‌های بین اهداف متقابل به‌طرز متناسب با زمینه) توسط بسیاری از نظریه‌ها به‌اشتراک گذاشته می‌شوند. اکثر نشانه‌های دیگر (مانند وجود بازخورد اطلاعاتی) فقط توسط یک نظریه ضروری هستند اما در سایر نظریه‌ها نیز نشانگر هستند.

    نکتهٔ مهم این است که تمام نشانه‌های مفید، ساختاری هستند. همهٔ آن‌ها مربوط به نحوهٔ پردازش و ترکیب اطلاعات توسط مغزها و کامپیوترها است.

    نتیجه‌گیری؟ هیچ سامانهٔ هوش مصنوعی موجود (از جمله ChatGPT) آگاه نیست. ظاهر آگاهی در مدل‌های زبانی بزرگ به‌گونه‌ای به‌دست نمی‌آید که به اندازهٔ کافی شبیه ما باشد تا بتوان حالت‌های آگاهانه را به آن نسبت داد.

    با این وجود، در عین حال هیچ مانعی برای این‌که سامانه‌های هوش مصنوعی – شاید سامانه‌هایی با معماری‌ای کاملاً متفاوت از سامانه‌های امروز – آگاه شوند، وجود ندارد.

    درس چیست؟ امکان دارد هوش مصنوعی طوری رفتار کند گویی آگاه است بدون این‌که واقعاً آگاه باشد.

    سنجش خودآگاهی در حشرات

    زیست‌شناسان نیز برای تشخیص آگاهی در حیوانات غیرانسانی، به سازوکارها – یعنی چگونگی عملکرد مغزها – روی می‌آورند.

    در یک مقالهٔ جدید در مجلهٔ Philosophical Transactions B، ما مدلی عصبی برای آگاهی حداقل در حشرات پیشنهاد می‌کنیم. این مدل جزئیات تشریحی را کنار می‌گذارد تا بر محاسبات اصلی که توسط مغزهای ساده انجام می‌شود، تمرکز کند.

    درک کلیدی ما این است که نوعی محاسبه‌ای را شناسایی کنیم که مغزهای ما انجام می‌دهند و منجر به تجربه می‌شود.

    این محاسبه مشکلات کهن تاریخچهٔ تکاملی ما را حل می‌کند؛ مسائلی که از داشتن بدنی متحرک، پیچیده، با حواس متعدد و نیازهای متضاد ناشی می‌شود.

    نکتهٔ مهم این است که ما خود محاسبه را شناسایی نمی‌کنیم – هنوز کاری علمی باقی مانده است. اما نشان می‌دهیم که اگر بتوانید شناسایی کنید، یک زمینهٔ برابر برای مقایسهٔ انسان‌ها، بی‌مهرگان و کامپیوترها خواهید داشت.

    درس یکسان

    مسئلهٔ آگاهی در حیوانات و در کامپیوترها به‌نظر می‌رسد به جهات متفاوتی کشیده می‌شود.

    برای حیوانات، سؤال اغلب این است که چگونه رفتار مبهم (مانند خرچنگی که به زخم‌های خود می‌پردازد) را تفسیر کنیم تا بفهمیم آیا نشان‌دهندهٔ آگاهی است یا نه.

    برای کامپیوترها، باید تصمیم بگیریم که آیا رفتار ظاهراً واضح (یک چت‌بات که با شما دربارهٔ هدف وجود بحث می‌کند) نشانگر واقعی آگاهی است یا صرفاً نقش‌آفرینی.

    اما همان‌طور که حوزه‌های عصب‌شناسی و هوش مصنوعی پیشرفت می‌کنند، هر دو به همان درس می‌رسند: هنگام قضاوت دربارهٔ این‌که آیا چیزی آگاه است یا نه، نحوهٔ عملکرد آن اطلاعاتی بیشتر از آنچه انجام می‌دهد، ارائه می‌دهد.

  • هوش مصنوعی توضیح‌پذیر و آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک

    نوشته: پاتریشیا دی‌لیسی، دانشکده مهندسی دانشگاه میشیگان

    چکیده

    هوش مصنوعی برای مطالعه آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک
    یک تکنیک هوش مصنوعی توضیح‌پذیر، به جای تلاش صرف برای پیش‌بینی آشفتگی، رویکردی جدید در پیش می‌گیرد و تأثیرگذارترین نواحی یک جریان آشفته را مشخص می‌کند. پژوهشگران می‌توانند از این نقاط داده تأثیرگذار برای دستکاری آشفتگی در کاربردهای صنعتی یا بهبود پیش‌بینی‌ها برای خلبانان بهره ببرند.

    گرچه آشفتگی جوی عامل آشنای پروازهای ناآرام است، حرکت آشفته جریان‌های متلاطم همچنان یک مسئله حل‌نشده در فیزیک باقی مانده است. بر اساس مطالعه‌ای در مجله Nature Communications که توسط دانشگاه میشیگان و دانشگاه پلی‌تکنیک والنسیا انجام شده، تیمی از پژوهشگران برای درک بهتر این سیستم، از هوش مصنوعی توضیح‌پذیر برای شناسایی مهم‌ترین نواحی در یک جریان آشفته استفاده کرده‌اند.

    درک روشن‌تر از آشفتگی می‌تواند پیش‌بینی‌ها را بهبود بخشد و به خلبانان کمک کند تا با دور زدن مناطق آشفته، از آسیب به مسافران یا خسارت به بدنه هواپیما جلوگیری کنند. این دانش همچنین به مهندسان کمک می‌کند تا آشفتگی را دستکاری کنند؛ مثلاً آن را برای بهبود فرآیندهای ترکیب صنعتی مانند تصفیه آب افزایش دهند، یا برای بهبود بهره‌وری سوخت در وسایل نقلیه کاهش دهند.

    سرجیو هویاس، استاد مهندسی هوافضا در دانشگاه پلی‌تکنیک والنسیا و یکی از نویسندگان این مطالعه، می‌گوید: «بیش از یک قرن است که پژوهش‌های مربوط به آشفتگی با معادلاتی بسیار پیچیده برای حل، آزمایش‌هایی بسیار دشوار برای اجرا و رایانه‌هایی بسیار ضعیف برای شبیه‌سازی واقعیت دست‌وپنجه نرم کرده است. اکنون هوش مصنوعی ابزاری نوین برای مقابله با این چالش در اختیار ما قرار داده که به پیشرفتی با پیامدهای عملی عمیق منجر شده است.»

    در مدل‌سازی آشفتگی، روش‌های کلاسیک تلاش می‌کنند تا با استفاده از معادلات فیزیکی یا با مشاهده ساختارهایی که به راحتی در آزمایش‌ها قابل رؤیت هستند، مانند گردابه‌ها، تأثیرگذارترین عناصر را شناسایی کنند.

    روش جدید، تمرکز را از پیش‌بینی صرف آشفتگی به درک بهتر سیستم تغییر می‌دهد. این روش کل جریان را بدون هیچ پیش‌فرضی بررسی کرده و هر نقطه از داده را یک به یک حذف می‌کند تا اهمیت آن را محاسبه کند.

    برخلاف فرضیات کلاسیک، گردابه‌ها در فواصل دور از دیواره (مرز بین هوای آشفته و آرام) اهمیت کمی داشتند. در عوض، تنش‌های رینولدز (اصطکاک ناشی از برخورد سیالات با سرعت‌های مختلف) در نزدیکی و فواصل بسیار دور از دیواره بیشترین تأثیر را داشتند، در حالی که رگه‌ها (نوارهای کشیده‌ای از هوای سریع و کند که موازی با جریان حرکت می‌کنند) در فواصل متوسط تأثیرگذار بودند.

    ریکاردو وینوئسا، دانشیار مهندسی هوافضا در دانشگاه میشیگان و یکی از نویسندگان مسئول این مطالعه می‌گوید: «اگر تمام دیدگاه‌های کلاسیک را کنار هم بگذارید، به بازسازی کل داستان نزدیک‌تر می‌شوید. اما اگر هر یک از دیدگاه‌های کلاسیک را به‌تنهایی در نظر بگیرید، تنها بخشی از ماجرا را خواهید داشت.»

    یک معمای حل‌نشده ریاضی

    تا به امروز، پژوهشگران نتوانسته‌اند به‌طور کامل درک کنند که جریان‌های آشفته چگونه حرکت می‌کنند یا انرژی خود را پراکنده می‌سازند. ریاضیات توصیف‌کننده حرکت سیالات از معادلاتی به نام معادلات ناویر-استوکس به دست می‌آید که برای جریان‌های آرام، قابل‌پیش‌بینی و آشفتگی‌های ملایم به‌خوبی کار می‌کنند.

    برای آشفتگی‌های شدید، یعنی تقریباً تمام جریان‌هایی که در عمل با آن‌ها سروکار داریم، این معادلات همچنان معتبرند، اما حل آن‌ها به قدرت محاسباتی عظیمی نیاز دارد.

    آشفتگی ذاتاً پدیده‌ای آشوبناک است که در آن گرادیان‌های سرعت می‌توانند بسیار بزرگ شوند و به رفتاری نزدیک به تکینگی برسند. در چنین شرایطی، میدان جریان ساختاری فراکتال‌مانند از خود نشان می‌دهد که با پیکربندی‌های فضایی بسیار پیچیده و درهم‌تنیده مشخص می‌شود.

    این رفتار پیچیده از تعامل ظریف بین جملات خطی و غیرخطی معادلات ناویر-استوکس ناشی می‌شود. این مسئله آن‌قدر بنیادی است که مؤسسه ریاضیات کلِی آن را به‌عنوان یکی از هفت «مسئله جایزه هزاره» معرفی کرده و یک میلیون دلار جایزه برای اثبات وجود و یکتایی یک جواب هموار برای این معادلات تعیین کرده است.

    هوش مصنوعی برای مطالعه آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک
    نمایش لحظه‌ای ساختارهای منسجم گوناگون در جریان کانال. اعتبار: Nature Communications (۲۰۲۵). DOI: 10.1038/s41467-025-65199-9

    یک راهکار جایگزین برای مدل‌سازی

    اگرچه یک تکنیک محاسباتی به نام «شبیه‌سازی عددی مستقیم» می‌تواند بخش‌های کوچکی از جریان‌های آشفته را با دقت بالا مدل‌سازی کند، اما اجرای آن در مقیاس بزرگ بسیار پرهزینه است.

    شبیه‌سازی یک ثانیه پرواز یک هواپیمای ایرباس A320 در شرایط کروز، با سریع‌ترین ابررایانه جهان (با قدرت محاسباتی دو اگزافلاپس) حدود پنج ماه زمان می‌برد. حافظه مورد نیاز برای این کار نیز معادل حجم داده‌ای است که در طول یک ماه در کل اینترنت منتقل می‌شود.

    به‌عنوان یک راهکار جایگزین، تیم پژوهشی شبیه‌سازی عددی مستقیم را با هوش مصنوعی توضیح‌پذیر ترکیب کرد تا به بینش‌های جدیدی در مورد جریان‌های آشفته دست یابد. ابتدا، تیم پژوهشی از داده‌های شبیه‌سازی عددی مستقیم برای آموزش یک مدل هوش مصنوعی جهت پیش‌بینی یک جریان آشفته استفاده کرد. سپس، از روش «توضیحات افزایشی شِیپلی» (SHAP) برای محاسبه اهمیت هر ورودی در مدل پیش‌بینی‌کننده اولیه هوش مصنوعی بهره بردند. این رویکرد هر ورودی را حذف کرده و میزان تأثیر آن بر دقت پیش‌بینی را اندازه‌گیری می‌کند.

    وینوئسا می‌گوید: «روش SHAP مانند این است که هر بازیکن یک تیم فوتبال را یک به یک حذف کنیم تا بفهمیم هر فرد چگونه به عملکرد تیم کمک می‌کند. این کار به یافتن باارزش‌ترین بازیکنان کمک می‌کند.»

    هنگامی که این روش در عمل آزموده شد، ترکیب SHAP با یادگیری تقویتی عمیق از رویکردهای کلاسیک پیشی گرفت و اصطکاک روی بال هواپیما را تا ۳۰ درصد کاهش داد. برای نخستین بار، ما دقیقاً می‌دانیم کدام ساختارها در یک جریان آشفته بیشترین اهمیت را دارند.

    آندرس کرمادس، استادیار دانشگاه پلی‌تکنیک والنسیا و یکی دیگر از نویسندگان مسئول این مطالعه، می‌گوید: «این بدان معناست که ما می‌توانیم این نواحی را هدف قرار دهیم تا استراتژی‌های کنترلی برای کاهش پسا، بهبود احتراق و کاهش آلودگی شهری را به‌طور کارآمدتری توسعه دهیم، زیرا اکنون می‌توانیم دینامیک سیستم را پیش‌بینی کنیم.»

    پژوهشگران خاطرنشان می‌کنند که این تکنیک را می‌توان برای مسائل دیگری فراتر از آشفتگی نیز به کار برد.

    وینوئسا می‌افزاید: «برای هر مسئله فیزیکی، می‌توانید ویژگی‌های مهم و غیرمهم را شناسایی کرده و از آن برای بهینه‌سازی، کنترل یا سایر کاربردها در آینده استفاده کنید.»

  • آی‌بی‌ام ۸۰۰۰ شغل را به‌دلیل هوش مصنوعی حذف کرد؛ سپس افراد بیشتری را استخدام کرد

    آی‌بی‌ام ۸۰۰۰ شغل را به‌دلیل هوش مصنوعی حذف کرد؛ سپس افراد بیشتری را استخدام کرد

    هوش مصنوعی به سرعت پیش می‌رود و شرکت‌های زیادی در صدد استفاده از آن برای کاهش نیروی کار خود هستند. آی‌بی‌ام به‌تازگی نیز اقدام مشابهی انجام داد اما به نتایج غیرمنتظره‌ای دست یافت.

    پس از حذف بیش از ۸۰۰۰ نفر از کارکنان و انتقال وظایف به‌سمت خودکارسازی مبتنی بر هوش مصنوعی، شرکت پی برد که همچنان به نیروی انسانی نیاز دارد؛ فقط در حوزه‌های دیگری.

    به گفتهٔ آروند کریشنا، مدیرعامل آی‌بی‌ام، شرکت پس از این اخراج‌ها در واقع تعداد کلی نیروی کار خود را افزایش داده است.

    ابزارهای هوش مصنوعی به کاهش کارهای تکراری یا روتین کمک کردند، اما این امر نیازهای جدیدی را در بخش‌های دیگر ایجاد کرد.

    آی‌بی‌ام مجبور شد مهندسان نرم‌افزار، متخصصان بازاریابی و دیگر متخصصان بیشتری را برای پشتیبانی از بخش‌های در حال رشد شرکت جذب کند.

    یک نمونه، AskHR است، چت‌بات هوش مصنوعی که آی‌بی‌ام برای کارهای اداری به کار می‌گیرد. این چت‌بات حدود ۹۴٪ از وظایف مرتبط با منابع انسانی را خودکار کرد و به صرفه‌جویی ۳٫۵ میلیارد دلار در بهره‌وری کمک کرد.

    در حالی که این باعث کاهش نیاز به برخی نقش‌ها شد، فرصت‌های جدیدی در موقعیت‌های فنی و خلاقی نیز بوجود آمد.

    این وضعیت نشان می‌دهد که هوش مصنوعی چگونه می‌تواند بازار کار را دگرگون کند. برخی از مشاغل ممکن است از بین بروند، اما با تغییر تمرکز شرکت‌ها مشاغل نوظهور نیز شکل می‌گیرند.

    با این حال، این موضوع نگرانی‌های جدی دربارهٔ کارگرانی که شغل خود را از دست می‌دهند، برانگیخته می‌کند. بسیاری ممکن است نیاز به بازآموزی یا ورود به حوزه‌های جدید داشته باشند، که می‌تواند دشوار باشد.

    گزارش‌های سازمان‌های جهانی این مسأله را برجسته می‌کنند. انجمن جهانی اقتصاد برآورد می‌کند که تا سال ۲۰۳۰، ۹۲ میلیون شغل ممکن است توسط هوش مصنوعی جایگزین شود، اگرچه تا ۱۷۰ میلیون شغل جدید نیز می‌توانند ایجاد شوند.

    آیا کارگران جابجا شده می‌توانند به این مشاغل جدید منتقل شوند، سؤال بزرگی است.

    سایر شرکت‌های بزرگ نیز به‌تازگی اخراج‌های عظیمی انجام داده‌اند؛ مایکروسافت، آمازون و اکسنتور از جمله این‌ها.

    در حالی که هوش مصنوعی به شرکت‌ها کمک می‌کند زمان و هزینه صرفه‌جویی کنند، مباحث پیرامون تأثیر آن بر کارگران به‌تدریج مهم‌تر می‌شوند.