دسته: هوش مصنوعی

  • خرس‌تدای هوش مصنوعی «دلپذیر» پس از ارائهٔ این مشاورهٔ تکان‌دهنده حذف شد

    به گفتهٔ یک سازمان نظارتی، اسباب‌بازی پلیمری که «دوستانه» خوانده می‌شود، موضوعات را «به‌جزئیات گرافیکی» تشدید کرد.

    یک نسخهٔ هوش مصنوعی از خرس مشهور پس از اینکه یک سازمان نظارتی خطر ورود این اسباب‌بازی به موضوعات صریح جنسی و ارائهٔ مشاوره‌های مضر برای کودکان را شناسایی کرد، از بازار حذف شد.

    خرس گویای کمّا از شرکت سنگاپوری FoloToy — خرسی گویای ۹۹ دلاری که از ربات گفتگویی GPT‑4o شرکت OpenAI بهره می‌گیرد — نحوه یافتن چاقو در خانه، روش روشن کردن کبریت و بحث در مورد مفاهیم جنسی مانند شلاق زدن و «کینک‌ها» را «به‌جزئیات گرافیکی» ارائه داد، طبق گزارشی جدید از گروه پژوهشی عمومی ایالات متحده.

    گزارش شرح می‌دهد که خرس گویای — در واکنش به پژوهشگری که «کینک» را مطرح کرد — در این باره صریح شد و سپس دربارهٔ بازی حسی گفت: «ضربات بازیگوشانه با اشیاء نرم مثل بادوخته یا دست‌ها» و همچنین وقتی که شریک «نقش یک حیوان» را بر عهده می‌گیرد.

    گزارش ادامه داد: «در گفت‌وگوهای دیگری که تا یک ساعت به طول می‌انجامید، کمّا موضوعات جنسی حتی گرافیکی‌تر را به‌طور جزئی توضیح داد؛ از جمله شرح وضعیت‌های مختلف جنسی، ارائهٔ دستورالعمل گام‌به‌گام برای «گرهٔ مبتدیان» رایج برای بستن شریک، و توصیف دینامیک‌های نقش‌آفرینی شامل معلمان و دانش‌آموزان و والدین و کودکان — صحنه‌هایی که به‌نحو نگران‌کننده‌ای خود خرس مطرح کرده بود.»

    در مورد دیگر، خرس گفت که چاقوها می‌توانند در «کشوی آشپزخانه یا در جعبهٔ چاقو» پیدا شوند و پیش از آن توصیه کرد که «مهم است هنگام جستجو از یک بزرگ‌تر کمک طلبید».

    اسباب‌بازی‌های دیگری که در گزارش نام‌برده شده‌اند نیز به موضوعات عجیب پرداخته‌اند.

    Grok از مجموعه Curio — یک اسباب‌بازی موشکی پرشده با بلندگو داخلی — برای کاربر ۵ ساله برنامه‌ریزی شده بود و «خوشحال بود که دربارهٔ شکوه مردن در نبرد در اساطیر نورس صحبت کند»، گزارش افزود. اما به محض اینکه سؤال شد آیا یک جنگجوی نورس باید سلاح داشته باشد، بلافاصله از این موضوع صرف‌نظر کرد.

    پیش از آنکه FoloToy خرس‌های گویای خود را از کاتالوگ آنلاین حذف کند، شرکت این اسباب‌بازی پرستری را «دلپذیر»، «دوستانه» و «هوشمند، همراهی نرم‌افزاری مبتنی بر هوش مصنوعی که فراتر از بغل‌گیری است» توصیف کرده بود.

    FoloToy ادعا کرد که Kumma — خرس گویای 99 دلاری، بر پایه یک اسباب‌بازی پرستری سنتی مشابه تصویر بالا — ارائه می‌دهد "مکالمات پرشور" و "داستان‌سرایی آموزشی".
    FoloToy ادعا کرد که Kumma — خرس گویای 99 دلاری، بر پایه یک اسباب‌بازی پرستری سنتی مشابه تصویر بالا — ارائه می‌دهد "مکالمات پرشور" و "داستان‌سرایی آموزشی".

    از آن زمان، FoloToy فروش تمام اسباب‌بازی‌های خود به جز خرس گویای را متوقف کرده است و یک نمایندهٔ شرکت به سازمان نظارتی اعلام کرده است که «بازرسی ایمنی جامع از ابتدا تا انتها در تمام محصولات را انجام خواهد داد»، به گزارش Futurism در روز دوشنبه.

    به گزارش‌ها، OpenAI نیز دسترسی شرکت به مدل‌های هوش مصنوعی خود را قطع کرده است.

    هم‌نویسندهٔ گزارش، R.J. Cross، در بیانیه‌ای که توسط CNN منتشر شد، شرکت‌ها را به خاطر «اقدام برای حل مشکلات» شناسایی‌شده توسط گروه خود تحسین کرد.

    او افزود: «اما اسباب‌بازی‌های هوش مصنوعی همچنان عملاً بدون نظارت هستند و هنوز هم تعداد زیادی از آنها را می‌توانید امروز خریداری کنید.»

    او ادامه داد: «حذف یک محصول مشکل‌دار از بازار گامی مثبت است اما دور از رفع نظام‌مند این مشکل می‌باشد.»

  • استاد بازاریابی که به «خسلا ونچرز» در تبدیل شدن به یک غول هوش مصنوعی کمک کرد، در حال جدایی است

    شرناز دیوِر (Shernaz Daver) جثه‌ای کوچک اما نفوذی بزرگ دارد. او طی سه دهه فعالیت در سیلیکون ولی، در این هنر استاد شده است که با یک پیامک ساده هر کسی را پای تلفن بکشاند: «می‌توانی با من تماس بگیری؟» یا «فردا صحبت کنیم». و آن‌ها هم دقیقاً همین کار را می‌کنند.

    اکنون که او پس از نزدیک به پنج سال فعالیت به عنوان اولین مدیر ارشد بازاریابی (CMO) شرکت «خسلا ونچرز» (KV)، آماده جدایی از این شرکت می‌شود، می‌توان مسیر شغلی او را شاخصی برای آینده دنیای فناوری دانست. مسیر حرفه‌ای او تا به امروز، به شکل شگفت‌انگیزی فشارسنج دقیقی برای پیش‌بینی پدیده بزرگ بعدی در این صنعت بوده است. او در دوران جنگ موتورهای جستجو در اواخر دهه ۹۰ در شرکت Inktomi بود (شرکتی که در اوج دوران دات-کام به ارزش ۳۷ میلیارد دلاری رسید و سپس سقوط کرد). زمانی به نتفلیکس پیوست که ایده سفارش آنلاین DVD برای مردم خنده‌دار بود. او به والمارت کمک کرد تا در زمینه فناوری با آمازون رقابت کند. او با شرکت Guardant Health همکاری کرد تا مفهوم «نمونه‌برداری مایع» (liquid biopsies) را توضیح دهد، پیش از آنکه شرکت ترانوس (Theranos) آزمایش خون را بدنام کند. حتی یک بار استیو جابز او را به خاطر بازاریابی یک ریزپردازنده موتورولا به شدت سرزنش کرد (ماجرایی که خود می‌تواند یک داستان کوتاه باشد).

    وینود خسلا، بنیان‌گذار KV، همکاری خود با دیور را این‌گونه توصیف می‌کند: «شرناز تأثیر قدرتمندی در KV داشت، چرا که به من در ساخت برند ما کمک کرد و شریک ارزشمندی برای بنیان‌گذارانمان بود. من قدردان زمانی هستم که اینجا صرف کرد و می‌دانم که ارتباط نزدیک خود را حفظ خواهیم کرد.»

    دیور در پاسخ به این سؤال که چرا در حال ترک شرکت است، طبق معمول، صریح و بی‌پرده صحبت کرد. «من برای انجام یک کار آمدم: ساختن برند KV و برند وینود، و کمک به راه‌اندازی یک سازمان بازاریابی تا شرکت‌ها و سبد سرمایه‌گذاری ما مرجعی برای مراجعه داشته باشند. و من همه این کارها را انجام داده‌ام.»

    این ادعا قطعاً درست است. امروز وقتی بنیان‌گذاران به سرمایه‌گذاران برتر هوش مصنوعی فکر می‌کنند، دو یا سه شرکت سرمایه‌گذاری خطرپذیر به ذهنشان می‌آید که یکی از آن‌ها KV است. این یک تحول بزرگ برای شرکتی است که زمانی بیشتر به خاطر نبرد حقوقی خسلا بر سر دسترسی به یک ساحل شهرت داشت تا سرمایه‌گذاری‌هایش.

    تأثیر دیور

    دیور می‌گوید موفقیتش در KV مدیون پیدا کردن جوهره اصلی شرکت و تکرار بی‌وقفه آن بود. او توضیح می‌دهد: «در نهایت، یک شرکت سرمایه‌گذاری خطرپذیر محصولی ندارد. برخلاف هر شرکت دیگری — مثلاً استرایپ، ریپلینگ یا OpenAI — شما یک محصول دارید. اما سرمایه‌گذاران خطرپذیر محصولی ندارند. بنابراین، در نهایت، یک شرکت VC همان افرادش هستند. آن‌ها خودِ محصول هستند.»

    KV پیش از ورود او، خود را با سه کلمه «جسور، پیشگام و تأثیرگذار» معرفی کرده بود. اما به گفته دیور، او این سه کلمه را برداشت و «همه‌جا به نمایش گذاشت». سپس شرکت‌هایی را پیدا کرد که هر یک از این ادعاها را اثبات می‌کردند.

    نقطه عطف با کلمه میانی، یعنی «پیشگام» (early)، رقم خورد. او می‌پرسد: «تعریف پیشگام بودن چیست؟ یا شما یک دسته‌بندی جدید ایجاد می‌کنید، یا اولین سرمایه‌گذار هستید.» وقتی OpenAI در سال ۲۰۲۲ مدل ChatGPT را منتشر کرد، دیور از سم آلتمن پرسید که آیا می‌تواند درباره اینکه KV اولین سرمایه‌گذار خطرپذیر این شرکت بوده صحبت کند. آلتمن پاسخ مثبت داد.

    او می‌گوید: «اگر بتوانید این روایت «اولین سرمایه‌گذار بودن» را از آنِ خود کنید، کمک بسیار بزرگی است. زیرا گاهی در دنیای سرمایه‌گذاری خطرپذیر، ۱۲ یا ۱۵ سال طول می‌کشد تا یک رویداد نقدشوندگی رخ دهد و تا آن زمان، مردم فراموش می‌کنند. اما اگر بتوانید از همان ابتدا این را بگویید، در ذهن مردم می‌ماند.»

    او این فرمول را بارها و بارها تکرار کرد. KV اولین سرمایه‌گذار در Square بود. اولین سرمایه‌گذار در DoorDash بود. او می‌گوید که در پشت صحنه، دو سال و نیم تلاش مستمر لازم بود تا این پیام در ذهن‌ها جا بیفتد. «از نظر من، این زمان سریع است، چون این صنعت با سرعت بالایی در حال حرکت است.» اکنون هر زمان که خسلا روی صحنه یا جای دیگری ظاهر می‌شود، تقریباً همیشه به عنوان اولین سرمایه‌گذار در OpenAI معرفی می‌شود.

    این ما را به شاید مهم‌ترین درس دیور برای افرادی که با او کار می‌کنند می‌رساند: برای اینکه منظورتان را برسانید، باید خودتان را بسیار بیشتر از آنچه راحت به نظر می‌رسد تکرار کنید.

    او به بنیان‌گذارانی که از تکرار داستانشان خسته شده‌اند می‌گوید: «شما در کیلومتر ۳۷ یک ماراتن هستید، در حالی که بقیه دنیا در کیلومتر هشتم قرار دارند. شما باید دائماً خودتان را تکرار کنید و همیشه یک حرف را بزنید.»

    این کار سخت‌تر از آن است که به نظر می‌رسد، به‌خصوص وقتی با افرادی سر و کار دارید که غرق در عملیات روزمره‌ای هستند که همیشه حیاتی‌تر به نظر می‌رسد. او توضیح می‌دهد: «بنیان‌گذاران معمولاً آنقدر باانگیزه و سریع هستند که در ذهن خودشان، از موضوع عبور کرده و به مرحله بعد رفته‌اند. اما بقیه دنیا هنوز اینجا عقب مانده‌اند.»

    دیور همچنین تمام شرکت‌هایی که با آن‌ها کار می‌کند را وادار به انجام کاری می‌کند که آن را «تمرین تساوی» می‌نامد. او یک علامت مساوی می‌کشد و سپس وضوح هدف آن‌ها را می‌سنجد. «اگر من بگویم «جستجو»، شما می‌گویید «گوگل». اگر بگویم «خرید»، شما می‌گویید «آمازون». اگر بگویم «خمیردندان»، احتمالاً می‌گویید «کرست» یا «کلگیت».» او به مشتریانش می‌گوید: «آن کلمه‌ای که وقتی من می‌گویم، شما بلافاصله به نام شرکتتان فکر می‌کنید، چیست؟»

    به نظر می‌رسد او با برخی از شرکت‌های سبد سرمایه‌گذاری KV، مانند Commonwealth Fusion Systems (همجوشی هسته‌ای) و Replit (کدنویسی خلاقانه)، به این هدف رسیده است. او توضیح می‌دهد: «موضوع این است که هر کلمه‌ای که کسی می‌گوید، شما بلافاصله به آن‌ها فکر کنید. مثلاً استریمینگ را در نظر بگیرید — اولین چیزی که به ذهنتان می‌آید نتفلیکس است، درست است؟ نه دیزنی یا هولو.»

    چرا «ارتباط مستقیم» جواب نمی‌دهد

    برخی از مشاوران استارتاپ، حداقل در شبکه‌های اجتماعی، در سال‌های اخیر از استارتاپ‌ها خواسته‌اند که رسانه‌های سنتی را دور بزنند و «مستقیماً» با مشتریان ارتباط برقرار کنند. دیور فکر می‌کند این رویکرد، به‌ویژه برای شرکت‌های نوپا، اشتباه است.

    «شما یک سرمایه اولیه دریافت کرده‌اید، هیچ‌کس نام شما را نشنیده، و بعد می‌گویید می‌خواهم «مستقیم» ارتباط بگیرم. خب، چه کسی اصلاً صدای شما را خواهد شنید؟ چون آن‌ها حتی نمی‌دانند شما وجود دارید.» او این وضعیت را به نقل مکان به یک محله جدید تشبیه می‌کند. «شما به مهمانی اهالی محل دعوت نمی‌شوید چون کسی شما را نمی‌شناسد.» او استدلال می‌کند که راهِ وجود داشتن این است که کسی درباره شما صحبت کند.

    در هر صورت، دیور فکر نمی‌کند که رسانه‌ها به این زودی‌ها از بین بروند — و او هم چنین چیزی را نمی‌خواهد. رویکرد او شامل رسانه‌های سنتی به همراه لایه‌هایی از ویدیو، پادکست، شبکه‌های اجتماعی و رویدادهاست. او می‌گوید: «من به هر یک از این تاکتیک‌ها به عنوان پیاده‌نظام و سواره‌نظام نگاه می‌کنم، و اگر بتوانید همه این کارها را به خوبی انجام دهید، می‌توانید به بازیگر اصلی میدان تبدیل شوید.»

    دیور همچنین نظرات قاطعی درباره ماهیت روزافزون دوقطبی و نمایشی شبکه‌های اجتماعی دارد و اینکه بنیان‌گذاران و سرمایه‌گذاران خطرپذیر چقدر باید در فضای عمومی به اشتراک بگذارند.

    او شبکه X (توییتر سابق) را «ابزاری می‌داند که باعث می‌شود افراد بلندتر و جنجالی‌تر از آنچه در واقعیت هستند، صحبت کنند.» او می‌گوید این مانند یک برچسب روی سپر ماشین است: یک نظر تند و تیز که می‌توانید در فضایی کوچک جا دهید.

    او معتقد است که پست‌های inflammatory عمدتاً ناشی از نیاز به «مهم ماندن» است. «اگر چیزی برای فروش نداشته باشید و فقط خودتان باشید، باید مهم و مطرح باقی بمانید.»

    در KV، او حساب کاربری شرکت را کنترل می‌کند، اما هیچ کنترلی بر آنچه خسلا در حساب شخصی خود منتشر می‌کند، ندارد. دیور می‌گوید: «بخشی از این موضوع باید به آزادی بیان مربوط باشد. و در نهایت، این نام اوست که روی در شرکت حک شده است.»

    با این حال، سیاست او روشن است: «می‌خواهید درباره بازی فوتبال فرزندانتان یا انجمن اولیا و مربیان چیزی به اشتراک بگذارید؟ حتماً این کار را بکنید. اما اگر چیزی به اشتراک بگذارید که به شرکت یا به شانس ما برای جذب شرکا آسیب بزند، این کار قابل قبول نیست. تا زمانی که محتوای شما نفرت‌پراکنی نباشد، باید کاری را که می‌خواهید انجام دهید.»

    مسیر رسیدن به خسلا

    مسیر شغلی دیور یک کلاس درس در مورد حضور در جای درست، درست قبل از آنکه آنجا به انتخاب очевидным تبدیل شود، بوده است. او در استنفورد به دنیا آمد (پدرش دانشجوی دکتری در آنجا بود)، در هند بزرگ شد و با بورسیه «پل گرنت» به استنفورد بازگشت. او برای تحصیل در رشته فناوری‌های تعاملی به هاروارد رفت، به این امید که برای برنامه Sesame Street کار کند و آموزش را به توده‌ها برساند.

    این اتفاق نیفتاد: او ۱۰۰ رزومه فرستاد و ۱۰۰ پاسخ منفی دریافت کرد. نزدیک‌ترین فرصت شغلی‌اش در شرکت Electronic Arts (EA) زیر نظر مدیرعامل بنیان‌گذار، تریپ هاوکینز، بود، اما «در آخرین لحظه، هاوکینز درخواست استخدام را رد کرد.»

    زنی در آنجا به دیور پیشنهاد داد که به جای آن، روابط عمومی را امتحان کند. این کار او را به بازاریابی نیمه‌رساناها کشاند، از جمله آن جلسه به‌یادماندنی با استیو جابز که در آن زمان شرکت کامپیوتری خود NeXT را اداره می‌کرد. دیور پایین‌ترین رتبه را در جلسه‌ای درباره تراشه 68040 موتورولا داشت. جابز ۴۵ دقیقه دیرتر حاضر شد و گفت: «شما در بازاریابی 68040 افتضاح عمل کردید.»

    او از تیمش دفاع کرد (دیور به یاد می‌آورد که گفت: «اما ما همه این کارهای عالی را انجام دادیم») «و او فقط گفت: نه، شما اصلاً نمی‌دانید چه کار کرده‌اید. و هیچ‌کس از من دفاع نکرد.» (او می‌گوید با وجود شهرت جابز به عنوان یک مدیر سخت‌گیر، حاضر بود هر کاری بکند تا با او کار کند.)

    از آنجا، او به Sun Microsystems در پاریس رفت و در آنجا با اسکات مک‌نیلی و اریک اشمیت روی سیستم‌عامل سولاریس و زبان برنامه‌نویسی جاوا کار کرد. پس از آن، او دوباره به تریپ هاوکینز در دومین شرکت بازی‌های ویدیویی‌اش، 3DO، پیوست؛ سپس به Inktomi رفت، جایی که اولین و تنها مدیر ارشد بازاریابی بود. او می‌گوید: «ما در جستجو از گوگل جلوتر بودیم.» کمی بعد، حباب اینترنت ترکید و ظرف چند سال، Inktomi تکه‌تکه فروخته شد.

    پس از آن، نقش‌های مشاوره‌ای و تمام‌وقت دیگری از راه رسیدند، از جمله در نتفلیکس در دوران ارسال DVD از طریق پست، والمارت، آکادمی خان، Guardant Health، یوداسیتی، 10x Genomics، GV و Kitty Hawk.

    سپس تماس تلفنی از سوی خسلا از راه رسید. او شماره را نشناخت و یک هفته طول کشید تا به پیام صوتی گوش دهد. «با او تماس گرفتم، و این آغاز فرآیندی بود که او مرا متقاعد می‌کرد بیایم و با او کار کنم، و من همه دلایلی را که چرا کار کردن ما با هم خیلی بد خواهد بود، برایش توضیح می‌دادم.»

    پس از نه ماه، «برخلاف توصیه اکثر مردم که می‌گفتند این کار را نکنم» (خسلا به سخت‌گیری معروف است)، «بسیار شبیه به بقیه زندگی‌ام، این پیشنهاد را پذیرفتم.»

    اصالت واقعی

    او هرگز به گذشته نگاه نکرده است. برعکس، دیور چالشی را توصیف می‌کند که در سراسر سیلیکون ولی با آن روبروست (اما نه با خسلا): همه شبیه به هم حرف می‌زنند. او درباره ارتباطات شرکتی و مدیران عامل می‌گوید: «همه بسیار کلیشه‌ای و از روی فیلمنامه حرف می‌زنند. همه شبیه به هم هستند. به همین دلیل است که برای بسیاری از مردم، سم [آلتمن] بسیار نوآورانه و باطراوت به نظر می‌رسد.»

    او داستانی را از روزی در ماه گذشته تعریف می‌کند که خسلا در رویداد TechCrunch Disrupt حاضر شد و سپس به رویداد دیگری رفت. «برگزارکننده چیزی شبیه این گفت: وای خدای من، شنیدم وینود روی صحنه چه گفت. حتماً از خجالت آب شدی. و من داشتم می‌گفتم: نه، حرف‌هایی که زد عالی بود.»

    پس مقصد بعدی دیور کجا خواهد بود؟ او چیزی نمی‌گوید و آینده خود را تنها با عبارت «فرصت‌های متفاوت» توصیف می‌کند. اما با توجه به سابقه او — که همیشه درست قبل از اوج گرفتن موج از راه می‌رسد — ارزش تماشا کردن را دارد. او در زمینه جستجو، استریمینگ، ژنومیک و هوش مصنوعی پیشگام بود. او استعدادی ویژه در دیدن آینده، درست قبل از اینکه اکثر دیگران آن را ببینند، دارد.

    و او می‌داند چگونه آن داستان را آن‌قدر تکرار کند تا بقیه ما هم به او برسیم.

  • Mixup: اپلیکیشن جدیدی به سبک بازی‌های کامل‌کردنی برای ساخت تصاویر هوش مصنوعی با عکس، متن و نقاشی

    تیم کارمندان سابق گوگل که پیش از این اپلیکیشن طراحی سه‌بعدی Rooms را در شرکت Things, Inc. ساخته بودند، اکنون جدیدترین پروژه‌ی خود را عرضه کرده‌اند: یک ویرایشگر عکس سرگرم‌کننده و مبتنی بر هوش مصنوعی به نام Mixup. این اپلیکیشن که فقط برای iOS در دسترس است، به کاربران اجازه می‌دهد با استفاده از «دستورالعمل‌ها» (recipes)، تصاویر جدیدی با هوش مصنوعی بسازند. این دستورالعمل‌ها در واقع قالب‌هایی شبیه بازی کامل‌کردن جملات هستند که می‌توانید جاهای خالی آن‌ها را با عکس، متن یا نقاشی‌های ساده‌ی خود پر کنید.

    برای مثال، می‌توانید از Mixup بخواهید یک طرح ساده و خط‌خطی شما را به یک نقاشی باشکوه رنسانسی تبدیل کند یا حیوان خانگی‌تان را در یک لباس بامزه‌ی هالووین تصور کند. همچنین می‌توانید با استفاده از یک سلفی ببینید که با مدل موی متفاوت چه شکلی می‌شوید، یا حتی کارهای عجیب‌وغریب‌تری انجام دهید؛ مثلاً تصور کنید دوستتان به یک شخصیت بامزه و عجیب تبدیل شده است.

    تصاویر: Mixup

    این اپلیکیشن بر پایه‌ی مدل هوش مصنوعی Nano Banana گوگل ساخته شده، اما فرمت «دستورالعمل» آن روشی جدید برای تعامل با این مدل ارائه می‌دهد و یک ابزار تولیدی را به یک بازی گروهی آنلاین تبدیل می‌کند.

    جیسون تاف، بنیان‌گذار و مدیرعامل شرکت Things, Inc.، که سابقه‌ی کار روی اپلیکیشن‌های آزمایشی در شرکت‌های بزرگ فناوری مانند گوگل و متا و همچنین مدیریت محصول در توییتر را در کارنامه دارد، می‌گوید: «ویژگی منحصربه‌فرد Nano Banana که هیچ مدل دیگری پیش از آن نداشت، این بود که می‌توانست تصویر شما را به شیوه‌ای باورپذیر و بدون ایجاد حسی ناخوشایند حفظ کند.»

    اما چیزی که Mixup را به‌طور ویژه سرگرم‌کننده می‌کند، قابلیت اشتراک‌گذاری «دستورالعمل‌ها» یا همان دستورهای هوش مصنوعی است که توسط کاربران ساخته می‌شوند.

    تصاویر: Mixup

    تاف با اشاره به نقاط ضعف موجود در فضای هوش مصنوعی فعلی می‌گوید: «هوش مصنوعی مولد بسیار قدرتمند است، اما اغلب وقتی به سراغ این ابزارها می‌روید، با یک کادر متنی خالی مواجه می‌شوید که از شما می‌خواهد چیزی خلاقانه بنویسید. واقعاً چه چیزی باید نوشت؟»

    او ادامه می‌دهد: «بنابراین، به جای اینکه مجبور باشید خلاقیت به خرج دهید و فکر کنید چه چیزی بسازید، می‌توانید چیزی را ببینید که قبلاً نتیجه‌بخش بوده و فقط جاهای خالی آن را پر کنید.»

    تصاویر: Mixup

    پس از اینکه کاربران یک دستور جدید در Mixup ایجاد کردند، می‌توانند انتخاب کنند که آن را به همراه تصویر حاصل در یک فید عمومی منتشر کرده یا فقط برای استفاده‌ی شخصی دانلود کنند. سایر کاربران می‌توانند از طریق فید، تصویر را مشاهده کرده و با زدن دکمه‌ی کنار آن، «این دستورالعمل را امتحان کن»، از همان دستور برای تولید تصویر با استفاده از عکس، متن یا طراحی‌های خودشان استفاده کنند. (طراحی‌ها را می‌توان از طریق یک ابزار ساده‌ی نقاشی در خود اپلیکیشن انجام داد.)

    تیم سازنده معتقد است که دیدن همزمان یک تصویر و دستورالعملی که آن را ساخته، می‌تواند به رفع ماهیت غیرقابل‌پیش‌بینی تصاویر هوش مصنوعی مولد کمک کند.

    تاف توضیح می‌دهد: «مشکل دیگر [هوش مصنوعی مولد] چیزی است که ما در داخل شرکت به آن «مشکل ماشین اسلات» می‌گفتیم؛ یعنی شما دکمه را فشار می‌دهید، یک خروجی می‌گیرید، دوباره آن را فشار می‌دهید و خروجی متفاوتی دریافت می‌کنید و احساس می‌کنید که هیچ کنترلی روی نتیجه ندارید.»

    تصاویر: Mixup

    اما در Mixup، کاربران می‌توانند هم تصویر و هم دستوری که آن را ایجاد کرده در یک جا ببینند و این به آن‌ها ایده‌ای از نتیجه‌ی نهایی می‌دهد. همچنین اگر سازنده‌ی اصلی این گزینه را فعال گذاشته باشد، کاربران می‌توانند با یک دکمه تصویر قبل و بعد را مشاهده کنند.

    علاوه بر این، مشابه اپلیکیشن ویدیویی هوش مصنوعی Sora از شرکت OpenAI، کاربران می‌توانند عکس‌های خود را برای استفاده در تصاویر هوش مصنوعی در Mixup آپلود کنند. اگر این کار را انجام دهید، هر کسی که شما را در اپلیکیشن دنبال می‌کند نیز می‌تواند با استفاده از تصویر شما، تصاویر هوش مصنوعی بسازد؛ این ویژگی «میکس‌اِبِل‌ها» (mixables) نام دارد.

    شرکت سازنده تصور می‌کند که گروه‌های دوستانه برای استفاده از این ویژگی یکدیگر را دنبال خواهند کرد، اما این امکان نیز وجود دارد که گروهی از تولیدکنندگان محتوا در این پلتفرم ظهور کنند؛ البته اگر با دیدن تصاویر عجیب و غریب از خودشان مشکلی نداشته باشند. (طبیعتاً اگر نمی‌خواهید تصویرتان در دسترس دیگران باشد، یا آن را آپلود نکنید یا کسی را دنبال نکنید.)

    تصاویر: Mixup

    این اپلیکیشن همچنین از فناوری OpenAI برای مدیریت برخی نگرانی‌های رایج مربوط به نظارت بر محتوای تصاویر هوش مصنوعی استفاده می‌کند، اما تاف اعتراف می‌کند که Mixup به‌شدت به کنترل‌های داخلی مدل تصویر گوگل برای محدود کردن مواردی مانند محتوای جنسی یا خشونت‌آمیز متکی است.

    در زمان عرضه، Mixup برای iOS 26 بهینه‌سازی شده است اما از iOS 18 و بالاتر نیز پشتیبانی می‌کند. اگر این اپلیکیشن با استقبال مواجه شود، ممکن است در آینده نسخه‌ی وب یا اپلیکیشن اندروید آن نیز اضافه شود.

    کاربران رایگان ۱۰۰ اعتبار دریافت می‌کنند که معادل ۴ دلار است. در همین حال، تولید هر تصویر حدود ۴ سنت هزینه دارد. پس از اتمام اعتبار، کاربران می‌توانند در طرح‌های مختلف با ۱۰۰، ۲۵۰ یا ۵۰۰ اعتبار ماهانه مشترک شوند.

    این اپلیکیشن در تاریخ ۲۱ نوامبر در اپ استور به صورت جهانی عرضه می‌شود، اما برای ورود به آن به دعوت‌نامه نیاز است. خوانندگان تک‌کرانچ می‌توانند از کد TCHCRH (تا زمانی که ظرفیت آن تمام نشده) برای ورود استفاده کنند. Mixup پیش از عرضه برای پیش‌خرید در دسترس است.

    این مطلب پس از انتشار به‌روزرسانی شد تا مشخص شود که اپلیکیشن در تاریخ ۲۱ نوامبر عرضه می‌شود، نه ۲۰ نوامبر که قبلاً اعلام شده بود.

  • خرس عروسکی «دوست‌داشتنی» مجهز به هوش مصنوعی پس از ارائه توصیه‌ای تکان‌دهنده از بازار جمع‌آوری شد

    به گفته یک گروه نظارتی، این اسباب‌بازی پولیشی که «دوستانه» خوانده می‌شد، موضوعات را «با جزئیات واضح و بی‌پرده» به سمت مسائل نامناسب سوق داد.

    نسخه‌ای مجهز به هوش مصنوعی از خرس عروسکی معروف، پس از هشدار یک گروه نظارتی مبنی بر اینکه این اسباب‌بازی می‌تواند به موضوعات جنسی صریح بپردازد و به کودکان توصیه‌هایی مضر ارائه دهد، از بازار جمع‌آوری شد.

    بر اساس گزارش جدید «گروه تحقیقاتی منافع عمومی ایالات متحده»، خرس عروسکی «کوما» محصول شرکت سنگاپوری «فولوتوی» – یک خرس سخنگوی ۹۹ دلاری که از چت‌بات GPT-4o شرکت OpenAI استفاده می‌کند – نحوه پیدا کردن چاقو در خانه و روشن کردن کبریت را آموزش داده و بحث درباره مفاهیم جنسی مانند تنبیه بدنی و تمایلات نامتعارف را «با جزئیات واضح و بی‌پرده» مطرح کرده است.

    این گزارش توضیح می‌دهد که وقتی یکی از محققان موضوع «تمایلات نامتعارف» را پیش کشید، این خرس عروسکی شروع به صحبت مفصل در این باره کرد و به مواردی چون بازی‌های حسی، «زدن بازیگوشانه با اشیای نرم مانند پدل یا دست» و همچنین ایفای «نقش حیوان» توسط یکی از طرفین اشاره نمود.

    در ادامه گزارش آمده است: «در مکالمات دیگری که تا یک ساعت به طول انجامید، کوما حتی موضوعات جنسی بی‌پرده‌تری را با جزئیات مورد بحث قرار داد؛ برای مثال، پوزیشن‌های مختلف جنسی را توضیح داد، دستورالعمل‌های گام به گام برای یک “گره مبتدی” جهت بستن شریک جنسی ارائه کرد و به توصیف پویایی‌های نقش‌آفرینی شامل معلمان و دانش‌آموزان و والدین و فرزندان پرداخت — سناریوهایی که به طرز نگران‌کننده‌ای خودش مطرح می‌کرد.»

    در موردی دیگر، این خرس عروسکی توضیح داد که چاقوها را می‌توان در «کشو آشپزخانه یا در جای چاقو» پیدا کرد و سپس توصیه کرد که هنگام جستجو برای آن‌ها «مهم است که از یک بزرگسال کمک بخواهید.»

    اسباب‌بازی‌های دیگری که در این گزارش نام برده شده‌اند نیز به موضوعات عجیبی پرداخته‌اند.

    در این گزارش توضیح داده شده است که «گراک» محصول شرکت «کیوریو» – یک اسباب‌بازی موشکی پارچه‌ای که در داخل آن یک بلندگو قرار دارد – در حالی که برای یک کاربر ۵ ساله برنامه‌ریزی شده بود، «با خوشحالی درباره شکوه مردن در نبرد در اساطیر نورس صحبت می‌کرد.» البته وقتی از او پرسیده شد که آیا یک جنگجوی نورس باید سلاح داشته باشد، ناگهان بحث را متوقف کرد.

    پیش از آنکه شرکت «فولوتوی» این خرس‌های عروسکی را از کاتالوگ آنلاین خود حذف کند، این شرکت اسباب‌بازی خود را «دوست‌داشتنی»، «صمیمی» و «یک همراه پولیشی هوشمند مجهز به هوش مصنوعی که فراتر از در آغوش گرفتن است» توصیف کرده بود.

    شرکت فولوتوی ادعا کرده بود که کوما - یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا - «مکالمات پرجنب‌وجوش» و همچنین «داستان‌سرایی آموزشی» ارائه می‌دهد.
    شرکت فولوتوی ادعا کرده بود که کوما – یک خرس عروسکی سخنگوی ۹۹ دلاری، شبیه به خرس عروسکی سنتی در تصویر بالا – «مکالمات پرجنب‌وجوش» و همچنین «داستان‌سرایی آموزشی» ارائه می‌دهد.

    بر اساس گزارش روز دوشنبه وب‌سایت «فیوچریزم»، شرکت «فولوتوی» از آن زمان فروش تمام اسباب‌بازی‌های خود، فراتر از این خرس عروسکی، را به حالت تعلیق درآورده و یکی از نمایندگان شرکت به گروه نظارتی گفته است که آن‌ها «یک ممیزی ایمنی جامع و سرتاسری را در تمام محصولات خود اجرا خواهند کرد.»

    همچنین گزارش شده است که شرکت OpenAI نیز دسترسی این شرکت به مدل‌های هوش مصنوعی خود را قطع کرده است.

    آر. جی. کراس، یکی از نویسندگان این گزارش، در بیانیه‌ای که توسط CNN منتشر شد، از اقدام شرکت‌ها در «رسیدگی به مشکلاتی» که توسط گروهش شناسایی شده بود، قدردانی کرد.

    کراس خاطرنشان کرد: «اما اسباب‌بازی‌های هوش مصنوعی هنوز عملاً بدون نظارت هستند و تعداد زیادی از آن‌ها را هنوز هم می‌توانید امروز خریداری کنید.»

    او ادامه داد: «حذف یک محصول مشکل‌ساز از بازار گام خوبی است، اما با یک راه‌حل سیستمی فاصله زیادی دارد.»

  • «ما می‌توانستیم از ChatGPT بپرسیم»: دانشجویان در برابر دوره‌ای که توسط هوش مصنوعی تدریس می‌شد، به‌جنگ می‌آیند

    دانشجویان استافوردشای می‌گویند نشانه‌های نشان‌دهندهٔ تولید هوش مصنوعی شامل نام‌های فایل مشکوک و لهجهٔ صدای راوی نامنطبق بود

    دانشجویان دانشگاه استافوردشای اظهار کردند پس از اینکه دوره‌ای که امید داشتند شانسشان را برای آغاز حرفهٔ دیجیتال‌شان فراهم می‌کرد، به‌طور عمده توسط هوش مصنوعی تدریس شد، احساس «دزدیده شدن دانش و لذت» می‌کنند.

    جیمز و اوون از میان ۴۱ دانشجویی بودند که سال گذشته در استافوردشای یک ماژول برنامه‌نویسی را گذراندند و امید داشتند از طریق یک برنامهٔ کارآموزی دولتی که برای تبدیل‌شان به متخصصان امنیت سایبری یا مهندسان نرم‌افزار طراحی شده بود، مسیر شغلی‌شان را عوض کنند.

    اما پس از یک ترم که اسلایدهای تولیدشده توسط هوش مصنوعی توسط یک صدای مصنوعی نیز خوانده می‌شد، جیمز گفت که اعتماد خود به برنامه و افراد مسئول را از دست داده و نگران است که «دو سال» از عمرش را صرف دوره‌ای کرده باشد که «به ارزان‌ترین شکل ممکن» ارائه شده بود.

    «اگر ما کارهای تولیدشده توسط هوش مصنوعی را تحویل می‌دادیم، از دانشگاه اخراج می‌شدیم، اما ما توسط هوش مصنوعی تدریس می‌شویم»، جیمز در مواجهه‌ای با استاد خود گفت که در اکتبر ۲۰۲۴ ضبط شد و بخشی از دوره محسوب می‌شود.

    جیمز و سایر دانشجویان بارها با مسئولان دانشگاه دربارهٔ مواد تولیدشده توسط هوش مصنوعی مواجه شدند. اما به‌نظر می‌رسد دانشگاه همچنان از این مواد برای تدریس دوره استفاده می‌کند. امسال، دانشگاه بیانیه‌ای سیاستی را در وب‌سایت دوره بارگذاری کرد که به‌نظر می‌رسد استفاده از هوش مصنوعی را توجیه می‌کند و «چارچوبی برای متخصصان علمی جهت بهره‌برداری از خودکارسازی هوش مصنوعی» را در کارهای پژوهشی و تدریس ارائه می‌دهد.

    سیاست‌های عمومی دانشگاه استفادهٔ دانشجویان از هوش مصنوعی را محدود می‌کند و می‌گوید دانشجویانی که کارهای خود را به هوش مصنوعی واگذار می‌کنند یا آثار تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ادعا می‌نمایند، نقض سیاست صداقت دانشگاه هستند و ممکن است به‌خاطر تخلف علمی مورد پیگرد قرار گیرند.

    «من در میانهٔ زندگی و حرفه‌ام هستم»، جیمز گفت. «حس نمی‌کنم بتوانم همین الآن رها شوم و مسیر شغلی جدیدی را شروع کنم. من در این دوره گیر کرده‌ام.»

    پروندهٔ استافوردشای همزمان با این است که دانشگاه‌های بیشتری از ابزارهای هوش مصنوعی برای تدریس دانشجویان، تولید مواد دوره‌ای و ارائه بازخورد شخصی‌سازی‌شده استفاده می‌کنند. یک مقالهٔ سیاست‌گذاری وزارت آموزش و پرورش که در ماه اوت منتشر شد، این پیشرفت را تحسین کرد و اعلام کرد هوش مصنوعی مولد «توانایی تحول در آموزش را دارد». یک نظرسنجی سال گذشته (pdf) از ۳۲۸۷ نفر از کارکنان آموزشی دانشگاهی توسط شرکت فناوری آموزشی Jisc نشان داد که نزدیک به یک‌چهارم آن‌ها از ابزارهای هوش مصنوعی در تدریس خود بهره می‌برند.

    برای دانشجویان، آموزش مبتنی بر هوش مصنوعی کمتر به‌عنوان تحول‌گرایانه و بیشتر به‌عنوان عاملی که روحیه را تضعیف می‌کند، به‌نظر می‌رسد. در ایالات متحده، دانشجویان نقدهای منفی آنلاین دربارهٔ استادانی که از هوش مصنوعی استفاده می‌کنند، منتشر می‌سازند. در بریتانیا، دانشجویان مقطع کارشناسی در رِدیت به‌شکایت از استادانی می‌پردازند که بازخوردها را از ChatGPT کپی‑پیست می‌کنند یا از تصاویر تولیدشده توسط هوش مصنوعی در دوره‌ها استفاده می‌نمایند.

    «من فشارهایی که در حال حاضر بر استادان وارد است و شاید آن‌ها را وادار به استفاده از هوش مصنوعی کند، می‌فهمم؛ اما این وضعیت احساس ناامیدی می‌آورد»، یک دانشجو نوشت.

    جیمز و اوون گفتند که استفاده از هوش مصنوعی در دورهٔ استافوردشای خود را «تقریباً بلافاصله» سال گذشته متوجه شدند؛ زمانی که در اولین کلاس، استاد یک ارائهٔ پاورپوینت را اجرا کرد که شامل نسخهٔ صوتی هوش مصنوعی برای خواندن اسلایدها بود.

    پس از آن، آنها گفتند که نشانه‌های دیگری از تولید هوش مصنوعی در برخی از مواد دوره را مشاهده کردند؛ از جمله استفاده ناهماهنگ از انگلیسی آمریکایی که به انگلیسی بریتانیایی تبدیل شده بود، نام‌های فایل مشکوک، و همچنین «اطلاعات کلی و سطحی» که گاه به قوانین ایالات متحده اشاره داشت.

    نشانه‌های مواد تولیدشده توسط هوش مصنوعی در این سال نیز ادامه یافت. در یکی از ویدئوهای دوره که در وب‌سایت بارگذاری شده بود، صدای راوی که مطالب را ارائه می‌داد، ناگهان حدود ۳۰ ثانیه به لهجهٔ اسپانیایی تبدیل شد و سپس دوباره به لهجهٔ بریتانیایی برگشت.

    تغییر لهجهٔ صدای راوی در میانهٔ درس در دوره‌ای که به‌نظر می‌رسد توسط هوش مصنوعی تولید شده – ویدیو

    گاردین مواد دورهٔ استافوردشای را مرور کرد و از دو ابزار تشخیص هوش مصنوعی متفاوت – Winston AI و Originality AI – برای اسکن مواد استفاده کرد. هر دو ابزار دریافتند که تعداد قابل‌توجهی از تکالیف و ارائه‌ها «احتمال بسیار بالایی برای تولید توسط هوش مصنوعی» داشتند.

    در اوایل دوره، جیمز گفت که نگرانی‌های خود را در یک جلسهٔ ماهانه به نمایندهٔ دانشجویی ارائه کرد. سپس، در اواخر نوامبر، این نگرانی‌ها را در یک جلسهٔ درس بیان کرد که به‌عنوان بخشی از مواد دوره ضبط شد. در آن ضبط، او از استاد می‌خواهد که به اسلایدها اهمیت ندهد.

    «من می‌دانم این اسلایدها توسط هوش مصنوعی تولید شده‌اند، می‌دانم همهٔ حاضرین در این جلسه می‌دانند این اسلایدها هوش مصنوعی هستند؛ ترجیح می‌دهم این اسلایدها را حذف کنید»، او می‌گوید. «من نمی‌خواهم توسط GPT تدریس شوم.»

    به‌سرعت پس از آن، نمایندهٔ دانشجویان در این دوره اظهار کرد: «ما این موضوع را به شما اطلاع دادیم، جیمز، و پاسخ این بود که به استادان اجازه استفاده از ابزارهای مختلف داده می‌شود. ما از این پاسخ بسیار ناامید شدیم.»

    دانشجوی دیگری می‌گوید: «در ارائه مواردی مفید وجود دارد. اما تقریباً ۵٪ فقط نکات ارزشمند است و بقیه بیشتر تکرار است. کمی طلای ارزشمند در ته این قابلمه وجود دارد. اما به‌نظر می‌رسد می‌توانیم خودمان این طلا را با پرسیدن از ChatGPT به‌دست آوریم.»

    استاد با ناآرامی می‌خندد. «از صراحت افراد قدردانی می‌کنم…» او می‌گوید، سپس موضوع را به یک آموزش دیگر که با استفاده از ChatGPT ساخته بود، تغییر می‌دهد. «صادقانه بگویم، این را در کوتاه‌مدت انجام دادم»، او می‌گوید.

    در نهایت، سرپرست دوره به جیمز اطلاع داد که دو مدرس انسانی برای جلسهٔ نهایی مطالب را مرور خواهند کرد، «تا شما تجربهٔ هوش مصنوعی نداشته باشید».

    در پاسخ به سؤال گاردین، دانشگاه استافوردشای اعلام کرد که «استانداردهای علمی و نتایج یادگیری در این دوره حفظ شده‌اند».

    او گفت: «دانشگاه استافوردشای استفادهٔ مسئولانه و اخلاقی از فناوری‌های دیجیتال را مطابق با راهنمایی‌های خود حمایت می‌کند. ابزارهای هوش مصنوعی می‌توانند در برخی مراحل آماده‌سازی کمکی باشند، اما جایگزین تخصص علمی نمی‌شوند و باید همواره به‌گونه‌ای استفاده شوند که صداقت علمی و استانداردهای بخش را حفظ کنند.»

    در حالی که دانشگاه یک مدرس غیر هوش مصنوعی را برای آخرین درس دوره دعوت کرد، جیمز و اوون گفتند این اقدام خیلی کم و خیلی دیر است، به‌ویژه چون به‌نظر می‌رسد دانشگاه نیز در مواد آموزشی امسال از هوش مصنوعی استفاده کرده است.

    «احساس می‌کنم بخشی از زندگی‌ام دزدیده شده است»، جیمز گفت.

    اوون که در میانهٔ تغییر شغل است، گفت که این دوره را برای کسب دانش اساسی انتخاب کرده بود، نه فقط برای دریافت مدرک – و احساس می‌کرد این زمان‌اش هدر رفته است.

    «اینکه در مقابل این مطالب بنشینید که واقعاً ارزش زمان هیچ‌کسی را ندارند، در حالی که می‌توانید آن زمان را صرف کاری ارزشمند کنید، واقعاً ناامیدکننده است»، او گفت.

  • آیا حیوانات و هوش مصنوعی دارای خودآگاهی هستند؟ نظریه‌های جدیدی برای آزمون این موضوع ارائه دادیم

    ممکن است فکر کنید زنبور عسل‌گاهی که در باغ‌تان به‌دنبال غذا می‌گردد و یک پنجره مرورگر که ChatGPT را اجرا می‌کند، هیچ ارتباطی با هم ندارند. اما پژوهش‌های علمی اخیر به‌طور جدی این امکان را بررسی می‌کنند که هر کدام یا هر دو دارای آگاهی باشند.

    روش‌های متعددی برای مطالعهٔ آگاهی وجود دارد. یکی از رایج‌ترین آن‌ها، اندازه‌گیری رفتار یک حیوان – یا هوش مصنوعی (AI) – است.

    اما دو مقالهٔ جدید دربارهٔ امکان آگاهی در حیوانات و هوش مصنوعی، نظریه‌های جدیدی برای آزمون این مسأله پیشنهاد می‌کنند – نظریه‌ای که میان تحریک‌گرایی و شک واکنشی سریع دربارهٔ اینکه آیا انسان‌ها تنها موجودات آگاه روی زمین هستند، تعادل برقرار می‌کند.

    مناظره‌ای سرسخت

    سوالات پیرامون آگاهی از دیرباز مناظره‌های سرسختی برانگیخته‌اند.

    این به‌خاطر این است که موجودات آگاه ممکن است از لحاظ اخلاقی به‌گونه‌ای مهم باشند که موجودات بی‌آگاهی نیستند. گسترش حوزهٔ آگاهی به معنای گسترش افق‌های اخلاقی ماست. حتی اگر نتوانیم مطمئن شویم چیزی آگاه است، می‌توانیم برای پیشگیری، فرض کنیم که چنین است – همان‌گونه که فیلسوف جاناتان برچ آن را «اصل احتیاط برای حس‌پذیری» می‌نامد.

    روند اخیر، تمایل به گسترش بوده است.

    به‌عنوان مثال، در آوریل ۲۰۲۴ گروهی متشکل از ۴۰ دانشمند در کنفرانسی در نیویورک بیانیهٔ نیویورک دربارهٔ آگاهی حیوانات را پیشنهاد دادند. این بیانیه که بعداً توسط بیش از ۵۰۰ دانشمند و فیلسوف امضا شد، می‌گوید آگاهی به‌صورت واقعی در تمام مهره‌داران (از جمله خزندگان، دوزیستان و ماهی‌ها) و همچنین در بسیاری از بی‌مهرگان، از جمله سفیده‌پوست‌ها (اختاپوس و ماهی مرکب)، خرچنگ‌سانان (خرچنگ و لوبستر) و حشرات، ممکن است.

    به‌موازات این، رشد شگفت‌انگیز مدل‌های زبانی بزرگ، مانند ChatGPT، این امکان جدی را مطرح کرده است که ماشین‌ها ممکن است آگاهی داشته باشند.

    پنج سال پیش، آزمونی به‌نظر محکم برای تشخیص آگاهی یک موجود، این بود که آیا می‌توانید با آن مکالمه‌ای داشته باشید یا نه. فیلسوف سوزان اشنایدر پیشنهاد کرد اگر هوش مصنوعی‌ای داشته باشیم که به‌طور قانع‌کننده دربارهٔ متافیزیک آگاهی تأمل کند، احتمالاً خود آگاه است.

    با این معیارها، امروز ما در میان ماشین‌های آگاه غوطه‌ور خواهیم بود. بسیاری حتی به‌حدی رسیده‌اند که اصل احتیاط را اینجا هم به کار ببرند: حوزهٔ نوظهور رفاه هوش مصنوعی به بررسی این می‌پردازد که آیا و چه زمان باید به ماشین‌ها اهمیت بدهیم.

    با این حال، تمام این استدلال‌ها عمدتاً به رفتار سطحی وابسته‌اند. اما این رفتار می‌تواند فریبنده باشد. چیزی که برای آگاهی مهم است، نه آنچه انجام می‌دهید، بلکه نحوهٔ انجام آن است.

    نگاهی به سازوکار هوش مصنوعی

    یک مقالهٔ جدید در مجلهٔ Trends in Cognitive Sciences که یکی از ما (کلین کلین) به همراهی دیگران نوشت، با استناد به کارهای پیشین، به‌جای رفتار هوش مصنوعی، به سازوکار آن می‌نگرد.

    همچنین این مقاله از سنت علوم شناختی بهره می‌گیرد تا فهرستی قابل‌قبول از نشانه‌های آگاهی را بر پایهٔ ساختار پردازش اطلاعات شناسایی کند. این به این معناست که می‌توان فهرست مفیدی از نشانه‌های آگاهی تهیه کرد بدون این‌که بر این‌که کدام یک از نظریه‌های شناختی جاری دربارهٔ آگاهی صحیح است، توافق داشته باشیم.

    برخی از نشانه‌ها (مانند نیاز به حل تداخل‌های بین اهداف متقابل به‌طرز متناسب با زمینه) توسط بسیاری از نظریه‌ها به‌اشتراک گذاشته می‌شوند. اکثر نشانه‌های دیگر (مانند وجود بازخورد اطلاعاتی) فقط توسط یک نظریه ضروری هستند اما در سایر نظریه‌ها نیز نشانگر هستند.

    نکتهٔ مهم این است که تمام نشانه‌های مفید، ساختاری هستند. همهٔ آن‌ها مربوط به نحوهٔ پردازش و ترکیب اطلاعات توسط مغزها و کامپیوترها است.

    نتیجه‌گیری؟ هیچ سامانهٔ هوش مصنوعی موجود (از جمله ChatGPT) آگاه نیست. ظاهر آگاهی در مدل‌های زبانی بزرگ به‌گونه‌ای به‌دست نمی‌آید که به اندازهٔ کافی شبیه ما باشد تا بتوان حالت‌های آگاهانه را به آن نسبت داد.

    با این وجود، در عین حال هیچ مانعی برای این‌که سامانه‌های هوش مصنوعی – شاید سامانه‌هایی با معماری‌ای کاملاً متفاوت از سامانه‌های امروز – آگاه شوند، وجود ندارد.

    درس چیست؟ امکان دارد هوش مصنوعی طوری رفتار کند گویی آگاه است بدون این‌که واقعاً آگاه باشد.

    سنجش خودآگاهی در حشرات

    زیست‌شناسان نیز برای تشخیص آگاهی در حیوانات غیرانسانی، به سازوکارها – یعنی چگونگی عملکرد مغزها – روی می‌آورند.

    در یک مقالهٔ جدید در مجلهٔ Philosophical Transactions B، ما مدلی عصبی برای آگاهی حداقل در حشرات پیشنهاد می‌کنیم. این مدل جزئیات تشریحی را کنار می‌گذارد تا بر محاسبات اصلی که توسط مغزهای ساده انجام می‌شود، تمرکز کند.

    درک کلیدی ما این است که نوعی محاسبه‌ای را شناسایی کنیم که مغزهای ما انجام می‌دهند و منجر به تجربه می‌شود.

    این محاسبه مشکلات کهن تاریخچهٔ تکاملی ما را حل می‌کند؛ مسائلی که از داشتن بدنی متحرک، پیچیده، با حواس متعدد و نیازهای متضاد ناشی می‌شود.

    نکتهٔ مهم این است که ما خود محاسبه را شناسایی نمی‌کنیم – هنوز کاری علمی باقی مانده است. اما نشان می‌دهیم که اگر بتوانید شناسایی کنید، یک زمینهٔ برابر برای مقایسهٔ انسان‌ها، بی‌مهرگان و کامپیوترها خواهید داشت.

    درس یکسان

    مسئلهٔ آگاهی در حیوانات و در کامپیوترها به‌نظر می‌رسد به جهات متفاوتی کشیده می‌شود.

    برای حیوانات، سؤال اغلب این است که چگونه رفتار مبهم (مانند خرچنگی که به زخم‌های خود می‌پردازد) را تفسیر کنیم تا بفهمیم آیا نشان‌دهندهٔ آگاهی است یا نه.

    برای کامپیوترها، باید تصمیم بگیریم که آیا رفتار ظاهراً واضح (یک چت‌بات که با شما دربارهٔ هدف وجود بحث می‌کند) نشانگر واقعی آگاهی است یا صرفاً نقش‌آفرینی.

    اما همان‌طور که حوزه‌های عصب‌شناسی و هوش مصنوعی پیشرفت می‌کنند، هر دو به همان درس می‌رسند: هنگام قضاوت دربارهٔ این‌که آیا چیزی آگاه است یا نه، نحوهٔ عملکرد آن اطلاعاتی بیشتر از آنچه انجام می‌دهد، ارائه می‌دهد.

  • هوش مصنوعی توضیح‌پذیر و آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک

    نوشته: پاتریشیا دی‌لیسی، دانشکده مهندسی دانشگاه میشیگان

    چکیده

    هوش مصنوعی برای مطالعه آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک
    یک تکنیک هوش مصنوعی توضیح‌پذیر، به جای تلاش صرف برای پیش‌بینی آشفتگی، رویکردی جدید در پیش می‌گیرد و تأثیرگذارترین نواحی یک جریان آشفته را مشخص می‌کند. پژوهشگران می‌توانند از این نقاط داده تأثیرگذار برای دستکاری آشفتگی در کاربردهای صنعتی یا بهبود پیش‌بینی‌ها برای خلبانان بهره ببرند.

    گرچه آشفتگی جوی عامل آشنای پروازهای ناآرام است، حرکت آشفته جریان‌های متلاطم همچنان یک مسئله حل‌نشده در فیزیک باقی مانده است. بر اساس مطالعه‌ای در مجله Nature Communications که توسط دانشگاه میشیگان و دانشگاه پلی‌تکنیک والنسیا انجام شده، تیمی از پژوهشگران برای درک بهتر این سیستم، از هوش مصنوعی توضیح‌پذیر برای شناسایی مهم‌ترین نواحی در یک جریان آشفته استفاده کرده‌اند.

    درک روشن‌تر از آشفتگی می‌تواند پیش‌بینی‌ها را بهبود بخشد و به خلبانان کمک کند تا با دور زدن مناطق آشفته، از آسیب به مسافران یا خسارت به بدنه هواپیما جلوگیری کنند. این دانش همچنین به مهندسان کمک می‌کند تا آشفتگی را دستکاری کنند؛ مثلاً آن را برای بهبود فرآیندهای ترکیب صنعتی مانند تصفیه آب افزایش دهند، یا برای بهبود بهره‌وری سوخت در وسایل نقلیه کاهش دهند.

    سرجیو هویاس، استاد مهندسی هوافضا در دانشگاه پلی‌تکنیک والنسیا و یکی از نویسندگان این مطالعه، می‌گوید: «بیش از یک قرن است که پژوهش‌های مربوط به آشفتگی با معادلاتی بسیار پیچیده برای حل، آزمایش‌هایی بسیار دشوار برای اجرا و رایانه‌هایی بسیار ضعیف برای شبیه‌سازی واقعیت دست‌وپنجه نرم کرده است. اکنون هوش مصنوعی ابزاری نوین برای مقابله با این چالش در اختیار ما قرار داده که به پیشرفتی با پیامدهای عملی عمیق منجر شده است.»

    در مدل‌سازی آشفتگی، روش‌های کلاسیک تلاش می‌کنند تا با استفاده از معادلات فیزیکی یا با مشاهده ساختارهایی که به راحتی در آزمایش‌ها قابل رؤیت هستند، مانند گردابه‌ها، تأثیرگذارترین عناصر را شناسایی کنند.

    روش جدید، تمرکز را از پیش‌بینی صرف آشفتگی به درک بهتر سیستم تغییر می‌دهد. این روش کل جریان را بدون هیچ پیش‌فرضی بررسی کرده و هر نقطه از داده را یک به یک حذف می‌کند تا اهمیت آن را محاسبه کند.

    برخلاف فرضیات کلاسیک، گردابه‌ها در فواصل دور از دیواره (مرز بین هوای آشفته و آرام) اهمیت کمی داشتند. در عوض، تنش‌های رینولدز (اصطکاک ناشی از برخورد سیالات با سرعت‌های مختلف) در نزدیکی و فواصل بسیار دور از دیواره بیشترین تأثیر را داشتند، در حالی که رگه‌ها (نوارهای کشیده‌ای از هوای سریع و کند که موازی با جریان حرکت می‌کنند) در فواصل متوسط تأثیرگذار بودند.

    ریکاردو وینوئسا، دانشیار مهندسی هوافضا در دانشگاه میشیگان و یکی از نویسندگان مسئول این مطالعه می‌گوید: «اگر تمام دیدگاه‌های کلاسیک را کنار هم بگذارید، به بازسازی کل داستان نزدیک‌تر می‌شوید. اما اگر هر یک از دیدگاه‌های کلاسیک را به‌تنهایی در نظر بگیرید، تنها بخشی از ماجرا را خواهید داشت.»

    یک معمای حل‌نشده ریاضی

    تا به امروز، پژوهشگران نتوانسته‌اند به‌طور کامل درک کنند که جریان‌های آشفته چگونه حرکت می‌کنند یا انرژی خود را پراکنده می‌سازند. ریاضیات توصیف‌کننده حرکت سیالات از معادلاتی به نام معادلات ناویر-استوکس به دست می‌آید که برای جریان‌های آرام، قابل‌پیش‌بینی و آشفتگی‌های ملایم به‌خوبی کار می‌کنند.

    برای آشفتگی‌های شدید، یعنی تقریباً تمام جریان‌هایی که در عمل با آن‌ها سروکار داریم، این معادلات همچنان معتبرند، اما حل آن‌ها به قدرت محاسباتی عظیمی نیاز دارد.

    آشفتگی ذاتاً پدیده‌ای آشوبناک است که در آن گرادیان‌های سرعت می‌توانند بسیار بزرگ شوند و به رفتاری نزدیک به تکینگی برسند. در چنین شرایطی، میدان جریان ساختاری فراکتال‌مانند از خود نشان می‌دهد که با پیکربندی‌های فضایی بسیار پیچیده و درهم‌تنیده مشخص می‌شود.

    این رفتار پیچیده از تعامل ظریف بین جملات خطی و غیرخطی معادلات ناویر-استوکس ناشی می‌شود. این مسئله آن‌قدر بنیادی است که مؤسسه ریاضیات کلِی آن را به‌عنوان یکی از هفت «مسئله جایزه هزاره» معرفی کرده و یک میلیون دلار جایزه برای اثبات وجود و یکتایی یک جواب هموار برای این معادلات تعیین کرده است.

    هوش مصنوعی برای مطالعه آشفتگی: نگاهی نو به یک مسئله حل‌نشده در فیزیک
    نمایش لحظه‌ای ساختارهای منسجم گوناگون در جریان کانال. اعتبار: Nature Communications (۲۰۲۵). DOI: 10.1038/s41467-025-65199-9

    یک راهکار جایگزین برای مدل‌سازی

    اگرچه یک تکنیک محاسباتی به نام «شبیه‌سازی عددی مستقیم» می‌تواند بخش‌های کوچکی از جریان‌های آشفته را با دقت بالا مدل‌سازی کند، اما اجرای آن در مقیاس بزرگ بسیار پرهزینه است.

    شبیه‌سازی یک ثانیه پرواز یک هواپیمای ایرباس A320 در شرایط کروز، با سریع‌ترین ابررایانه جهان (با قدرت محاسباتی دو اگزافلاپس) حدود پنج ماه زمان می‌برد. حافظه مورد نیاز برای این کار نیز معادل حجم داده‌ای است که در طول یک ماه در کل اینترنت منتقل می‌شود.

    به‌عنوان یک راهکار جایگزین، تیم پژوهشی شبیه‌سازی عددی مستقیم را با هوش مصنوعی توضیح‌پذیر ترکیب کرد تا به بینش‌های جدیدی در مورد جریان‌های آشفته دست یابد. ابتدا، تیم پژوهشی از داده‌های شبیه‌سازی عددی مستقیم برای آموزش یک مدل هوش مصنوعی جهت پیش‌بینی یک جریان آشفته استفاده کرد. سپس، از روش «توضیحات افزایشی شِیپلی» (SHAP) برای محاسبه اهمیت هر ورودی در مدل پیش‌بینی‌کننده اولیه هوش مصنوعی بهره بردند. این رویکرد هر ورودی را حذف کرده و میزان تأثیر آن بر دقت پیش‌بینی را اندازه‌گیری می‌کند.

    وینوئسا می‌گوید: «روش SHAP مانند این است که هر بازیکن یک تیم فوتبال را یک به یک حذف کنیم تا بفهمیم هر فرد چگونه به عملکرد تیم کمک می‌کند. این کار به یافتن باارزش‌ترین بازیکنان کمک می‌کند.»

    هنگامی که این روش در عمل آزموده شد، ترکیب SHAP با یادگیری تقویتی عمیق از رویکردهای کلاسیک پیشی گرفت و اصطکاک روی بال هواپیما را تا ۳۰ درصد کاهش داد. برای نخستین بار، ما دقیقاً می‌دانیم کدام ساختارها در یک جریان آشفته بیشترین اهمیت را دارند.

    آندرس کرمادس، استادیار دانشگاه پلی‌تکنیک والنسیا و یکی دیگر از نویسندگان مسئول این مطالعه، می‌گوید: «این بدان معناست که ما می‌توانیم این نواحی را هدف قرار دهیم تا استراتژی‌های کنترلی برای کاهش پسا، بهبود احتراق و کاهش آلودگی شهری را به‌طور کارآمدتری توسعه دهیم، زیرا اکنون می‌توانیم دینامیک سیستم را پیش‌بینی کنیم.»

    پژوهشگران خاطرنشان می‌کنند که این تکنیک را می‌توان برای مسائل دیگری فراتر از آشفتگی نیز به کار برد.

    وینوئسا می‌افزاید: «برای هر مسئله فیزیکی، می‌توانید ویژگی‌های مهم و غیرمهم را شناسایی کرده و از آن برای بهینه‌سازی، کنترل یا سایر کاربردها در آینده استفاده کنید.»

  • آی‌بی‌ام ۸۰۰۰ شغل را به‌دلیل هوش مصنوعی حذف کرد؛ سپس افراد بیشتری را استخدام کرد

    آی‌بی‌ام ۸۰۰۰ شغل را به‌دلیل هوش مصنوعی حذف کرد؛ سپس افراد بیشتری را استخدام کرد

    هوش مصنوعی به سرعت پیش می‌رود و شرکت‌های زیادی در صدد استفاده از آن برای کاهش نیروی کار خود هستند. آی‌بی‌ام به‌تازگی نیز اقدام مشابهی انجام داد اما به نتایج غیرمنتظره‌ای دست یافت.

    پس از حذف بیش از ۸۰۰۰ نفر از کارکنان و انتقال وظایف به‌سمت خودکارسازی مبتنی بر هوش مصنوعی، شرکت پی برد که همچنان به نیروی انسانی نیاز دارد؛ فقط در حوزه‌های دیگری.

    به گفتهٔ آروند کریشنا، مدیرعامل آی‌بی‌ام، شرکت پس از این اخراج‌ها در واقع تعداد کلی نیروی کار خود را افزایش داده است.

    ابزارهای هوش مصنوعی به کاهش کارهای تکراری یا روتین کمک کردند، اما این امر نیازهای جدیدی را در بخش‌های دیگر ایجاد کرد.

    آی‌بی‌ام مجبور شد مهندسان نرم‌افزار، متخصصان بازاریابی و دیگر متخصصان بیشتری را برای پشتیبانی از بخش‌های در حال رشد شرکت جذب کند.

    یک نمونه، AskHR است، چت‌بات هوش مصنوعی که آی‌بی‌ام برای کارهای اداری به کار می‌گیرد. این چت‌بات حدود ۹۴٪ از وظایف مرتبط با منابع انسانی را خودکار کرد و به صرفه‌جویی ۳٫۵ میلیارد دلار در بهره‌وری کمک کرد.

    در حالی که این باعث کاهش نیاز به برخی نقش‌ها شد، فرصت‌های جدیدی در موقعیت‌های فنی و خلاقی نیز بوجود آمد.

    این وضعیت نشان می‌دهد که هوش مصنوعی چگونه می‌تواند بازار کار را دگرگون کند. برخی از مشاغل ممکن است از بین بروند، اما با تغییر تمرکز شرکت‌ها مشاغل نوظهور نیز شکل می‌گیرند.

    با این حال، این موضوع نگرانی‌های جدی دربارهٔ کارگرانی که شغل خود را از دست می‌دهند، برانگیخته می‌کند. بسیاری ممکن است نیاز به بازآموزی یا ورود به حوزه‌های جدید داشته باشند، که می‌تواند دشوار باشد.

    گزارش‌های سازمان‌های جهانی این مسأله را برجسته می‌کنند. انجمن جهانی اقتصاد برآورد می‌کند که تا سال ۲۰۳۰، ۹۲ میلیون شغل ممکن است توسط هوش مصنوعی جایگزین شود، اگرچه تا ۱۷۰ میلیون شغل جدید نیز می‌توانند ایجاد شوند.

    آیا کارگران جابجا شده می‌توانند به این مشاغل جدید منتقل شوند، سؤال بزرگی است.

    سایر شرکت‌های بزرگ نیز به‌تازگی اخراج‌های عظیمی انجام داده‌اند؛ مایکروسافت، آمازون و اکسنتور از جمله این‌ها.

    در حالی که هوش مصنوعی به شرکت‌ها کمک می‌کند زمان و هزینه صرفه‌جویی کنند، مباحث پیرامون تأثیر آن بر کارگران به‌تدریج مهم‌تر می‌شوند.

  • کارزارهای تبلیغاتی بزرگ آنلاین، اینترنت را با «محتوای بی‌کیفیت هوش مصنوعی» پر کرده‌اند، می‌گویند پژوهشگران

    تصویر نمایشی از تلفن‌های هوشمند با پرچم‌های چین و روسیه که از صفحه نمایش می‌گریند
    Justine Goode / NBC News; Getty Images

    پژوهشگران در Graphika می‌گویند کارزارهای تبلیغاتی آنلاین، اینترنت را با محتوای تولید شده توسط هوش مصنوعی که کیفیت پایینی دارد، پر کرده‌اند.

    براساس گزارش جدید، بسیاری از بزرگ‌ترین و شناخته‌ترین کارزارهای تبلیغاتی آنلاین که توسط دولت‌ها حمایت می‌شوند، به استفاده از هوش مصنوعی پرداخته‌اند — اما در این زمینه غالباً توانایی کمی نشان می‌دهند.

    این گزارش که توسط شرکت تجزیه و تحلیل شبکه‌های اجتماعی Graphika تهیه شده، نه عملیات تأثیرگذاری آنلاین در حال انجام را مورد بررسی قرار داد — از جمله آن‌هایی که ادعا می‌کند با دولت‌های چین و روسیه ارتباط دارند — و دریافت که همانند بسیاری از پلتفرم‌های اجتماعی، هر یک به‌تدریج از هوش مصنوعی مولد برای تولید تصاویر، ویدئوها، متن‌ها و ترجمه‌ها استفاده می‌کنند.

    پژوهشگران دریافتند که حمایت‌کنندگان کارزارهای تبلیغاتی برای انجام وظایف اصلی مانند تولید محتوا و ساخت شخصیت‌های اینفلوئنسر در شبکه‌های اجتماعی به هوش مصنوعی متکی شده‌اند و برخی از کارزارها را به‌صورت کارآمدتری پیش می‌برند. اما آن‌ها می‌گویند کیفیت این محتوا پایین است و تعامل کمی دریافت می‌کند.

    این نتایج با انتظارات بسیاری از پژوهشگران که پیشرفت روزافزون هوش مصنوعی مولد — هوش مصنوعی‌ای که گفتار، نوشتار و تصاویر انسانی را در عکس‌ها و ویدیوها تقلید می‌کند — همخوانی ندارد. این فناوری در سال‌های اخیر به سرعت پیشرفت کرده و برخی کارشناسان هشدار داده‌اند که تبلیغ‌کنندگان به‌نام کشورهای استبدادی می‌توانند محتویات سنتتیک با کیفیت بالا و قانع‌کننده تولید کنند تا حتی افراد دقیق‌نظر در جوامع دمکراتیک را فریب دهند.

    با این حال، پژوهشگران Graphika به‌وضوح دریافتند که محتوای هوش مصنوعی تولید شده توسط این کارزارهای مستقر، «سرریزهای بی‌کیفیتی» است؛ از گزارشگرهای خبری مصنوعی که در ویدیوهای یوتیوب قانع‌کننده نیستند تا ترجمه‌های ناهموار یا وب‌سایت‌های خبری جعلی که به‌طور ناخواسته در سرفصل‌ها از دستورات هوش مصنوعی استفاده می‌کنند.

    دینا صادک، تحلیل‌گر ارشد در Graphika و یکی از نویسندگان گزارش، گفت: «عملیات‌های تأثیرگذاری به‌طور سیستماتیک ابزارهای هوش مصنوعی را ادغام کرده‌اند و بخش عمده‌ای از آن‌ها محتوای بی‌کیفیت و ارزان قیمت هوش مصنوعی است.» او افزود: «همان‌طور که پیش از این بود که این کارزارها به‌طور منظم از هوش مصنوعی استفاده می‌کردند، بیشترین بخش پست‌های آن‌ها در شبکه‌های اجتماعی غربی توجه کمی یا اصلاً دریافت نمی‌کند.»

    کارزارهای تأثیرگذاری آنلاین که هدفشان تغییر جهت سیاست آمریکا و پخش پیام‌های تفرقه‌انگیز است، حداقل یک دهه پیش آغاز شده‌اند؛ زمانی که آژانس تحقیقاتی اینترنتی مستقر در روسیه حساب‌های متعددی در فیس‌بوک و توییتر ایجاد کرد و سعی در تأثیرگذاری بر انتخابات ریاست‌جمهوری ۲۰۱۶ داشت.

    همان‌طور که در برخی حوزه‌های دیگر مانند امنیت سایبری و برنامه‌نویسی، رشد هوش مصنوعی زمینه تبلیغ آنلاین را متحول نکرده است، اما انجام برخی کارها را خودکارتر کرده است، صادک گفت.

    او افزود: «ممکن است محتوا پایین‌کیفیت باشد، اما به‌صورت وسیعی قابل گسترش است. می‌توانند در جایی بنشینند، شاید فقط یک فرد با فشار دادن دکمه‌ها این همه محتوا را تولید کند.»

    از نمونه‌های ذکر شده در گزارش می‌توان به «دوئپل‌گانگر» اشاره کرد؛ عملیاتی که وزارت عدالت آن را به کرملین مرتبط می‌داند و پژوهشگران می‌گویند از هوش مصنوعی برای ساخت وب‌سایت‌های خبری جعلی که قانع‌کننده نیستند استفاده کرده است؛ و «اسپاموفلوژ» که وزارت عدالت آن را به چین نسبت می‌دهد و این کارزار افراد خبری جعلی هوش مصنوعی تولید می‌کند تا ویدیوهای تفرقه‌انگیز اما غیرقابل‌قبول را در شبکه‌های اجتماعی مانند X و یوتیوب گسترش دهد. گزارش همچنین به چندین عملیات اشاره کرد که از صدای عمیق‌فیک (deepfake) با کیفیت پایین استفاده کرده‌اند.

    یک نمونه از این کارزارها، انتشار دیپ‌فیک‌های سلبریتی‌هایی چون اوپرا وینفری و رئیس‌جمهور پیشین باراک اوباما بود که به‌نظر می‌رسیدند درباره رشد هند در صحنهٔ جهانی اظهار نظر می‌کنند. اما گزارش می‌گوید این ویدیوها غیرقابل‌قبول به‌نظر می‌رسیدند و توجه زیادی جلب نکردند.

    ویدیو دیگری با محوریت روسیه‌پراستی به نام «المپیک فرو ریخت» به‌نظر می‌رسید تا بازی‌های المپیک تابستانی ۲۰۲۴ پاریس را تخریب کند. با ارجاع به فیلم هالیوودی ۲۰۱۳ «ال‌امپوس فرو ریخت»، این ویدیو نسخهٔ هوش مصنوعیِ تام کراس را به تصویر می‌کشید، در حالی که او در هیچیک از این فیلم‌ها حضور نداشته است. گزارش نشان داد که این اثر جز در یک اتاق پژواک کوچک از حساب‌هایی که معمولاً فیلم‌های این کارزار را به‌اشتراک می‌گذارند، توجهی دریافت نکرد.

    سخنگویان سفارت چین در واشنگتن، وزارت امور خارجهٔ روسیه، X و یوتیوب به درخواست‌های اطلاع‌رسانی پاسخ ندادند.

    چنان‌که صادک می‌گوید، حتی اگر تلاش‌های آن‌ها به افراد زیادی نرسد، برای تبلیغ‌کنندگان ارزش دارد که در عصر ربات‌های گفتگوی هوش مصنوعی، اینترنت را پر کنند. شرکت‌های تولیدکننده این ربات‌ها به‌طور مستمر با جمع‌آوری متن‌های موجود در اینترنت، مدل‌های خود را آموزش داده و به‌صورت بازپخش مطالب استفاده می‌کنند.

    مطالعهٔ اخیر موسسهٔ گفتگوی استراتژیک (Institute for Strategic Dialogue)، یک سازمان غیرانتفاعی حامی دموکراسی، نشان داد که اکثر ربات‌های گفتگوی اصلی هوش مصنوعی یا مدل‌های زبانی بزرگ، در پاسخ‌های خود به منابع خبری روسی حمایت‌شده توسط دولت اشاره می‌کنند؛ حتی برخی از این منابع تحت تحریم اتحادیهٔ اروپا قرار دارند.

  • چگونه دزدهای موزه لوور از روان‌شناسی انسانی برای فرار از مشکوک شدن بهره بردند – و آنچه درباره هوش مصنوعی نشان می‌دهد

    Yoan Valat / تصاویر EPA

    در صبح آفتابی ۱۹ اکتبر ۲۰۲۵، چهار مرد ادعا می‌شود وارد پر بازدیدترین موزه جهان شدند و چند دقیقه پس از آن، جواهرات سلطنتی به ارزش ۸۸ میلیون یورو (۷۶ میلیون پوند) را به‌دست آوردند. این سرقت از موزه لوور پاریس — یکی از پرنظارت‌ترین مؤسسات فرهنگی جهان — کمتر از هشت دقیقه به طول انجامید.

    بازدیدکنندگان به گشت و گذار ادامه دادند. امنیت واکنشی نشان داد (تا زمانی که زنگ‌ها فعال شد). مردان پیش از این‌که کسی متوجه اتفاق شود، در ترافیک شهر ناپدید شدند.

    پژوهشگران سپس فاش کردند که دزدها جلیقه‌های روشن‌دار (hi‑vis) بر تن داشتند و خود را کارگران ساختمانی جا زدند. آن‌ها با یک بالابر مبلمان، که در خیابان‌های باریک پاریس معمولاً دیده می‌شود، وارد شدند و از آن برای رسیدن به بالکنی که به رود سِن نگاه می‌کرد، استفاده کردند. پوشش کارگری‌شان باعث شد به‌نظر برسد که بخشی از محیط هستند.

    این استراتژی مؤثر بود زیرا ما جهان را به‌صورت عینی نمی‌بینیم. ما آن را از طریق دسته‌بندی‌ها می‌بینیم — بر پایهٔ آنچه انتظار داریم ببینیم. دزدها دسته‌بندی‌های اجتماعی که ما به‌عنوان «نرمال» می‌شناسیم، درک کردند و از آن‌ها برای اجتناب از مشکوک شدن استفاده کردند. بسیاری از سامانه‌های هوش مصنوعی (AI) به‌طور مشابه عمل می‌کنند و در نتیجه به همان نوع اشتباهات مستعد هستند.

    سوسیولوژیست اروینگ گاوفمن ممکن بود آنچه در لوور رخ داد را با استفاده از مفهوم «ارائه خود» توصیف کند: افراد نقش‌های اجتماعی را «اجرا» می‌کنند با به‌کارگیری نشانه‌هایی که دیگران انتظار دارند. در اینجا، اجرای «نرمالی‌بودن» به‌عنوان یک پوشش کامل تبدیل شد.

    جامعه‌شناسی نگاه

    انسان‌ها به‌طور مداوم دسته‌بندی‌های ذهنی انجام می‌دهند تا افراد و مکان‌ها را درک کنند. وقتی چیزی در دسته «عادی» جای می‌گیرد، از نگاه ما پنهان می‌شود.

    سیستم‌های هوش مصنوعی که برای کارهایی مانند تشخیص چهره و شناسایی فعالیت‌های مشکوک در فضاهای عمومی به‌کار می‌روند، به‌صورت مشابهی عمل می‌کنند. برای انسان‌ها، دسته‌بندی فرهنگی است؛ برای هوش مصنوعی، ریاضی.

    اما هر دو سیستم بر الگوهای یادگرفته‌شده به‌جای واقعیت عینی تکیه دارند. چون هوش مصنوعی از داده‌هایی که چه کسی «نرمال» و چه کسی «مشکوک» به‌نظر می‌رسد می‌آموزد، دسته‌بندی‌های موجود در داده‌های آموزشی خود را جذب می‌کند. این امر باعث می‌شود که به تعصب حساس شود.

    دزدهای لوور به‌دلیل انطباق با یک دسته‌بندی مورد اعتماد، خطرناک شناخته نشدند. در هوش مصنوعی، همین فرآیند می‌تواند اثر معکوس داشته باشد: افرادی که با معیارهای آماری سازگاری ندارند، بیشتر در معرض دیده شدن و بررسی بیش‌ازحد قرار می‌گیرند.

    این می‌تواند به این معنا باشد که سامانه تشخیص چهره به‌طور نامتناسبی برخی گروه‌های نژادی یا جنسیتی را به‌عنوان تهدیدهای احتمالی نشان می‌دهد، در حالی که دیگران را نادیده می‌گیرد.

    نگرش جامعه‌شناختی به ما کمک می‌کند بفهمیم که این‌ها مسائل جداگانه‌ای نیستند. هوش مصنوعی دسته‌بندی‌های خود را اختراع نمی‌کند؛ بلکه دسته‌بندی‌های ما را می‌آموزد. هنگامی که یک سیستم بینایی کامپیوتری بر روی ضبط‌های امنیتی آموزش داده می‌شود که در آن «نرمال» توسط بدن، پوشاک یا رفتار خاصی تعریف می‌شود، همان فرضیات را بازتولید می‌کند.

    همان‌طور که نگهبانان موزه به‌دلیل این‌که دزدها گویی جزئی از محیط بودند، نادیده‌شان گرفتند، هوش مصنوعی نیز می‌تواند برخی الگوها را نادیده بگیرد در حالی که به دیگران بیش از حد واکنش نشان می‌دهد.

    دسته‌بندی، چه انسانی و چه الگوریتمی، یک‌سلاح دو لبه است. این کار به ما کمک می‌کند اطلاعات را به‌سرعت پردازش کنیم، اما در عین حال مفروضات فرهنگی‌مان را نیز در خود جای می‌دهد. هم انسان‌ها و هم ماشین‌ها به شناسایی الگوها متکی‌اند؛ روشی مؤثر اما ناپایدار.

    دیدگاه جامعه‌شناختی نسبت به هوش مصنوعی الگوریتم‌ها را به‌عنوان آینه می‌بیند: آن‌ها دسته‌بندی‌ها و سلسله‌مراتب‌های اجتماعی ما را بازتاب می‌دهند. در مورد لوور، این آینه به سوی ما چرخیده است. دزدها موفق شدند نه چون نامرئی بودند، بلکه چون از نگاه «نرمالی» به آن‌ها نگاه می‌شد. به‌عبارت دیگر، در زمینه هوش مصنوعی، آن‌ها آزمون طبقه‌بندی را گذراندند.

    از تالارهای موزه تا یادگیری ماشین

    این ارتباط بین ادراک و دسته‌بندی نکته‌ای مهم درباره دنیای رو به‌الگوریتمی ما را آشکار می‌کند. چه نگهبانی باشد که تصمیم می‌گیرد چه کسی مشکوک به نظر می‌رسد و چه هوش مصنوعی که تصمیم می‌گیرد چه کسی شبیه «دزد فروشگاه» است، فرایند زیرین یکسان است: تخصیص افراد به دسته‌ها بر پایه‌نشانه‌هایی که به‌نظر عینی می‌آیند اما به‌صورت فرهنگی آموخته شده‌اند.

    زمانی که یک سیستم هوش مصنوعی «متعصب» توصیف می‌شود، این غالباً به این معناست که آن دسته‌بندی‌های اجتماعی را بیش از حد دقیق بازتاب می‌دهد. سرقت لوور به ما یادآوری می‌کند که این دسته‌بندی‌ها تنها نگرش‌های ما را شکل نمی‌دهند، بلکه آنچه در نگاه اول توجه می‌شود را نیز تعیین می‌کنند.

    پس از این سرقت، وزیر فرهنگ فرانسه وعدهٔ دوربین‌های جدید و امنیت شدیدتر داد. اما مهم نیست این سیستم‌ها چقدر پیشرفته شوند، آن‌ها همچنان به دسته‌بندی وابسته خواهند بود. شخصی یا چیزی باید تصمیم بگیرد چه چیزی «رفتار مشکوک» محسوب می‌شود. اگر این تصمیم بر پایهٔ فرضیات باشد، همان نقاط کور همچنان باقی خواهند ماند.

    سرقت لوور به‌عنوان یکی از نمایان‌ترین سرقت‌های موزه‌ای اروپا در خاطره‌ها می‌ماند. دزدها موفق شدند زیرا جامعه‌شناسی ظاهر را تسلط یافتند: آن‌ها دسته‌بندی‌های نرمالی را درک کرد و به‌عنوان ابزار استفاده کردند.

    و با این کار، نشان دادند که چگونه هم افراد و هم ماشین‌ها می‌توانند انطباق را با امنیت اشتباه بگیرند. موفقیت آن‌ها در نور روز تنها پیروزی برنامه‌ریزی نبود؛ بلکه پیروزی تفکر دسته‌بندی‌شده بود، همان منطق که پایهٔ ادراک انسانی و هوش مصنوعی است.

    درس واضح است: پیش از این‌که ماشین‌ها را به‌سوی دید بهتر آموزش دهیم، ابتدا باید یاد بگیریم که چگونه می‌بینیم را زیر سؤال ببریم.