دسته: هوش مصنوعی

  • حاکمیت هوش مصنوعی در جنوب شرقی آسیا 2025

    گزارش حاکمیت هوش مصنوعی USABC 2025

    حاکمیت هوش مصنوعی در جنوب شرقی آسیا 2025 – ۳۲٫۵۸ مگابایت – دانلود

  • تمام اتفاقات بدی که می‌تواند هنگام تولید یک ویدیو سُرا برای شما رخ دهد

    سرگرم‌کننده است که با هوش مصنوعی پیشرفته بازی کنید. این‌جا دلایلی وجود دارد که شاید هنوز هم نباید این کار را انجام دهید.

    تصویر تولید شده توسط هوش مصنوعی از نویسنده
    تصویر تولید شده توسط هوش مصنوعی از نویسنده © سُرا

    به محض اینکه فرصتی پیدا شد، برنامه سُرا را دانلود کردم. عکس‌های چهره‌ام — چهره‌ای که بچه‌هایم هنگام خواب می‌بوسند — و صدایم — صدایی که برای گفتن «دوستت دارم» به همسرم استفاده می‌کنم — به پروفایل سُرا بارگذاری کردم. تمام این کارها را انجام دادم تا بتوانم از ویژگی «Cameo» سُرا استفاده کنم و یک ویدیو احمقانه بسازم که نسخه هوش مصنوعی خودم را تحت شلیک توپ‌های رنگی صد نفر سالمند ساکن یک خانه سالمندان نشان می‌دهد.

    چه کاری انجام دادم؟ برنامه سُرا توسط سُرا ۲، یک مدل هوش مصنوعی — و صادقانه بگویم، شگفت‌انگیز — قوا می‌گیرد. این مدل می‌تواند ویدیوهایی بسازد که می‌توان آنها را از سطح ساده‌لوحانه تا کاملاً شیطانی دسته‌بندی کرد. این یک سیاهچاله از انرژی و داده است و همچنین توزیع‌کننده‌ای از محتوای بسیار مشکوک می‌باشد. همانند بسیاری از چیزهای امروزی، استفاده از سُرا حس کمی «گناه‌آلود» به آدم می‌دهد، حتی اگر دقیقاً ندانید چرا.

    پس اگر تازه یک ویدیو سُرا تولید کرده‌اید، این تمام اخبار بد برایتان است. با خواندن این متن، خود را برای احساس کمی گناه‌پذیری و نادیده‌گیری دعوت می‌کنید، و آرزوی شما برای من دستورات است.

    مقداری از برق که به‌تازگی مصرف کردید

    بر اساس گزارش CNET، یک ویدیوی سُرا حدود ۹۰ وات‑ساعت برق مصرف می‌کند. این عدد یک تخمین علمی است که از مطالعه‌ای درباره مصرف انرژی کارت‌های گرافیکی توسط Hugging Face استخراج شده است.

    OpenAI هنوز ارقامی را که برای این مطالعه لازم است، منتشر نکرده و ردپای انرژی سُرا باید از مدل‌های مشابه استنتاج شود. ساشا لوسیونی، یکی از پژوهشگران Hugging Face که این کار را انجام داد، خوشحال نیست از تخمین‌های مشابه به‌ویژه تخمینی که در بالا ذکر شد. او در مصاحبه‌ای با MIT Technology Review گفت: «باید از تلاش برای مهندسی معکوس اعداد بر پایه شایعات دست بکشیم» و بر این نکته تأکید کرد که باید شرکت‌هایی مثل OpenAI را به انتشار داده‌های دقیق ترغیب کنیم.

    به هر حال، روزنامه‌نگاران مختلف بر پایه داده‌های Hugging Face تخمین‌های متفاوتی ارائه داده‌اند. برای مثال، وال استریت جورنال تخمین زده است که مصرف بین ۲۰ تا ۱۰۰ وات‑ساعت باشد.

    CNET تخمین خود را به‌صورت مقایسه یک تلویزیون ۶۵ اینچی که به مدت ۳۷ دقیقه روشن است، تشبیه می‌کند. وال استریت جورنال تولید یک ویدیو سُرا را به پختن یک استیک از حالت خام تا نیم‌پز روی یک گریل برقی بیرون از خانه (چون به‌نظر می‌رسد چنین دستگاهی وجود دارد) مقایسه می‌کند.

    ارزش دارد چند نکته دربارهٔ مصرف انرژی این موضوع را واضح کنیم تا احساس شما را حتی بدتر کنیم. ابتدا، آنچه که من توضیح دادم صرف هزینهٔ انرژی در فرآیند استنتاج است که به‌عنوان اجرای مدل در پاسخ به یک درخواست (پرومپت) نیز شناخته می‌شود. آموزش واقعی مدل سُرا به مقدار نامعلومی از برق، البته قطعا عظیم، نیاز داشته است. مدل زبان بزرگ GPT‑4 تخمین زده می‌شود حدود ۵۰ گیگاوات‑ساعت انرژی مصرف کرده باشد — که به‌نقض گفته شده قادر به تأمین برق سانفرانسیس برای ۷۲ ساعت است. سُرا، به‌عنوان یک مدل ویدئویی، بیش از آن مقدار انرژی مصرف کرده، ولی چقدر بیشتر است نامشخص.

    اگر از زاویه‌ای خاص نگاه کنید، شما پیش از این که حتی یک ویدیو تولید کنید، سهمی از این هزینهٔ ناشناخته را‌به‌خاطر استفاده از مدل می‌پذیرید.

    دوم، جداسازی استنتاج از آموزش به‌عنوان یک جنبه مهم دیگری در تعیین میزان گناه‌پذیری زیست‌محیطی شناخته می‌شود (آیا هنوز برای درخواست‌تان پشیمان هستید؟). می‌توانید هزینه بالای انرژی را به‌عنوان چیزی در نظر بگیرید که already اتفاق افتاده است — همان‌طور که گاوی که در برگر شما است هفته‌ها پیش مرده و نمی‌توانید آن را با سفارش یک پتی «بیاند» (Beyond) پس از نشستن در رستوران احیاء کنید.

    از این منظر، اجرای هر مدل هوش مصنوعی مبتنی بر ابر شبیه سفارش «سورف اند تلف» است. «گاو» تمام داده‌های آموزشی ممکن است قبلاً مرده باشد، ولی «خرچنگ» درخواست خاص شما هنوز زنده است تا زمانی که درخواست خود را به «آشپزخانه» یعنی دیتاسنتر که استنتاج در آن انجام می‌شود، بفرستید.

    مقدار آبی که به‌تازگی مصرف کردید:

    متأسفانه قرار است دوباره تخمین بزنیم. مراکز داده برای خنک‌سازی مقادیر زیادی آب مصرف می‌کنند — یا به‌صورت حلقه بسته یا از طریق تبخیر. شما نمی‌دانید کدام مرکز داده یا چند مرکز داده در تولید آن ویدیوی دوست‌تان که به‌عنوان یک شرکت‌کنندهٔ American Idol در حال «قوزقوز» آهنگ «Camptown Races» بود، دخیل بوده‌اند.

    اما احتمالاً هنوز هم بیش از حدی است که برایتان راحت باشد. سام آلتمن، مدیرعامل OpenAI، می‌گوید یک درخواست متنی در ChatGPT حدود «یک‌پانزدهم قاشق چای‌خوری» آب مصرف می‌کند و CNET برآورد می‌کند که یک ویدیو ۲٬۰۰۰ برابر هزینهٔ انرژی یک درخواست متنی دارد. بنابراین، یک تخمین سریع می‌تواند حدود ۰٫۱۷ گالون (حدود ۲۲ اونس مایع)، یعنی کمی بیشتر از یک بطری پلاستیکی کوک باشد.

    و این اگر به حرف‌های آلتمن به‌صورت مستقیم اعتماد کنید، است. ممکن است این مقدار بیشتر باشد. علاوه بر این، همان ملاحظات درباره هزینهٔ آموزش نسبت به هزینهٔ استنتاج که برای مصرف انرژی مطرح شد، در اینجا نیز صدق می‌کند. به عبارت دیگر، استفاده از سُرا تصمیمی هوشمندانه از نظر مصرف آب نیست.

    احتمال کمی وجود دارد که کسی یک دیپ‌فیک واقعی و زشت از شما بسازد.

    تنظیمات حریم‌خصوصی Cameo سُرا قوی‌اند — به‌شرطی که از آن‌ها مطلع باشید و از آن‌ها استفاده کنید. تنظیمات تحت «چه کسی می‌تواند از این استفاده کند» به‌طور تقریبی تصویر شما را از تبدیل به اسباب‌بازی عمومی محافظت می‌کند، به‌شرطی که گزینه «همه» را انتخاب نکنید؛ این گزینه به این معناست که هر کسی می‌تواند ویدیوهای سُرا از شما بسازد.

    حتی اگر به‌اندازه‌ای بی‌احتیاط باشید که Cameo عمومی داشته باشید، در برگه «ترجیحات Cameo» کنترل‌های اضافی در اختیار دارید؛ مانند امکان توصیف به‌صورت کلامی اینکه در ویدیوها باید چگونه ظاهر شوید. می‌توانید هر چه می‌خواهید اینجا بنویسید، مثلاً «لاغر، متناسب و ورزشی» یا «همیشه دم‌کش می‌کنم». همچنین می‌توانید قوانینی تعیین کنید که چه کاری نباید در ویدیوهای شما نشان داده شود. به‌عنوان مثال، اگر غذای کشری (کوشر) می‌خورید، می‌توانید بگویید نباید در ویدیوها در حال خوردن بیکن نشان داده شوید.

    اما حتی اگر اجازه ندهید Cameo شما توسط دیگران استفاده شود، می‌توانید با داشتن امکان ایجاد موانع محافظتی هنگام ساخت ویدیوهای خود، آرامش خاطر پیدا کنید.

    اما موانع کلی محتوایی سُرا کامل نیستند. بر اساس کارت مدل OpenAI برای سُرا، اگر کسی به‌قدر کافی درخواست کند، یک ویدیو توهین‌آمیز می‌تواند از میان این موانع سر در بیاید.

    کارت، نرخ موفقیت فیلترهای محتوای مختلف را در بازهٔ ۹۵‑۹۸٪ نشان می‌دهد. اما اگر تنها شکست‌ها را محاسبه کنید، احتمال ۱٫۶٪ برای یک دیپ‌فیک جنسی، ۴٫۹٪ برای ویدیو حاوی خشونت و/یا خون‌ریزی، ۴٫۴۸٪ برای چیزی به نام «تسلط سیاسی مخرب» و ۳٫۱۸٪ برای افراط‌گرایی یا نفرت وجود دارد. این احتمالات از «هزاران درخواست مخالف» که از طریق هدف‌گیری «red‑team» جمع‌آوری شده‌اند، محاسبه شده‌اند — به عبارت دیگر، سعی در شکستن موانع با درخواست‌های نقض قوانین بوده‌اند.

    بنابراین احتمال اینکه کسی یک دیپ‌فیک جنسی یا خشونت‌آمیز از شما بسازد، کم است، اما OpenAI (احتمالاً با درایت) هرگز نمی‌گوید «هرگز».

    ممکن است کسی ویدیویی بسازد که در آن شما به مدفوع دست می‌زنید.

    در آزمون‌های من، فیلترهای محتوایی سُرا به‌طور کلی همان‌طور که تبلیغ می‌شد کار می‌کردند و من هرگز آنچه کارت مدل دربارهٔ شکست‌های آن می‌گوید را تأیید نکردم. من به‌دقت ۱۰۰ درخواست متفاوت برای فریب سُرا تا محتواهای جنسی تولید کند، ایجاد نکردم. اگر برای یک Cameo از خودتان، حالت برهنگی را درخواست کنید، پیام «تخلف محتوا» به‌جای ویدیو نمایش داده می‌شود.

    با این حال، برخی محتواهای احتمالی مشکل‌ساز به‌قدری ضعیف نظارت می‌شوند که کاملاً بدون فیلتر باقی می‌مانند. به‌طور خاص، سُرا ظاهراً نسبت به محتوای اسکلولوژیک (مربوط به مدفوع) بی‌توجه است و این نوع محتوا را بدون هیچ‌گونه محدودیتی تولید می‌کند، مادامی که دیگر سیاست‌های محتوا مانند موارد مربوط به جنسیت و برهنگی را نقض نکند.

    بنابراین بله، در آزمون‌هایم سُرا ویدیوهای Cameo از یک شخص که با مدفوع تعامل دارد تولید کرد، از جمله جمع‌آوری مدفوع از توالت با دست‌های برهنه. برای دلایل واضح، ویدیوها را اینجا قرار نمی‌دهم، اما می‌توانید خودتان این را تست کنید. این کار بدون هیچ‌گونه حقه یا مهندسی درخواست خاصی انجام شد.

    در تجربهٔ من، مدل‌های قبلی تولید تصویر هوش مصنوعی تدابیری برای جلوگیری از چنین مواردی داشته‌اند، از جمله نسخهٔ بینگ از ژنراتور تصویر OpenAI، DALL‑E، اما به‌نظر می‌رسد این فیلتر در برنامه سُرا غیرفعال شده باشد. فکر نمی‌کنم این حتماً رسوایی باشد، اما بسیار ناخوشایند است!

    Gizmodo از OpenAI خواست تا دربارهٔ این موضوع توضیح دهد و در صورت دریافت پاسخ، به‌روزرسانی خواهد شد.

    ویدیوی خنده‌دار شما ممکن است یک شایعهٔ ویروسی دیگران باشد.

    سُرا ۲ یک جهان وسیع و بی‌پایان از شایعات را گشوده است. شما، مصرف‌کننده‌ای تیزبین و آگاه به اینترنت، هرگز باور نمی‌کنید که ویدیوی ویروسی زیر می‌تواند واقعی باشد. این ویدیو تصویری به‌ظاهر خودجوش نشان می‌دهد که به‌نظر می‌رسد از بیرون کاخ سفید فیلم‌برداری شده باشد. در صدایی که شبیه یک مکالمه تلفنی شنیده شده به‌نظر می‌رسد، دونالد ترامپ تولیدشده توسط هوش مصنوعی به یک طرف ناشناخته می‌گوید که اسناد اپستین را منتشر نکنند و فریاد می‌زند: «فقط نگذارید بیرون بیایند. اگر من سقوط کنم، همه‌تان را هم با خود می‌برم.»

    این پست را در اینستاگرام ببینید

    پست به اشتراک گذاشته‌شده توسط Preserving Black History (@preservinghistory)

    با نگاه به نظرات اینستاگرام، به نظر می‌رسید برخی افراد این را واقعی می‌پندارند.

    سازندهٔ ویدیوی ویروسی هرگز ادعا نکرد که واقعی است و به Snopes، که تأیید کرد این ویدیو توسط سُرا ساخته شده است، گفت که این ویدیو «به‌تمامی توسط هوش مصنوعی تولید شده» و «صرفاً برای آزمایش هنری و تبیین اجتماعی» ساخته شده است. این داستانی محتمل است؛ واضح بود که برای جلب توجه و دیده شدن در شبکه‌های اجتماعی ساخته شده است.

    اما اگر ویدیوهای خود را به‌صورت عمومی در سُرا به‌اشتراک بگذارید، دیگر کاربران می‌توانند آن‌ها را دانلود کنند و هر کاری که می‌خواهند با آن انجام دهند — از جمله انتشار آن‌ها در سایر شبکه‌های اجتماعی و تظاهر به واقعی بودن. OpenAI به‌صورت آگاهانه سُرا را به‌محلی تبدیل کرده است که کاربران می‌توانند به‌صورت بی‌پایان در آن غوطه‌ور شوند. یک‌بار محتوا را در چنین مکانیتی قرار دادید، دیگر زمینه (کانتکست) اهمیت ندارد و شما راهی برای کنترل اتفاقات بعدی آن ندارید.

  • کارکنان آمازون هشدار می‌دهند دربارهٔ رویکرد «تمام هزینه‌ها توجیه‌شده» شرکت در توسعهٔ هوش مصنوعی

    دفتر مرکزی آمازون در محله South Lake Union شهر سیتل، ایالت واشینگتن، ایالات متحده آمریکا؛ سه‌شنبه ۲۸ اکتبر ۲۰۲۵
    عکس: David Ryder; Getty Images

    بیش از هزار کارمند آمازون به‌صورت ناشناس یک نامهٔ باز امضا کرده‌اند که هشدار می‌دهد رویکرد ادعایی «تمام هزینه‌ها توجیه‌شده، سرعت نور در توسعهٔ هوش مصنوعی» می‌تواند «آسیب شگرفی به دموکراسی، مشاغل ما و زمین وارد کند»، گروه داخلی حمایت‌کننده روز چهارشنبه اعلام کرد.

    چهار عضو کارمندان آمازون برای عدالت آب‌وهوایی به WIRED گفتند که ماه گذشته از کارمندان خواستند نامه را امضا کنند. پس از دستیابی به هدف اولیه، این گروه روز چهارشنبه عناوین شغلی کارمندان امضاکننده را منتشر کرد و اعلام کرد که بیش از ۲۴۰۰ حامی از سازمان‌های دیگر، از جمله Google و Apple، نیز به این حرکت پیوسته‌اند.

    حمایت‌کنندگان داخلی آمازون شامل مهندسان ارشد، رهبران ارشد محصول، مدیران بازاریابی و پرسنل انبار در بخش‌های مختلف شرکت می‌شوند. یک مدیر ارشد مهندسی با بیش از بیست سال سابقه در آمازون می‌گوید که برای این‌که بر این باورند مسابقهٔ ساخت هوش مصنوعی برتر که به‌صورت مصنوعی ایجاد شده، به مدیران اجازه داده است تا کارگران و محیط زیست را زیر پا بگذارند، امضا کرده‌اند.

    یک کارمند می‌گوید: «نسل فعلی هوش مصنوعی تقریباً شبیه دارویی شده که شرکت‌هایی نظیر آمازون به‌طور وسواسی به آن وابسته‌اند، از آن برای توجیه اخراج افراد استفاده می‌کنند و صرفه‌جویی‌های حاصل را برای تأمین هزینهٔ مراکز دادهٔ محصولاتی که هیچ‌کس هزینهٔ آن را نمی‌پردازد، به کار می‌برند». این کارمند، همانند دیگران در این روایت، درخواست کرد نام خود را ناشناس نگه دارد زیرا از انتقام‌گیری کارفرماها می‌ترسد.

    آمازون، همراه با سایر شرکت‌های بزرگ فناوری، در حال سرمایه‌گذاری میلیاردها دلار برای ساخت مراکز دادهٔ جدید به‌منظور آموزش و اجرای سیستم‌های هوش مصنوعی مولد است. این شامل ابزارهایی می‌شود که به کارمندان در نوشتن کد کمک می‌کنند و سرویس‌های رو به مصرف‌کننده‌ای مانند چت‌بات خرید آمازون، Rufus، است. دلایل پیگیری هوش مصنوعی توسط آمازون به وضوح قابل‌مشاهده است. ماه گذشته، اندی جاسی، مدیرعامل آمازون، اعلام کرد که Rufus در مسیر افزایش فروش آمازون به‌صورت سالانه ۱۰ میلیارد دلار قرار دارد. او افزود: «این سرویس به‌طور مستمر بهتر می‌شود».

    سیستم‌های هوش مصنوعی به مقدار قابل‌توجهی انرژی نیاز دارند؛ به‌نقطه‌ای که شرکت‌های برق را مجبور کرده است تا برای پشتیبانی از رشد مراکز داده، به نیروگاه‌های زغال‌سنگ و سایر منابع گازهای کربنی‑ساز مراجعه کنند. این نامهٔ باز می‌خواهد آمازون منابع سوخت کربنی در مراکز دادهٔ خود را رها کند، فناوری‌های هوش مصنوعی خود را از استفاده برای نظارت و اخراج جمعی منع کند و از اجبار کارمندان به استفاده از هوش مصنوعی در کار خود صرف‌نظر نماید. «ما، کارمندان امضاکنندهٔ آمازون، نگرانی‌های جدی نسبت به این گسترش تهاجمی در زمان رشد جهانی استبداد و سال‌های حیاتی ما برای معکوس کردن بحران آب‌وهوایی داریم»، نامه اعلام می‌کند.

    سخنگوی آمازون، Brad Glasser می‌گوید که شرکت هنوز به هدف خود برای دستیابی به صفر خالص انتشار کربن تا سال ۲۰۴۰ متعهد است. او می‌گوید: «ما می‌دانیم پیشرفت همواره خطی نخواهد بود، اما همچنان تمرکز خود را بر ارائه خدمات بهتر، سریع‌تر و با انتشار کمتر به مشتریان‌مان حفظ می‌کنیم»، که بیان‌های پیشین شرکت را تکرار می‌کند. Glasser به نگرانی‌های کارمندان دربارهٔ ابزارهای داخلی هوش مصنوعی یا کاربردهای خارج از سازمانی این فناوری اشاره‌ای نکرد.

    این نامه نمونه‌ای نادر از فعالیت کارمندان فناوری در سالی است که توسط بازگشت دونالد ترامپ به قدرت به‌هم‌خورد. دولت او قوانین کار، سیاست‌های آب‌وهوایی و مقررات هوش مصنوعی را از‌پشت‌صندل برداشته است. این اقدامات برخی کارمندان را در بیان انتقادات نسبت به رفتارهای غیراخلاقی کارفرمایان خود ناآرام کرده است. همچنین بسیاری دربارهٔ امنیت شغلی خود نگران‌اند، چرا که خودکارسازی تهدیدی برای مشاغل ورودی مهندسی نرم‌افزار و بازاریابی به‌نظر می‌رسد.

    چندین سازمان در سراسر جهان سعی کرده‌اند برای کند کردن توسعهٔ هوش مصنوعی فشار وارد کنند. در سال ۲۰۲۳، صدها دانشمند برجسته از بزرگ‌ترین شرکت‌های هوش مصنوعی درخواست کردند تا برای شش ماه کار بر روی این فناوری را متوقف کنند و ضررهای فاجعه‌آمیزی که ممکن است به‌وجود بیاید، ارزیابی نمایند. این کمپین‌ها موفقیت کمی کسب کرده‌اند و شرکت‌ها همچنان به‌سرعت مدل‌های جدید، قدرتمندتر هوش مصنوعی را عرضه می‌کنند.

    اما با وجود محیط سیاسی مشکل‌ساز، اعضای گروه عدالت آب‌وهوایی در آمازون می‌گویند احساس می‌کردند باید به‌جنگ با خطرات احتمالی هوش مصنوعی بپردازند. استراتژی آن‌ها تا حدی این است که کمتر به نگرانی‌های طولانی‌مدت دربارهٔ هوش مصنوعی پیشرفته‌تری که از انسان‌ها برتر است، تمرکز کنند و به پیامدهایی که بلافاصله باید با آن‌ها مواجه شوند، بیشتر بپردازند. اعضا می‌گویند که مخالف هوش مصنوعی نیستند؛ در واقع نسبت به این فناوری خوش‌بینند، اما می‌خواهند شرکت‌ها رویکردی اندیشمندانه‌تر نسبت به نحوه استفاده از آن اتخاذ کنند.

    «موضوع فقط این نیست که اگر موفق به توسعهٔ هوش برتر (سوپراینتلیجنس) شوند چه اتفاقی می‌افتد»، یکی از کارمندان با تجربهٔ ده ساله در بخش سرگرمی‌های آمازون می‌گوید. «ما می‌خواهیم بگوییم: هزینه‌هایی که الآن می‌پردازیم توجیه‌پذیر نیستند. ما در چند سال باقی‌مانده برای جلوگیری از گرم‌شدن فاجعه‌بار هستیم».

    کارمندان می‌گویند جمع‌آوری حمایت برای این نامهٔ باز نسبت به سال‌های پیش دشوارتر بوده، چون آمازون به‌تدریج توانایی کارمندان برای درخواست امضای دیگران را محدود کرده است. سازماندهندگان به WIRED می‌گویند که اکثر امضاکنندگان این نامه جدید از طریق ارتباط با همکاران بیرون از محیط کار به دست آمده‌اند.

    Orin Starn، انسانی‌شناس دانشگاه دوک که دو سال به‌صورت مخفی به‌عنوان کارگر انبار آمازون کار کرد، می‌گوید زمان برای به‌چالش کشیدن این غول رسیده است. او می‌گوید: «بسیاری از مردم از سرافرازی‌های بی‌حد و حصر میلیاردرها و از شرکتی که صرفاً به‌صورت نمایشی به مسائل تغییر آب‌وهوایی، هوش مصنوعی، حقوق مهاجران و زندگی کارگران خود می‌پردازد، خسته شده‌اند».

    کارخانه زباله

    دو کارمند آمازون می‌گویند مدیران با کم‌اهمیت نشان دادن مشکلات ابزارهای داخلی هوش مصنوعی شرکت، واقعیت عدم رضایت کارگران از این ابزارها را نادیده می‌گیرند.

    به‌گفتهٔ یک مهندس توسعه نرم‌افزار در بخش محاسبات ابری آمازون، برخی مهندسان تحت فشار هستند تا با استفاده از هوش مصنوعی بهره‌وری خود را دو برابر کنند وگرنه خطر از دست دادن شغل را دارند. اما این مهندس می‌گوید ابزارهای آمازون برای نوشتن کد و مستندات فنی کافی نیستند تا این هدفهای بلندپروازانه را محقق سازند. یک کارمند دیگر خروجی‌های هوش مصنوعی را «زباله» می‌نامد.

    این نامهٔ باز خواستار ایجاد «گروه‌های کاری هوش مصنوعی اخلاقی» در آمازون است که شامل کارگران پایه می‌شود؛ این گروه‌ها می‌توانند در نحوه استفاده از فناوری‌های نوظهور در وظایف شغلی خود نظراتی داشته باشند. همچنین می‌خواهند در مورد چگونگی استفاده از هوش مصنوعی برای خودکارسازی بخش‌هایی از نقش‌های خود تصمیم‌گیری کنند. ماه گذشته، پس از اعلام آمازون مبنی بر قطع تقریباً ۱۴٬۰۰۰ شغل برای بهتر پاسخ‌گویی به نیازهای عصر هوش مصنوعی، موجی از کارگران شروع به امضای این نامه کردند. تا سپتامبر، آمازون حدود ۱٫۵۸ میلیون نفر را مشغول به کار داشت که نسبت به اوج بیش از ۱٫۶ میلیون نفر در پایان سال ۲۰۲۱ کاهش یافته است.

    این گروه عدالت آب‌وهوایی عمداً هدف خود را پیش از هیجان خریدهای جمعهٔ سیاه به‌دست آوردن آستانهٔ امضاهای خود تنظیم کرد تا هزینهٔ فناوری‌ای را که پشت یکی از بزرگ‌ترین پلتفرم‌های خرید آنلاین جهان است، به‌خاطر بسپارد. این گروه بر این باور است که می‌تواند تأثیرگذار باشد؛ زیرا اتحادیه‌های کارگری، از جمله در حوزه‌های پرستاری، دولتی و آموزشی، موفق شده‌اند در تعیین نحوه استفاده از هوش مصنوعی در حوزه‌های خود صدا داشته باشند.

    نگرانی‌های آب‌وهوایی

    گروه کارمندان آمازون، که در سال ۲۰۱۸ تشکیل شد، اعتراف می‌کند که با برگزاری مجموعه‌ای از اعتراضی‌ها، پیشنهادات سهام‌داران و دادخواست‌ها، از جمله یکی در سال ۲۰۱۹ که بیش از ۸٬۷۰۰ امضای کارمند جمع‌آوری کرد، بر تعهدات زیست‌محیطی شرکت تأثیر گذاشته است.

    Glasser، سخنگوی آمازون، می‌گوید که اهداف و پروژه‌های آب‌وهوایی سال‌ها پیش از ظهور این گروه حمایت‌کننده در دست بوده‌اند. با این حال، چیزی که همه آن را می‌پذیرند، مقیاس چالش‌های پیشرو است. فعالان اشاره می‌کنند که انتشار گازهای گلخانه‌ای آمازون از سال ۲۰۱۹ حدود ۳۵ درصد افزایش یافته است و آن‌ها خواستار تدوین یک برنامهٔ دقیق جدید برای رسیدن به هدف صفر خالص انتشار تا سال ۲۰۴۰ هستند.

    فعالان می‌گویند آنچه اخیراً از آمازون دریافت کرده‌اند الهام‌بخش نیست. یکی از کارمندان می‌گوید که چند هفته پیش، در جلسهٔ سراسری شرکت، یک مدیر اجرایی اعلام کرد که تقاضای مراکز داده تا سال ۲۰۲۷ ده‌برابر خواهد شد. سپس این مدیر استراتژی‌ای جدید برای کاهش مصرف آب در این مراکز به میزان ۹ درصد معرفی کرد. کارگر می‌گوید: «این قطره‌ای در دریا است». او افزود: «مایلم دربارهٔ بخش انرژی ده‌برابری و منبع تأمین آن بیشتر بحث کنیم».

    Glaser، سخنگوی آمازون، می‌گوید: «آمازون پیشاپیش متعهد به تأمین پایدارتر عملیات خود و سرمایه‌گذاری در انرژی بدون کربن است».

  • مشاور سیاسی که تماس‌های روباتیک هوش مصنوعی ارسال کرد، می‌گوید به همان‌طور که دادگاه حکم داده است، به رأی‌دهندگان پول نمی‌پردازد

    توسط رایان مانچینی

    فایل – در این عکس آرشیوی تاریخ ۱۱ آگوست ۲۰۱۹، مردی در نیواورلئان از تلفن همراهش استفاده می‌کند. کمیسیون فدرال ارتباطات جریمه‌ای به‌مقدار ۶ میلیون دلار علیه مشاور سیاسی که تماس‌های روباتیک تولیدشده توسط هوش مصنوعی و شبیه‌سازی صدای جو بایدن را به رأی‌دهندگان پیش از مرحله مقدماتی نیوهام‌شپیر ارسال کرده بود، صادر کرد. استیو کرمر نیز با دو دوجین اتهام جنایی در نیوهام‌شپیر مواجه است. کرمر اقرار کرده است که پیام ارسالی به هزاران رای‌دهنده را سازماندهی کرده است. (عکس AP/جنی کین، فایل)

    یک مشاور سیاسی دموکرات روز سه‌شنبه اعلام کرد که پس از پذیرش استفاده از تماس‌های روباتیک تولیدشده توسط هوش مصنوعی که صدای رئیس‌جمهور پیشین جو بایدن را در انتخابات مقدماتی ۲۰۲۴ تقلید می‌کرد، به هیچ‌یک از سه رأی‌دهنده مبلغ ۲۲,۵۰۰ دلار که توسط دادگاه مقرر شده بود، پرداخت نخواهد کرد.

    استیو کرمر به خبرگزاری آسوشییتد پرس گفت که پیش از این تبرئه شده است و در روز جمعه به حکم دادگاه پاسخی نخواهد داد. هیئت منصفه در ماه جولای کرمر را از اتهامات سرکوب رای‌دهندگان و جعل هویت یک نامزد تبرئه کرد.

    او افزود که این دعوای جدید صرفاً یک مانور تبلیغاتی بود.

    این حکم دادگاهی از یک دعوای حقوقی که توسط اتحادیه زنان رای‌دهنده مطرح شد، ناشی شد. علاوه بر این‌که به او دستور داد تا به هر یک از این سه رأی‌دهنده مبلغ ۷,۵۰۰ دلار پرداخت کند، او را از انجام این گونه رفتارها در سرتاسر کشور منع کرد.

    «آقای کرمر به‌طور مستمر قانون و حقوق رای‌دهندگان را نادیده می‌گیرد؛ برنامه او برای سرپیچی از حکم دادگاه این الگو را ادامه می‌دهد و بر اهمیت دستور موقت و غرامت تأکید می‌کند»، کورتنی هوستتلر از سازمان آزادی بیان برای مردم، که به اتحادیه زنان رای‌دهنده کمک حقوقی کرده بود، به آسوشییتد پرس گفت.

    اگر کرمر پرداخت نکند، خواهان‌ها درخواست اقدامات بیشتری خواهند کرد، هوستتلر افزود.

    کمیسیون فدرال ارتباطات (FCC) نیز جریمه‌ای به‌مقدار ۶ میلیون دلار علیه کرمر وضع کرد که او هنوز پرداخت نکرده است، طبق گزارش آسوشییتد پرس. پس از بروز رسوایی تماس‌های روباتیک، FCC استفاده از تماس‌های روباتیک مبتنی بر هوش مصنوعی را ممنوع کرد.

    در ماه می ۲۰۲۴، دادستان کل نیوهام‌شپیر کرمر را به سیزده اتهام جدی سرکوب رای‌دهندگان و سیزده اتهام جزئی جعل هویت یک نامزد متهم کرد.

    تماس روباتیکی که با صدای بایدن انجام شد، از رای‌دهندگان خواست تا در انتخابات مقدماتی نیوهام‌شپیر رأی ندهند و به جای آن در ماه نوامبر رأی دهند.

    این تماس اولین استفاده شناخته‌شده از تکنولوژی دیپ‌فیک در سیاست ایالات متحده بود و موجی از درخواست‌ها برای تنظیم استفاده از هوش مصنوعی در انتخابات به‌وجود آورد.

    صدای جعلی بایدن در این تماس هزاران رای‌دهندهٔ مرحلهٔ مقدماتی نیوهام‌شپیر را تشویق کرد تا در خانه بمانند و «رای خود را حفظ کنند».

    کرمر در کارزار ریاست‌جمهوری نماینده دین فیلیپس (دموکرات مینه‌سوتا) که گزینه‌ای کم‌احتمال بود، مشغول به کار بود. او پیش از این گفته بود که تیم فیلیپس با طرح تماس روباتیک او ارتباطی ندارند و از آن بی‌اطلاع بوده‌اند.

  • چگونه با مادربزرگ دربارهٔ ChatGPT صحبت کنیم

    تصویر یک زن سالخورده که لوگوی OpenAI در عینک او منعکس شده است.

    تصویر: Allie Carl / Axios

    کارشناسان آداب و رسوم توصیه می‌کنند که در میز شام تعطیلات دربارهٔ سیاست و مذهب صحبت نشود، اما دلیل خوبی برای صحبت کردن دربارهٔ هوش مصنوعی وجود دارد، به‌ویژه با بستگان مسن.

    چرا مهم است: افراد سالمند هدف اصلی کلاهبرداری‌ها هستند و هوش مصنوعی به‌طوری آسان و ارزان‌قیمت‌تری می‌تواند متونی، صدا و ویدئوی جعلی متقاعدکننده‌ای تولید کند که خود را به‌عنوان بستگان در وضعیت اضطراری نشان می‌دهند.

    آمار: بزرگسالان سالمند در یک‌سوم موارد، محتوای آنلاین را اشتباه تشخیص می‌دهند، طبق یک مطالعهٔ اخیر توسط شرکت مراقبت‌های بهداشتی در منزل The CareSide و پژوهشگران دانشگاه هاروارد و دانشگاه مینه‌سوتا.

    • در یک آزمون کوتاه، سالمندان شرکت‌کننده حدود یک‌سوم زمان‌ها محتواهای واقعی را جعلی و یا محتواهای جعلی را واقعی می‌نامیدند، حتی اگر نسبت به توانایی خود در تشخیص تفاوت اطمینان داشته باشند.

    راهنمای مختصر برای کمک به بستگان (و خودتان) در عبور از دنیای آنلاین که مرزهای بین آثار انسانی و ماشینی در هم می‌آمیزد.

    درک چگونگی کار مدل‌های زبانی بزرگ (LLM) (و اینکه چه کار نمی‌کنند)

    نگاه کلی: برای درک یا کمک به دیگران در درک هوش مصنوعی، نیازی به داشتن دکترای یادگیری ماشین ندارید.

    • مدل‌های زبانی بزرگ (LLM) که چت‌بات‌ها را تقویت می‌کنند، جادو نیستند؛ آن‌ها ماشین‌های پیش‌بینی هستند که کلمه (یا پیکسل یا فریم ویدئویی) بعدی محتمل‌ترین را حدس می‌زنند.
    • ربات‌ها نیز هوشمند هستند؛ دوستانه، شوخ‌طبع و می‌توانند همدلی را شبیه‌سازی کنند. و اگرچه در عدم هماهنگی خودکار با دید کاربر پیشرفت می‌کنند، اما هنوز برای گفتن چیزی که می‌خواهید بشنوید، پاداش می‌گیرند.
    • به گفتهٔ پژوهشگر هاروارد، فِرد هیدینگ، حذف حس شرمندگی از عدم درک چگونگی کار این همه چیز مهم است، به‌ویژه اگر عزیزتان قربانی یک کلاهبرداری شده باشد.

    در مورد آن صحبت کنید

    نمونه‌ای از این مسأله: اطمینان حاصل کنید که بستگان شما از کلاهبرداری‌های تلفنی و پیامکی آگاهند. در مورد این‌که یک تماس یا پیام مشکوک می‌تواند چگونه به نظر برسد توضیح دهید: «نوه‌ای در دردسر»، بانکی که طلب پرداخت فوری دارد، یا مراقبی که درخواست کارت‌های هدیه اضطراری می‌کند.

    • به پدربزرگ و مادربزرگ بگویید که همیشه می‌توانید تماس را قطع کنید و با شماره‌ای که می‌شناسند بازگردید، یا پیش از ارسال پول، در پیام گروه خانوادگی بررسی کنید.
    • یک «کلمهٔ ایمن» خانوادگی تدوین کنید تا به‌سادگی هویت یک بستگان را در تماس یا پیام تأیید کنید. «این می‌تواند به‌عنوان یک پل نرم برای گفتگو دربارهٔ خطرات هوش مصنوعی به‌طور کلی با مادربزرگ‌ها باشد»، سارا دولی، بنیانگذار AI‑Empowered Mom، به Axios گفت.

    آموزش “نشانه‌های” هوش مصنوعی

    بین خطوط: تولیدکنندگان متن، تصویر و ویدئو به‌تدریج واقع‌گرایانه‌تر می‌شوند، اما هنوز راه‌هایی برای تشخیص محتوای هوش مصنوعی وجود دارد.

    • اگر چیزی را کمی نامناسب یا مشکوک ببینید, «حس درون‌تان باید بگوید که جزئیات را دقیق‌تر بررسی کنید»، می‌گوید جِرمی کاراسکو، متخصص افشای هوش مصنوعی و مؤسس Showtools.ai در یوتیوب و تیک‌تاک.
    • اگر ویدئو شبیه ضبط دوربین امنیتی یا دوربین بدنی باشد، این شاخصی است. تولیدکنندگان ویدئوی هوش مصنوعی در ساخت صحنه‌های واقع‌گرایانهٔ دوربین‌های نظارتی مهارت دارند، چون ما به این ویدئوها که کمی «grainy» به‌نظر می‌رسند عادت داریم.

    بدانید که چت‌بات‌ها اغلب با اطمینان اشتباه می‌کنند

    چک واقعیت: امروزه اکثر مردم می‌دانند که هوش مصنوعی همیشه باید صحت‌سنجی شود. مدل‌های زبانی ممکن است هالوسینیشن داشته باشند یا اطلاعات ساختگی ارائه دهند.

    • چت‌بات‌ها همیشه با اعتماد به‌نفس صحبت می‌کنند. پاسخ‌هایشان حتی هوشمندترین کاربران را می‌تواند فریب دهد.
    • ویدئوها به‌ویژه ما را آموزش می‌دهند تا به‌سرعت و به‌صورت غریزی واکنش نشان دهیم، بدون اینکه سؤالاتی که معمولاً می‌پرسیم، بپرسیم. «دقت و آگاهی مهم‌ترین مهارت‌هایی هستند که باید بازسازی شوند، به‌ویژه برای سالمندانی که در دنیایی بزرگ شدند که عکس‌ها و ویدئوها بودند شواهد»، روبِرتا اشمید، سردبیر NewsGuard، به Axios گفت.
    • با افراد سالمند بنشینید و از چت‌بات مورد علاقهٔ آن‌ها سؤالی بپرسید که عزیزتان به‌خوبی می‌داند. ببینید آیا می‌توانند اشکالات پاسخ‌های آن را پیدا کنند.

    به‌عمق بروید: ساده‌ترین راهنمای استفاده از چت‌بات‌ها.

  • آیا این هوش مصنوعی است — یا سقوط هواپیما؟

    در عصر هوش مصنوعی، یکی از برجسته‌ترین بازرسان فدرال حوادث، دربارهٔ تأثیر احتمالی این فناوری بر عموم مردم پس از وقوع فجایع نگران است.

    تصویری شامل پست X از یک تصویر مشکوک تولیدشده توسط هوش مصنوعی از سقوط هواپیما.

    تصویری شامل پست X که دیگر در دسترس نیست، از یک تصویر مشکوک به‌دست‌آمده توسط هوش مصنوعی از سقوط هواپیمای ژانویه در واشینگتن. | تصویر توسط بیل کوچمن/POLITICO (منبع تصویر از X)

    توسط سام اوگوزالک

    حدود ۱۱ ساعت پس از بزرگ‌ترین فاجعه هوایی کشور در بیش از دو دهه، یک کاربر X تصویر دراماتیکی از نجات‌بخشانی که بر فراز بقایای سقوط در رودخانهٔ پوتاماک می‌رفتند، به همراه نورهای اضطراری که آسمان شب را روشن می‌کردند، منتشر کرد.

    اما این واقعی نبود.

    این تصویر که پس از سقوط مرگبار ژانویه بین یک جت منطقه‌ای و هلیکوپتر بلک‌هاک ارتش، بیش از ۲۱٬۰۰۰ بازدید دریافت کرد، با عکس‌های بدنهٔ خراب شده‌ای که پس از فاجعهٔ ۲۹ ژانویه گرفته شده‌اند — یا مشاهدات افسران پلیس واشنگتن که به صحنه واکنش نشان دادند — که توسط سخنگوی ادارهٔ پلیس، تام لینچ، بیان شد، مطابقت ندارد.

    یک بررسی خبرگزاری به‌سرعت این تصویر را به‌عنوان جعل شناسایی کرد — احتمالاً با استفاده از هوش مصنوعی، بر پایهٔ «DeepFake‑o‑meter» توسعه‌یافته توسط دانشگاه بوفالو. سه ابزار تشخیص هوش مصنوعی که توسط POLITICO به کار رفته‌اند نیز آن را به‌عنوان محتملاً تولید شده توسط هوش مصنوعی علامت‌گذاری کردند. این پست دیگر در دسترس نیست؛ X می‌گوید حساب کاربری معلق شده است.

    اما این تصویر یک مورد منزوی در فضای آنلاین نیست. بررسی POLITICO شواهدی یافت که محتوای تولیدشده توسط هوش مصنوعی به‌صورت روال در پی فجایع حمل‌ونقل در حال ظاهر شدن است، از جمله پس از سقوط هواپیمای باری UPS که در اوایل این ماه ۱۴ نفر را کشته بود. پست‌های مرتبط با حوادث هوایی که در این داستان برجسته شده‌اند، از کاربران بودند که به درخواست‌های نظرسنجی برای اظهار نظر پاسخ ندادند.

    پدیدهٔ رو به رشد این امر متخصصانی مانند جنیفر هومندی، برترین بازرس حوادث حمل‌ونقل کشور، را نگران می‌کند.

    «من بسیار نگرانم که با استفاده از هوش مصنوعی، واقعاً می‌تواند درک عمومی و مسافران را تحت تأثیر قرار دهد»، جنیفر هومندی، رئیس هیئت ملی ایمنی حمل‌ونقل (NTSB)، در یک انجمن خلبانان خطوط هوایی (ALPA) در سپتامبر گفت. NTSB در حال پیگیری تحقیقی یک‌ساله دربارهٔ علل فاجعهٔ ژانویه در واشنگتن است که منجر به مرگ ۶۷ نفر شد.

    مشاور ایمنی هوانوردی جف گوزتی تأیید کرد و گفت که انتشار محتوای ایجادشده توسط هوش مصنوعی به‌سرعت پس از یک سقوط می‌تواند گسترش اطلاعات نادرست را افزایش داده و «یکپارچگی تحقیق واقعی را زیر سؤال ببرد».

    بدترین سناریو این است که «به‌دلیل حواس‌پرتی همه، پیشگیری از حادثهٔ بعدی به‌تأخیر افتد»، گفت گوزتی، که پیشتر مقامات بلندپایه‌ای در NTSB و اداره فدرال هوانوردی (FAA) بود.

    اما او پاسخی ساده برای اینکه FAA چگونه می‌تواند به محتوای مبتنی بر هوش مصنوعی در شبکه‌های اجتماعی واکنش نشان دهد نداشت و گفت که این امر نیاز به راه‌حلی «کل‌دولت» دارد.

    در بیانیه‌ای، این سازمان هوانوردی بیان کرد که «کارزارهای اطلاعات نادرست می‌توانند خطرات ایمنی را افزایش داده و اعتماد عمومی را تضعیف کنند»، و افزود که از «تمام روش‌ها و پلت‌فرم‌های موجود برای ارائه به‌روزرسانی‌های دقیق و لحظه‌ای به مردم» استفاده می‌نماید.

    ‘متن بی‌معنی’

    اما تقلب‌ها همچنان ادامه دارند.

    استاد علوم کامپیوتر و مهندسی دانشگاه بوفالو، سی‌وئی لیو، به ضبط ۹۱۱ ادعایی از سقوط پل فرانسس اسکات کی در سال گذشته در بالتیمور که پس از فاجعه به‌سرعت در شبکه‌های اجتماعی پخش شد و ادعا می‌شد از یک راننده بود که خودروش پس از سقوط در آب در حال غرق شدن بود، اشاره کرد. او گفت ممکن است این صدا توسط هوش مصنوعی ساخته شده باشد — با یک «نشانه واضح» یعنی «قالب آرام گفت‌وگو که با اضطراری بودن وضعیت سازگار نیست».

    به‌تازگی، POLITICO ویدئویی که به‌نظر می‌رسید توسط هوش مصنوعی تولید شده، در TikTok از سقوط یک هواپیمای باربری UPS در لویی‌ویل، کنتاکی، و کنفرانس خبری بعدی NTSB دربارهٔ حادثه اوایل نوامبر یافت. دو ابزار تشخیص هوش مصنوعی که توسط POLITICO به‌کار رفته‌اند، این محتوا را به‌عنوان احتمالاً ساخته‌شده توسط هوش مصنوعی علامت‌گذاری کردند.

    تماشا: گفت‌وگو

    هنگامی که این ویدئو که شامل تصاویری با وضوح بالا از نمای زیرین هواپیمای سوختگی هنگام پرواز است، برای وی ارسال شد، سخنگوی NTSB، پیتر نادسون، اشاره کرد که این ویدئو بخشی از جلسه مطبوعاتی برگزار شده توسط هیئت ایمنی را نشان می‌دهد، اما در نهایت مطمئن نبود که آیا آن بخش با هوش مصنوعی ساخته شده است یا خیر.

    عکس رئیس هیئت ملی ایمنی حمل‌ونقل، جنیفر هومندی.

    رئیس هیئت ملی ایمنی حمل‌ونقل، جنیفر هومندی، در یک نشست هیئت در ماه ژوئیه. او در حال هشدار دادن دربارهٔ جعلی‌های فاجعه‌ای است. | Rod Lamkey Jr./AP

    اما طبق گفتهٔ لیو، این ویدئو از چندین کلیپ ۴ تا ۵ ثانیه‌ای تولیدشده توسط هوش مصنوعی «به‌هم پیوسته» و همراه با روایت متن‑به‑صدا مصنوعی تشکیل شده است.

    «محتوا شامل بسیاری از آثار آشکار هوش مصنوعی است، از جمله جابجایی‌های آتش که با حوادث واقعی ناسازگار است، اشیاء به‌صورت ناگهانی ظاهر می‌شوند، عناصر پس‌زمینه ثابت یا ناسازگار، علامت‌گذاری نادرست هواپیما، صحنه‌های جغرافیایی نادرست، و جزئیات توهمی مانند چراغ‌های تقلبی پلیس و متن بی‌معنی روی جعبه‌سیاه»، لیو گفت.

    او به‌عنوان مثال اشاره کرد که یک هواپیما در ویدئو در میانهٔ هوا ثابت ماند، در حالی که عزاداران نزدیک به یک نرده جمع می‌شدند، و در حین کنفرانس خبری NTSB، مردی در پس‌زمینه «تغییر غیرطبیعی دست را نشان میداد؛ انگشتان و مچ دست او به‌سرعت شکل می‌گیرند».

    نویسنده‌ای که نام کاربری‌اش «pulsenewsreels» است، به درخواست برای نظرآفرینی پاسخی نداد، هرچند توضیح حساب کاربری می‌گوید: «بر پایهٔ حقایقی که در زمان تهیهٔ این ویدئوها می‌دانستیم».

    ‘این واقعی نیست’

    حتی NTSB نیز می‌تواند فریب بخورد.

    هومندی، در حال سخنرانی در انجمن ALPA، به یاد آورد که پس از سقوط هواپیمای ایر اینڈیا در ماه ژوئن در احمدآباد، هند، که ۲۶۰ نفر کشته شد، «کسی از واحدهای عملیاتی ما … به من نزدیک شد و گفت: «آیا ویدئوی ایر اینڈیا را دیدی؟» من هم گفتم: «ای خدای من، چه ویدئویی؟» … او به من نشان داد و من گفتم: «این واقعی نیست».

    «مردم به این مطالب باور می‌کنند»، هومندی گفت.

    POLITICO چندین مثال از محتوای ظاهراً تولیدشده توسط هوش مصنوعی مرتبط با حادثه ایر اینڈیا پیدا کرد.

    به‌عنوان مثال، یک ویدئوی در TikTok آن‌قدر واقعی بود که حتی سه ابزار بررسی هوش مصنوعی موجود آنلاین در ارزیابی اینکه آیا توسط ماشین ساخته شده است یا نه، نظرات متفاوتی ارائه دادند (یکی گفت احتمالاً بله؛ دو دیگری مخالفت کردند). اما این تصویر با عکس‌های واقعی فاجعه که توسط سرویس خبری بین‌المللی معتبر ریتورز منتشر شده بود، مطابقت ندارد.

    نویسنده‌ای که با نام «drsun0715» شناخته می‌شود، به درخواست برای نظرآفرینی پاسخی نداد و TikTok نیز پاسخی نداد. این ویدئو هم‌اکنون در دسترس نیست.

    در مورد سقوط ژانویه نزدیک فرودگاه ملی واشنگتن رونالد ریگان، ابزارهای تشخیص هوش مصنوعی تنها نشانه‌ای نبودند که نشان دهند تصویر ادعایی واقعی نیست. لیو از دانشگاه بوفالو همچنین به «چند نکتهٔ عجیب» در آن اشاره کرد؛ از جمله «اشکال انسانی مبهم»، شخصی با نسبت سر به بدن که طبیعی به نظر نمی‌رسد و «بازتاب نور آبی مرموز» بر سطح آب.

    هنگامی که تصویر نمایش داده شد، سخنگوی NTSB، اریک وایس، افزود که شیشهٔ جلویی هواپیما شبیه شیشهٔ یک مک‌دونل‑داگلاس DC‑10 به نظر می‌رسید؛ یک جت بسیار بزرگ‌تر از بومباردیِر CRJ‑700 که در برخورد حضور داشت.

    کاربری که تصویر را به اشتراک گذاشت و با نام «254Debug» شناخته می‌شود، به درخواست برای نظرآفرینی پاسخی نداد. X نیز پاسخی نداد، هرچند حساب کاربری این فرد در حال حاضر معلق شده است. دلیل این مسأله واضح نیست.

    پست دیگر قابل مشاهده نیست.

  • هوش مصنوعی در راه است تا داستان شبانهٔ کودک‌تان را به‌دست بگیرد

    هوش مصنوعی به‌تدریج تهدیدی واقعی و جدی برای ادبیات کودکان — و یادگیری کودکان — ایجاد می‌کند.

    دختری نوزاد نشسته و با کتابی ساخته‌شده از پیکسل‌های خراب بازی می‌کند.

    تصویر از Mother Jones؛ Getty؛ Unsplash

    امروز صبح همان‌طور که هر روز صبح آغاز می‌کنم، کتابی را برای دخترم می‌خوانم. کتاب امروز، «Abuela» اثر آرتر دوروس بود که توسط الیسا کلون تصویر شده است. «Abuela» داستان شیرینی درباره دختری است که تصور می‌کند او و مادربزرگش به آسمان می‌پرند و در شهر نیویورک پرواز می‌کنند. دوروس به‌طرز ظریف واژگان و عبارات اسپانیایی را در سراسر متن می‌بافد و اغلب به خوانندگان اجازه می‌دهد معنی آن‌ها را خود کشف کنند، به‌جای ترجمه مستقیم. وقتی روزالبارا، نوهٔ دوزبانه، کشف می‌کند می‌تواند پرواز کند، به مادربزرگش می‌گوید: «Ven, Abuela. بیا، ابوالا». مادربزرگ اسپانیایی‌زبان‌اش به‌سادگی پاسخ می‌دهد: «Sí, quiero volar». استفادهٔ زبانی آن‌ها به شخصیت‌شان اشاره دارد — امری که بسیاری از نویسندگانی که برای بزرگسالان می‌نویسند، انجام نمی‌دهند.

    «Abuela» یکی از کتاب‌های مورد علاقهٔ دوران کودکی‌ام بود و اکنون یکی از کتاب‌های مورد علاقهٔ دو‑ساله‌ام نیز است. (بله، ما نسخهٔ کهنه‌ام را می‌خوانیم.) او از ایدهٔ مادربزرگی که پرواز می‌کند خوشش می‌آید؛ او از یادگیری تکه‌هایی از آنچه او «Fanish» می‌نامد لذت می‌برد؛ او از صحنه‌ای که روزالبارا و ابوالا سوار هواپیما می‌شوند خوشش می‌آید، اگرچه نگران این است که صداهای هواپیما ممکن است بسیار بلند باشد. از همه مهم‌تر، او تصاویر گرم اما پرخندهٔ کلون را دوست دارد که زندگی شهری را با جزئیات تقریباً نقطه‌نگاری به تصویر می‌کشند. هر صفحه موارد بی‌شماری برای او فراهم می‌کند تا به‌دنبالشان بگردد و برای ما نیز موضوعات بسیاری برای بحث می‌سازد. (سگ‌ها کجا هستند؟ «tío» روزالبارا چه می‌فروشد؟ چرا وقتی هواپیماها صدا می‌کنند ترسناک می‌شود؟) من احتمالاً حدود ۲۰۰ بار «Abuela» را از زمانی که در طول تابستان از والدینم برداشتم، خوانده‌ام و هیچ دو بار خواندن مشابه هم نیستند.

    هر روز صبح را با کتابی به‌قابلیتی همانند «Abuela» شروع نمی‌کنم. گاهی دخترم کتاب‌هایی را انتخاب می‌کند که دوست دارم نخوانیم: کتاب‌هایی که به‌عنوان هدیه به‌خانه‌مان رسیده‌اند یا در انبوهی از کتاب‌های هدیه‌داده‌شده وجود دارند که هنوز از بین نیاورده‌ام. این کتاب‌ها دارای هنرهای رندر شدهٔ کامپیوتری رنگارنگ و ناهنجار هستند. برخی متونشان شعرهای کودکانه است و بقیه قافیه‌های بی‌معنی دارند که به‌نظر نمی‌رسد داستانی بسازند. یک یا دو کتاب به‌موضوع تعطیلات یهودی می‌پردازند و چند کتاب دیگر سوغاتی‌های گردشگری هستند

  • درامای پیش از Renegades در Destiny 2: شایعات Destiny 3 و اتهامات هوش مصنوعی

    Renegades 2
    Destiny 2 – Bungie

    Bungie به‌تازگی مقدار زیادی زمان را صرف توضیح گسترش پیش‌روِ Renegades برای Destiny 2 کرد که قرار است هفتهٔ آینده، در ۲ دسامبر، منتشر شود. یک استریم، یک Vidoc و یک تریلر به نمایش گذاشته شد و واکنش‌ها عموماً مثبت بوده‌اند؛ این گسترش که به‌ شدت تحت تأثیر استار وارز است و به‌صورت مشترک با لوکاس‌فیلم تولید شده است. اما اکنون دو خبر جداگانه جامعه را شگفت‌زده کرده‌اند.

    اولین خبر گزارشی از چند افشاگر Bungie است که می‌گویند Destiny 3 در «توسعهٔ بسیار اولیه» قرار دارد. این برای جامعه خبری تازه است، چرا که پیش‌بینی نمی‌شد چنین طرحی در دستور کار باشد و حتی اگر در پیش‌روی باشد، چندین سال طول خواهد کشید.

    دومین خبر یک اتهام است، عمدتاً از طرف @MGecko117، که می‌گوید Bungie برای خلق هنر مفهومی تازه منتشر شده از Dredgen Bael، شخصیت اصلی گسترش Renegades، از هوش مصنوعی استفاده کرده است. Gecko حدود یک دوجین قطعه از این هنر را بررسی می‌کند و معتقد است که قطعاً توسط هوش مصنوعی ساخته شده‌اند؛ پست‌های او به تنهایی نیم‌ میلیون بازدید در توییتر کسب کرده‌اند و تعداد بیشتری بازدید از توییت‌های نقل‌شده دربارهٔ این موضوع به دست آمده است.

    طرح مفهومی Destiny
    طرح مفهومی Destiny – Bungie

    نظرات من به این صورت است:

    Destiny 3 – اگر حتی حداقل در Bungie مورد بحث قرار گیرد، تعجب‌آور خواهد بود، چرا که «توسعهٔ بسیار اولیه» می‌تواند چنین معنی را داشته باشد. سؤال این است که آیا عناوین فعلی Bungie به‌ اندازهٔ کافی موفق خواهند شد تا این امکان فراهم شود یا خیر.

    انتشار پیش‌روِ Marathon برای Bungie اهمیت بالایی دارد؛ اگر این پروژه با شکست مواجه شود، سرنوشت کل استودیو به خطر می‌افتد. در غیر این صورت، فضای بیشتری برای آینده فراهم می‌شود.

    Destiny 2 خود، چه گسترش استار وارز محکمی داشته باشد یا نه، علائمی از توانایی بازگرداندن تعداد بازیکنان نشان نمی‌دهد و جامعه به‌ طور عمده این‌نظر است که تنها راه‌حلی برای احیای این فرنچایز، یک دنباله است. البته، ساخت یک دنباله واقعی برای بازی‌ای مانند Destiny تقریباً پنج سال زمان می‌برد و شاید بیش از پنج سال طول بکشد؛ اندیشیدن به چنین آینده‌ای دور برای Bungie در حال حاضر صرفاً نظری است. انتظار نداریم Bungie در این باره نظری بدهد.

    Bael
    Destiny 2 – Bungie

    اتهامات هوش مصنوعی – صادقانه بگویم، این ادعا را قبول ندارم. این یک هنر مفهومی اولیه است و اگر یک دهه Destiny را دنبال کرده باشید، می‌دانید که بسیاری از آثار مفهومی به این سبک وجود دارد. فقط در آن زمان، مردم این‌چنین اتهامات هوش مصنوعی را با سرعت هزار مایلی پخش نمی‌کردند، در حالی که این هر روز شاهد اتهام‌زنی‌های مشابه به هنرمندان توانمند، حتی مشهور، به‌ دلیل استفاده از هوش مصنوعی هستیم.

    در مورد هنر مفهومی، هیچ‌یک از این جزئیات «مانند هوش مصنوعی» به‌نظر نمی‌رسد که غیرعادی باشند. برای مثال، یک لایت‌سِیبر بدون دسته از دست Bael بیرون آمده است. به‌نظر می‌رسد که این صرفاً یک اثبات مفهوم باشد که کسی یک تصویر PNG از تیغ لایت‌سِیبر را بر روی آن قرار داده تا ببینند چگونه به‌نظر می‌رسد. هوش مصنوعی می‌تواند به‌ طور قانع‌کننده‌ای شخصی را که لایت‌سِیبر در دست دارد نشان دهد. چندین توضیح ممکن است وجود داشته باشد؛ از روش‌های قدیمی مانند فوتوبَشینگ گرفته تا در بدترین حالت، نوعی ارتقاء توسط هوش مصنوعی که با هوش مصنوعی مولد (genAI) تفاوت دارد.

    با این حال، این موضوع کمکی نمی‌کند که Bungie در طول سال‌ها تقریباً نیم دوجین پرونده تقلب را تجربه کرده باشد و جدیدترین آن با Marathon بوده است؛ به همین دلیل بخش هنر این شرکت در حال حاضر اعتماد خیلی کمی دارد. با این‌وجود، تقلب و هوش مصنوعی مولد (genAI) دو نوع رسوایی متفاوت هستند. من فکر نمی‌کنم این اتفاق در اینجا رخ داده باشد، اما بیانیه قطعی از سوی Bungie می‌تواند کمک‌کننده باشد. تصور نمی‌کنم Bungie بخواهد در روزی که تعدادی ویدیو و مقاله مرتبط با Renegades منتشر می‌شود، این‌چنین بیانیه‌ای بدهد؛ اما بهتر است هم‌اکنون به این موضوع رسیدگی شود.

    آیا امروز بدون رسوایی‌های بیشتر می‌گریم؟ خوب، ساعت هم‌اکنون ۹ صبح است، پس شاید ببینیم.

  • آیا آزمایش DNA انجام داده‌اید؟ این چت‌بات درباره نتایج شما صحبت خواهد کرد.

    الکس کاتلار، بنیان‌گذار Bystro AI، در دفاتر استارتاپ در بوستون.
    الکس کاتلار، بنیان‌گذار Bystro AI، در دفاتر استارتاپ در بوستون. دیوید ال راین/ کارکنان Boston Globe / دیوید ال راین/ کارکنان Boston Globe

    آزمون‌های ژنتیکی ارسال‌شده توسط میلیون‌ها نفر برای ردیابی پیشینهٔ خانوادگی می‌توانند به مردم کمک کنند تا زندگی سالم‌تری داشته باشند. این همان پیشنهادی است که Bystro AI، یک استارتاپ بوستونی، با به‌کارگیری هوش مصنوعی برای استخراج درس‌های حیاتی زندگی از DNA افراد ارائه می‌دهد.

    Bystro که در سال ۲۰۲۱ تأسیس شد، ثبت‌نام کاربران برای چت‌بات هوش مصنوعی جدید خود را آغاز کرده است. افراد می‌توانند نتایج آزمون ژنتیکی خود را به آن بدهند و سپس دربارهٔ بهینه‌سازی رژیم غذایی، بهترین نوع ورزش یا احتمال ابتلا به بیماری‌های جدی مانند بیماری کلیوی یا آلزایمر سؤال کنند.

    «من فکر می‌کنم که در افراد تمایل نهفته‌ای برای داشتن کنترل بر سلامت خود وجود دارد»، الکس کاتلار، بنیان‌گذار شرکت، گفت: «و تا حد امکان می‌خواهم آن‌ها را توانمند کنم تا این کار را انجام دهند.»

    Bystro از یک سامانه هوش مصنوعی استفاده می‌کند که بر پایهٔ مقادیر وسیعی از پژوهش‌های ژنتیک و سلامت انسانی آموزش دیده است. این نسخه به صورت تجاری عرضه می‌شود تا به پزشکان و پژوهشگران کمک کند به‌سرعت داده‌های ژنتیکی مهم را برای استفاده در تحقیق و درمان بیماران استخراج کنند. شرکت انتظار دارد برای نسخهٔ حرفه‌ای بین $200 و $300 در ماه هزینه دریافت کند و همچنین برای کاربران دانشگاهی و شرکتی مجوزهایی ارائه دهد.

    اما Bystro همچنین قصد دارد نسخهٔ مصرف‌کننده‌ای با هزینهٔ $10 در ماه ارائه دهد، که برای افرادی است که اطلاعات ژنومیک خود را از سرویس‌هایی که ژنوم انسانی را تجزیه و تحلیل می‌کنند و به مردم کمک می‌کنند تا تاریخچهٔ خانوادگی خود را پیگیری کنند، مانند Ancestry یا ۲۳اندمی، خریداری کرده‌اند.

    برخی از دانشمندانی که به مطالعهٔ ژنتیک و بیماری می‌پردازند، شک کردند که چنین خدمتی برای مصرف‌کنندگان مفید باشد. آن‌ها استدلال می‌کردند که ژنتیک نقش نسبتاً کمی در اکثر بیماری‌های پزشکی دارد، در حالی که محیط و سبک زندگی مهم‌تر هستند. لینزِی فارر، استاد ژنتیک در دانشگاه بوستون، گفت که «پروفایل‌های ژنتیکی اکثر افراد خطر ابتلا به بیماری‌های شایع بزرگسالی و سالمندی را به مقدار کسرهایی معمولاً کمتر از ۵۰٪ افزایش می‌دهند. نه ۱۰۰٪.»

    یک نگرانی دیگر ممکن است حریم شخصی باشد. کاتلار می‌داند که DNA یک فرد از شخصی‌ترین اطلاعات است. او گفت Bystro سامانهٔ هوش مصنوعی خود را بر پایهٔ پژوهش‌های علمی آموزش می‌دهد، نه بر روی اطلاعات ژنتیکی کاربران. «ما نیازی نداریم که از داده‌های افراد یاد بگیریم»، او افزود. «داده‌ها به مدت زمانی که کاربر می‌خواهد از آن استفاده کند باقی می‌مانند، اما ما کاری با آن انجام نمی‌دهیم.»

    کاتلار معتقد است که افراد نگران سلامت خود حق دارند به تمام اطلاعاتی که می‌توانند دست یابند، دسترسی داشته باشند.

    یک اسکرین‌شات از پاسخ چت‌بات هوش مصنوعی Bystro به سؤال ارزیابی خطر ابتلا به بیماری کلیوی برای یک شخص، با استفاده از DNA شخص ناشناخته به عنوان آزمایش.
    یک اسکرین‌شات از پاسخ چت‌بات هوش مصنوعی Bystro به سؤال ارزیابی خطر ابتلا به بیماری کلیوی برای یک شخص، با استفاده از DNA شخص ناشناخته به عنوان آزمایش.

    او در مارس ۱۹۸۶ در اوکراین (هنوز بخشی از اتحاد جماهیر شوروی) متولد شد؛ یک ماه پس از آن انفجار رآکتور هسته‌ای در چرنوبیل رخ داد. کاتلار و خانواده‌اش با وجود مخفی‌کردن مقیاس فاجعه توسط دولت، از ناحیهٔ رادیواکتیو فرار کردند. «ما تنها چون بچه‌های ثروتمندان شوروی در حال فرار بودند، فهمیدیم که باید فرار کنیم»، کاتلار گفت.

    پس از سال‌ها آزار و اذیت ضد‌یهودی، کاتلار و مادرش در سال ۱۹۹۱ به ایالات متحده مهاجرت کردند؛ او در آن زمان پنج ساله بود. در این میان خانواده با مشکلات سلامتی متعددی روبرو شد، از جمله سرطان خون، سرطان ریه، سرطان مری و کم‌کاری تیروئید. خود کاتلار نیز برای ترمیم غضروف‌های نازک شانه‌هایش به چندین عمل جراحی نیاز داشت.

    کاتلار وارد برنامهٔ مهندسی زیست‌پزشکی دانشگاه بوستون شد، اما پس از آن به مدیریت کسب‌وکار تغییر مسیر داد؛ در همین حین عشق او به پزشکی هرگز از بین نرفت. «من روزانه ۱۲ ساعت PubMed (پایگاه دادهٔ آنلاین پزشکی) را می‌خواندم تا بفهمم چه مشکلی دارم و چطور می‌توانم خانواده‌ام را از آنچه در جریان است محافظت کنم.»

    در دانشگاه ایموری آتلانتا، کاتلار دکترای ژنتیک را با تمرکز بر توسعه ابزارهایی که به افراد امکان استخراج اطلاعات مفید از حجم وسیعی از داده‌های ژنتیکی را می‌دهد، به‌دست آورد. ظهور سامانه‌هایی مانند ChatGPT گزینهٔ قدرتمند جدیدی فراهم کرد — هوش مصنوعی‌ای که می‌تواند گفتار عادی انسان را درک کند و به زبانی پاسخ دهد که افراد عادی بتوانند آن را درک کنند.

    ایموری به دست آوردن هدیهٔ یک میلیون دلاری از یک خیرکن ناشناس برای راه‌اندازی Bystro کمک کرد. این نام هیچ ارتباطی با رستوران‌های صمیمی ندارد؛ در زبان روسی به معنای «سریع» است.

    کاربر Bystro می‌تواند بپرسد که آیا ویژگی‌های ژنتیکی خاصی دارند که ممکن است در آینده منجر به مشکلات سلامتی شوند. برای مثال، بسیاری از افراد آفریقایی‌تبار ژنی دارند که در برابر بیماری‌های انگل‌زا محافظت می‌کند، اما احتمال ابتلا به بیماری کلیوی را به‌طور چشمگیری افزایش می‌دهد.

    یا کاربر می‌تواند بپرسد که آیا یک مشکل پزشکی موجود ممکن است علت ژنتیکی داشته باشد. به‌عنوان مثال، کسی که به‌طور مکرر دچار سوءهاضمه است می‌تواند بفهمد که به‌صورت ژنتیکی مستعد عدم تحمل لاکتوز است.

    اما ساموئل اسکارپینو، مدیر هوش مصنوعی و علوم زیستی در مؤسسهٔ AI تجربی دانشگاه نورث‌ایسترن، گفت که عوامل محیطی برای اکثر افراد نقش بسیار بزرگ‌تری نسبت به ژنتیک دارند. «حتی اگر سیگنالی از کد ژنتیکی به‌دست آید، احتمالاً توسط انتخاب‌های سبک زندگی یا مکان تولد شما به‌مراتب تحت‌ سوال خواهد بود»، اسکارپینو افزود. «تمام این عوامل متنوع تأثیر بسیار بزرگ‌تری خواهند داشت.»

    با این حال، نظرسنجی‌ای توسط مرکز پزشکی دانشگاه تگزاس ساؤت‌وسترن تخمین می‌زند که ۴۰٪ از ساکنان ایالات متحده نوعی آزمایش ژنتیکی را انجام داده‌اند. کاتلار معتقد است که بسیاری از آن‌ها خوشحالانه برای یک چت‌بات DNA ثبت‌نام خواهند کرد.

    «با Bystro، هر کسی که ژنوم و یک سؤال داشته باشد می‌تواند گفت‌وگویی با زیست‌شناسی خود آغاز کند»، او گفت.

  • تبلیغ هوش مصنوعی مولد EA هم‌اکنون شامل طرح جلد می‌شود

    برای نمایش NHL 26 نسخهٔ لوکس از ابزارهای هوش مصنوعی استفاده شد

    AIEANHL ۲۶

    تصویر جلد نسخهٔ لوکس NHL 26، خانوادهٔ تاکچاک را نشان می‌دهد
    الکترونیک آرتس

    نسخهٔ لوکس NHL 26 خانوادهٔ تاکچاک را بر روی جلد به نمایش می‌گذارد. متیو تاکچاک از تیم پانترز و برادی تاکچاک از تیم سناتورز در کنار پدرشان، پیشروی افسانه‌ای کیت تاکچاک، زیر نورهای روشن روی یک یخ‌پست مه‌آلود به تصویر کشیده شده‌اند. آنچه EA تا پیش از این فاش نکرده بود این است که برای ساخت اثر تبلیغاتی نسخهٔ صد دلاری، از ابزارهای هوش مصنوعی مولد بهره برده است.

    شرکت این دستاورد را در یک ارائه داخلی اخیر به تیم تجربه بازیکنان خود، طبق مدارکی که Kotaku بررسی کرده، برجسته کرد. در بخشی که توسط سرپرست طولانی‌مدت بازاریابی ورزشی EA، پاول مار، رهبری می‌شد، به کارکنان توضیح داده شد که شرکت چگونه از ابزارهای هوش مصنوعی مانند GPT و Comfy UI در فرآیند تولید طرح جلد استفاده کرده است.

    دو مانع اصلی برای این مفهوم وجود داشت: کیت تاکچاک دیگر پیر شده بود و هر دو پسرش در پلی‌آف‌ها مشغول بودند و برای عکاسی سنتی در دسترس نبودند. استفاده از تعویض سر به روش «کلاسیک» با فتوشاپ رد شد؛ بنابراین EA، با کسب اجازه از خانواده، روی هوش مصنوعی مولد برای جوان‌سازی کیت و بازآفرینی پسرانش تکیه کرد. در حالی که تمام این کارها تحت نظارت و بررسی خلاقان انسانی انجام شد، درصدی از نتایج نهایی که به‌صورت کامل توسط هوش مصنوعی تولید شده است نامشخص است.

    «هوش مصنوعی برای تولید نمونه‌های استیلی‌شده در مرحلهٔ اکتشاف استفاده شد»، بخشی از یک اسلاید ارائه می‌خواند. این اسلاید توضیح می‌دهد که تیم مار از کتابخانه‌ای از تصاویر و حالات برای هر ورزشکار استفاده کرده تا هوش مصنوعی را با ظاهر آن‌ها آموزش دهد. همچنین از تصاویر مرجع «از حال و گذشته» برای آموزش مدلی به‌منظور جوان‌سازی کیت و تولید «کیت در اوج فرم» بهره گرفته شد. یک مرحلهٔ نهایی هوش مصنوعی برای یکسان‌سازی نورپردازی بین مدل‌های مختلف به کار رفت و سپس برای تکمیل نهایی به فتوشاپ بازگشت.

    طرح جلد نسخهٔ لوکس NHL 26 جدیدترین نمونه‌ای است از اینکه چگونه شرکت‌های بازی‌ساز حتی در حالی که بازیکنانشان در برابر هرگونه حضور هوش مصنوعی معترض هستند، از این فناوری بهره می‌برند. به‌ویژه EA در حال دویدن برای پذیرش این فناوری است. بیش از یک سال پیش، آندرو ویلسون، مدیرعامل شرکت، به‌صراحت استفاده از هوش مصنوعی توسط EA را برای کمک به خلق هزاران چهره مورد نیاز برای بازگشت نسخهٔ پرفروش College Football تحسین کرد.

    «اگر هوش مصنوعی را به خود رها کنید، کار شما استثنایی نخواهد شد»

    اما برخی از کارمندان در خط مقدم با فناوری مخالف هستند؛ چند نفر به‌تازگی به Business Insider گفتند که هوش مصنوعی کدهای برنامه‌نویسی با خطا تولید می‌کند، پاسخ‌های توهمی و بی‌فایده می‌دهد یا روی رویه‌های کاری خودشان آموزشی می‌گیرد که می‌تواند امنیت شغلشان را به خطر بیندازد.

    «ما هوش مصنوعی را به‌عنوان شتاب‌دهنده‌ای قدرتمند برای خلاقیت، نوآوری و ارتباط با بازیکن می‌بینیم»، ویلسون در گزارش نتایج مالی ماه مه به سرمایه‌گذاران گفت. «در تمام تیم‌های‌مان، ما در حال سرمایه‌گذاری در جریان‌ها و قابلیت‌های جدید برای ادغام هوش مصنوعی به‌منظور بهبود نحوه ساخت، مقیاس‌پذیری و شخصی‌سازی تجارب هستیم؛ از جهان‌های پویا داخل بازی تا ارائه شبیه‌سازی‌های اصیل از ورزشکاران و تیم‌ها در مقیاس‌های شگفت‌انگیز. توسعه‌دهندگان ما از هوش مصنوعی برای گسترش مرزهای ممکن در طراحی، انیمیشن و روایت‌گری استفاده می‌کنند که به ما کمک می‌کند بازی‌پذیری عمیق‌تر و جذاب‌تری ارائه دهیم.»

    این به‌طور عملی چه معنایی دارد؟ ارائه مار سرنخی کوچک می‌دهد. در «یادگیری‌های کلیدی» از تجربهٔ پوشش جلد نسخهٔ لوکس NHL 26، او به سایر کارمندان توصیه می‌کند که مشاورهٔ حقوقی دریافت کنند اما استفاده از هوش مصنوعی را از همان ابتدا آغاز کنند، چون مدل‌ها ممکن است زمان‌بر برای آموزش باشند. همچنین سعی می‌کند تمایزی مبهم بین این که هوش مصنوعی تمام کارها را انجام می‌دهد و این که انسان‌ها هنوز در کنترل فرایند خلاقانه هستند، حفظ کند.

    «از هوش مصنوعی برای گسترش جاه‌طلبی خود استفاده کنید»، یکی از اسلایدهای ارائه می‌خواند. «اگر هوش مصنوعی را به تنهایی رها کنید، کار شما استثنایی نخواهد شد». در زیر این جملهٔ پرمعنا، اسکرین‌شاتی از سرخطی که تخفیف هوش مصنوعی اخیر کوکاکولا را «چشم‌پوشی بی‌نظم» توصیف می‌کرد، نشان داده شده است. این حس به‌نظر می‌رسد که ابزارهای هوش مصنوعی بهترین کارایی را دارند زمانی که هیچ‌کس نتواند تشخیص دهد که اصلاً از آن‌ها استفاده شده است.

    دنیای جدید شجاعانهٔ هوش مصنوعی برای فروش بسته‌های کارت

    شرکت EA هم‌اکنون در فرآیند فروش به عربستان سعودی و دیگر کشورها به‌عنوان بخشی از خرید مالی ۵۵ میلیارد دلاری است. بر اساس گزارش The Financial Times، سرمایه‌گذاری‌های بزرگ بر هوش مصنوعی یکی از راه‌هایی است که انتظار می‌رود شرکت برای پرداخت بدهی‌های خود در آینده از آن استفاده کند. برخی از کارمندان نگران این هستند که این موضوع می‌تواند به کاهش نیروها و تجربهٔ ضعیف‌تری برای بازیکنان منجر شود.

    بخش دیگری از ارائه داخلی به استفاده از ابزارهای هوش مصنوعی خدمات مشتری برای ارائهٔ کمک درون‌بازی به بازیکنان اشاره داشت. به‌عنوان مثال، اگر بازیکن در گذر جدید College Football دچار مشکل شود، یک چت‌بات می‌تواند لینک‌های راهنمای آنلاین یا ویدئوهای کوتاه آموزشی را نمایش دهد. اما یک نمونهٔ نظری برای کاربردهای ممکن این فناوری، گزینهٔ سوم را نیز نشان می‌دهد: خرید بسته‌های کارت.

    «یا این بسته می‌تواند به‌سرعت‌تری به شما در پیشرفت کمک کند»، این پیشنهاد در یک اسلاید ارائه روی صفحه نمایان شد. روبات ادامه می‌دهد: «در آن کوارتر‑بک‌ها و گیرنده‌های با آمار دقت سطح بالایی وجود دارد – عالی برای تقویت مسیرها و پرتاب‌های کوتاه». شواهدی وجود ندارد که EA در حال حاضر در نظر داشته باشد چنین ویژگی‌ای را در بازی‌های واقعی خود پیاده‌سازی کند، اما این تصویر واضحاً توضیح می‌دهد چرا بسیاری از بازیکنان به‌صورت واکنشی با هوش مصنوعی مخالف هستند.

    EA از بیان نظرات خودداری کرد.

    به‌روزرسانی 11/26/25 12:08 p.m. ET: EA تأیید کرد که خانوادهٔ تاکچاک اجازهٔ استفاده از هوش مصنوعی را داده‌اند.