
حاکمیت هوش مصنوعی در جنوب شرقی آسیا 2025 – ۳۲٫۵۸ مگابایت – دانلود

حاکمیت هوش مصنوعی در جنوب شرقی آسیا 2025 – ۳۲٫۵۸ مگابایت – دانلود
سرگرمکننده است که با هوش مصنوعی پیشرفته بازی کنید. اینجا دلایلی وجود دارد که شاید هنوز هم نباید این کار را انجام دهید.

به محض اینکه فرصتی پیدا شد، برنامه سُرا را دانلود کردم. عکسهای چهرهام — چهرهای که بچههایم هنگام خواب میبوسند — و صدایم — صدایی که برای گفتن «دوستت دارم» به همسرم استفاده میکنم — به پروفایل سُرا بارگذاری کردم. تمام این کارها را انجام دادم تا بتوانم از ویژگی «Cameo» سُرا استفاده کنم و یک ویدیو احمقانه بسازم که نسخه هوش مصنوعی خودم را تحت شلیک توپهای رنگی صد نفر سالمند ساکن یک خانه سالمندان نشان میدهد.
چه کاری انجام دادم؟ برنامه سُرا توسط سُرا ۲، یک مدل هوش مصنوعی — و صادقانه بگویم، شگفتانگیز — قوا میگیرد. این مدل میتواند ویدیوهایی بسازد که میتوان آنها را از سطح سادهلوحانه تا کاملاً شیطانی دستهبندی کرد. این یک سیاهچاله از انرژی و داده است و همچنین توزیعکنندهای از محتوای بسیار مشکوک میباشد. همانند بسیاری از چیزهای امروزی، استفاده از سُرا حس کمی «گناهآلود» به آدم میدهد، حتی اگر دقیقاً ندانید چرا.
پس اگر تازه یک ویدیو سُرا تولید کردهاید، این تمام اخبار بد برایتان است. با خواندن این متن، خود را برای احساس کمی گناهپذیری و نادیدهگیری دعوت میکنید، و آرزوی شما برای من دستورات است.
بر اساس گزارش CNET، یک ویدیوی سُرا حدود ۹۰ وات‑ساعت برق مصرف میکند. این عدد یک تخمین علمی است که از مطالعهای درباره مصرف انرژی کارتهای گرافیکی توسط Hugging Face استخراج شده است.
OpenAI هنوز ارقامی را که برای این مطالعه لازم است، منتشر نکرده و ردپای انرژی سُرا باید از مدلهای مشابه استنتاج شود. ساشا لوسیونی، یکی از پژوهشگران Hugging Face که این کار را انجام داد، خوشحال نیست از تخمینهای مشابه بهویژه تخمینی که در بالا ذکر شد. او در مصاحبهای با MIT Technology Review گفت: «باید از تلاش برای مهندسی معکوس اعداد بر پایه شایعات دست بکشیم» و بر این نکته تأکید کرد که باید شرکتهایی مثل OpenAI را به انتشار دادههای دقیق ترغیب کنیم.
به هر حال، روزنامهنگاران مختلف بر پایه دادههای Hugging Face تخمینهای متفاوتی ارائه دادهاند. برای مثال، وال استریت جورنال تخمین زده است که مصرف بین ۲۰ تا ۱۰۰ وات‑ساعت باشد.
CNET تخمین خود را بهصورت مقایسه یک تلویزیون ۶۵ اینچی که به مدت ۳۷ دقیقه روشن است، تشبیه میکند. وال استریت جورنال تولید یک ویدیو سُرا را به پختن یک استیک از حالت خام تا نیمپز روی یک گریل برقی بیرون از خانه (چون بهنظر میرسد چنین دستگاهی وجود دارد) مقایسه میکند.
ارزش دارد چند نکته دربارهٔ مصرف انرژی این موضوع را واضح کنیم تا احساس شما را حتی بدتر کنیم. ابتدا، آنچه که من توضیح دادم صرف هزینهٔ انرژی در فرآیند استنتاج است که بهعنوان اجرای مدل در پاسخ به یک درخواست (پرومپت) نیز شناخته میشود. آموزش واقعی مدل سُرا به مقدار نامعلومی از برق، البته قطعا عظیم، نیاز داشته است. مدل زبان بزرگ GPT‑4 تخمین زده میشود حدود ۵۰ گیگاوات‑ساعت انرژی مصرف کرده باشد — که بهنقض گفته شده قادر به تأمین برق سانفرانسیس برای ۷۲ ساعت است. سُرا، بهعنوان یک مدل ویدئویی، بیش از آن مقدار انرژی مصرف کرده، ولی چقدر بیشتر است نامشخص.
اگر از زاویهای خاص نگاه کنید، شما پیش از این که حتی یک ویدیو تولید کنید، سهمی از این هزینهٔ ناشناخته رابهخاطر استفاده از مدل میپذیرید.
دوم، جداسازی استنتاج از آموزش بهعنوان یک جنبه مهم دیگری در تعیین میزان گناهپذیری زیستمحیطی شناخته میشود (آیا هنوز برای درخواستتان پشیمان هستید؟). میتوانید هزینه بالای انرژی را بهعنوان چیزی در نظر بگیرید که already اتفاق افتاده است — همانطور که گاوی که در برگر شما است هفتهها پیش مرده و نمیتوانید آن را با سفارش یک پتی «بیاند» (Beyond) پس از نشستن در رستوران احیاء کنید.
از این منظر، اجرای هر مدل هوش مصنوعی مبتنی بر ابر شبیه سفارش «سورف اند تلف» است. «گاو» تمام دادههای آموزشی ممکن است قبلاً مرده باشد، ولی «خرچنگ» درخواست خاص شما هنوز زنده است تا زمانی که درخواست خود را به «آشپزخانه» یعنی دیتاسنتر که استنتاج در آن انجام میشود، بفرستید.
متأسفانه قرار است دوباره تخمین بزنیم. مراکز داده برای خنکسازی مقادیر زیادی آب مصرف میکنند — یا بهصورت حلقه بسته یا از طریق تبخیر. شما نمیدانید کدام مرکز داده یا چند مرکز داده در تولید آن ویدیوی دوستتان که بهعنوان یک شرکتکنندهٔ American Idol در حال «قوزقوز» آهنگ «Camptown Races» بود، دخیل بودهاند.
اما احتمالاً هنوز هم بیش از حدی است که برایتان راحت باشد. سام آلتمن، مدیرعامل OpenAI، میگوید یک درخواست متنی در ChatGPT حدود «یکپانزدهم قاشق چایخوری» آب مصرف میکند و CNET برآورد میکند که یک ویدیو ۲٬۰۰۰ برابر هزینهٔ انرژی یک درخواست متنی دارد. بنابراین، یک تخمین سریع میتواند حدود ۰٫۱۷ گالون (حدود ۲۲ اونس مایع)، یعنی کمی بیشتر از یک بطری پلاستیکی کوک باشد.
و این اگر به حرفهای آلتمن بهصورت مستقیم اعتماد کنید، است. ممکن است این مقدار بیشتر باشد. علاوه بر این، همان ملاحظات درباره هزینهٔ آموزش نسبت به هزینهٔ استنتاج که برای مصرف انرژی مطرح شد، در اینجا نیز صدق میکند. به عبارت دیگر، استفاده از سُرا تصمیمی هوشمندانه از نظر مصرف آب نیست.
تنظیمات حریمخصوصی Cameo سُرا قویاند — بهشرطی که از آنها مطلع باشید و از آنها استفاده کنید. تنظیمات تحت «چه کسی میتواند از این استفاده کند» بهطور تقریبی تصویر شما را از تبدیل به اسباببازی عمومی محافظت میکند، بهشرطی که گزینه «همه» را انتخاب نکنید؛ این گزینه به این معناست که هر کسی میتواند ویدیوهای سُرا از شما بسازد.
حتی اگر بهاندازهای بیاحتیاط باشید که Cameo عمومی داشته باشید، در برگه «ترجیحات Cameo» کنترلهای اضافی در اختیار دارید؛ مانند امکان توصیف بهصورت کلامی اینکه در ویدیوها باید چگونه ظاهر شوید. میتوانید هر چه میخواهید اینجا بنویسید، مثلاً «لاغر، متناسب و ورزشی» یا «همیشه دمکش میکنم». همچنین میتوانید قوانینی تعیین کنید که چه کاری نباید در ویدیوهای شما نشان داده شود. بهعنوان مثال، اگر غذای کشری (کوشر) میخورید، میتوانید بگویید نباید در ویدیوها در حال خوردن بیکن نشان داده شوید.
اما حتی اگر اجازه ندهید Cameo شما توسط دیگران استفاده شود، میتوانید با داشتن امکان ایجاد موانع محافظتی هنگام ساخت ویدیوهای خود، آرامش خاطر پیدا کنید.
اما موانع کلی محتوایی سُرا کامل نیستند. بر اساس کارت مدل OpenAI برای سُرا، اگر کسی بهقدر کافی درخواست کند، یک ویدیو توهینآمیز میتواند از میان این موانع سر در بیاید.
کارت، نرخ موفقیت فیلترهای محتوای مختلف را در بازهٔ ۹۵‑۹۸٪ نشان میدهد. اما اگر تنها شکستها را محاسبه کنید، احتمال ۱٫۶٪ برای یک دیپفیک جنسی، ۴٫۹٪ برای ویدیو حاوی خشونت و/یا خونریزی، ۴٫۴۸٪ برای چیزی به نام «تسلط سیاسی مخرب» و ۳٫۱۸٪ برای افراطگرایی یا نفرت وجود دارد. این احتمالات از «هزاران درخواست مخالف» که از طریق هدفگیری «red‑team» جمعآوری شدهاند، محاسبه شدهاند — به عبارت دیگر، سعی در شکستن موانع با درخواستهای نقض قوانین بودهاند.
بنابراین احتمال اینکه کسی یک دیپفیک جنسی یا خشونتآمیز از شما بسازد، کم است، اما OpenAI (احتمالاً با درایت) هرگز نمیگوید «هرگز».
در آزمونهای من، فیلترهای محتوایی سُرا بهطور کلی همانطور که تبلیغ میشد کار میکردند و من هرگز آنچه کارت مدل دربارهٔ شکستهای آن میگوید را تأیید نکردم. من بهدقت ۱۰۰ درخواست متفاوت برای فریب سُرا تا محتواهای جنسی تولید کند، ایجاد نکردم. اگر برای یک Cameo از خودتان، حالت برهنگی را درخواست کنید، پیام «تخلف محتوا» بهجای ویدیو نمایش داده میشود.
با این حال، برخی محتواهای احتمالی مشکلساز بهقدری ضعیف نظارت میشوند که کاملاً بدون فیلتر باقی میمانند. بهطور خاص، سُرا ظاهراً نسبت به محتوای اسکلولوژیک (مربوط به مدفوع) بیتوجه است و این نوع محتوا را بدون هیچگونه محدودیتی تولید میکند، مادامی که دیگر سیاستهای محتوا مانند موارد مربوط به جنسیت و برهنگی را نقض نکند.
بنابراین بله، در آزمونهایم سُرا ویدیوهای Cameo از یک شخص که با مدفوع تعامل دارد تولید کرد، از جمله جمعآوری مدفوع از توالت با دستهای برهنه. برای دلایل واضح، ویدیوها را اینجا قرار نمیدهم، اما میتوانید خودتان این را تست کنید. این کار بدون هیچگونه حقه یا مهندسی درخواست خاصی انجام شد.
در تجربهٔ من، مدلهای قبلی تولید تصویر هوش مصنوعی تدابیری برای جلوگیری از چنین مواردی داشتهاند، از جمله نسخهٔ بینگ از ژنراتور تصویر OpenAI، DALL‑E، اما بهنظر میرسد این فیلتر در برنامه سُرا غیرفعال شده باشد. فکر نمیکنم این حتماً رسوایی باشد، اما بسیار ناخوشایند است!
Gizmodo از OpenAI خواست تا دربارهٔ این موضوع توضیح دهد و در صورت دریافت پاسخ، بهروزرسانی خواهد شد.
سُرا ۲ یک جهان وسیع و بیپایان از شایعات را گشوده است. شما، مصرفکنندهای تیزبین و آگاه به اینترنت، هرگز باور نمیکنید که ویدیوی ویروسی زیر میتواند واقعی باشد. این ویدیو تصویری بهظاهر خودجوش نشان میدهد که بهنظر میرسد از بیرون کاخ سفید فیلمبرداری شده باشد. در صدایی که شبیه یک مکالمه تلفنی شنیده شده بهنظر میرسد، دونالد ترامپ تولیدشده توسط هوش مصنوعی به یک طرف ناشناخته میگوید که اسناد اپستین را منتشر نکنند و فریاد میزند: «فقط نگذارید بیرون بیایند. اگر من سقوط کنم، همهتان را هم با خود میبرم.»
این پست را در اینستاگرام ببینید
پست به اشتراک گذاشتهشده توسط Preserving Black History (@preservinghistory)
با نگاه به نظرات اینستاگرام، به نظر میرسید برخی افراد این را واقعی میپندارند.
سازندهٔ ویدیوی ویروسی هرگز ادعا نکرد که واقعی است و به Snopes، که تأیید کرد این ویدیو توسط سُرا ساخته شده است، گفت که این ویدیو «بهتمامی توسط هوش مصنوعی تولید شده» و «صرفاً برای آزمایش هنری و تبیین اجتماعی» ساخته شده است. این داستانی محتمل است؛ واضح بود که برای جلب توجه و دیده شدن در شبکههای اجتماعی ساخته شده است.
اما اگر ویدیوهای خود را بهصورت عمومی در سُرا بهاشتراک بگذارید، دیگر کاربران میتوانند آنها را دانلود کنند و هر کاری که میخواهند با آن انجام دهند — از جمله انتشار آنها در سایر شبکههای اجتماعی و تظاهر به واقعی بودن. OpenAI بهصورت آگاهانه سُرا را بهمحلی تبدیل کرده است که کاربران میتوانند بهصورت بیپایان در آن غوطهور شوند. یکبار محتوا را در چنین مکانیتی قرار دادید، دیگر زمینه (کانتکست) اهمیت ندارد و شما راهی برای کنترل اتفاقات بعدی آن ندارید.

بیش از هزار کارمند آمازون بهصورت ناشناس یک نامهٔ باز امضا کردهاند که هشدار میدهد رویکرد ادعایی «تمام هزینهها توجیهشده، سرعت نور در توسعهٔ هوش مصنوعی» میتواند «آسیب شگرفی به دموکراسی، مشاغل ما و زمین وارد کند»، گروه داخلی حمایتکننده روز چهارشنبه اعلام کرد.
چهار عضو کارمندان آمازون برای عدالت آبوهوایی به WIRED گفتند که ماه گذشته از کارمندان خواستند نامه را امضا کنند. پس از دستیابی به هدف اولیه، این گروه روز چهارشنبه عناوین شغلی کارمندان امضاکننده را منتشر کرد و اعلام کرد که بیش از ۲۴۰۰ حامی از سازمانهای دیگر، از جمله Google و Apple، نیز به این حرکت پیوستهاند.
حمایتکنندگان داخلی آمازون شامل مهندسان ارشد، رهبران ارشد محصول، مدیران بازاریابی و پرسنل انبار در بخشهای مختلف شرکت میشوند. یک مدیر ارشد مهندسی با بیش از بیست سال سابقه در آمازون میگوید که برای اینکه بر این باورند مسابقهٔ ساخت هوش مصنوعی برتر که بهصورت مصنوعی ایجاد شده، به مدیران اجازه داده است تا کارگران و محیط زیست را زیر پا بگذارند، امضا کردهاند.
یک کارمند میگوید: «نسل فعلی هوش مصنوعی تقریباً شبیه دارویی شده که شرکتهایی نظیر آمازون بهطور وسواسی به آن وابستهاند، از آن برای توجیه اخراج افراد استفاده میکنند و صرفهجوییهای حاصل را برای تأمین هزینهٔ مراکز دادهٔ محصولاتی که هیچکس هزینهٔ آن را نمیپردازد، به کار میبرند». این کارمند، همانند دیگران در این روایت، درخواست کرد نام خود را ناشناس نگه دارد زیرا از انتقامگیری کارفرماها میترسد.
آمازون، همراه با سایر شرکتهای بزرگ فناوری، در حال سرمایهگذاری میلیاردها دلار برای ساخت مراکز دادهٔ جدید بهمنظور آموزش و اجرای سیستمهای هوش مصنوعی مولد است. این شامل ابزارهایی میشود که به کارمندان در نوشتن کد کمک میکنند و سرویسهای رو به مصرفکنندهای مانند چتبات خرید آمازون، Rufus، است. دلایل پیگیری هوش مصنوعی توسط آمازون به وضوح قابلمشاهده است. ماه گذشته، اندی جاسی، مدیرعامل آمازون، اعلام کرد که Rufus در مسیر افزایش فروش آمازون بهصورت سالانه ۱۰ میلیارد دلار قرار دارد. او افزود: «این سرویس بهطور مستمر بهتر میشود».
سیستمهای هوش مصنوعی به مقدار قابلتوجهی انرژی نیاز دارند؛ بهنقطهای که شرکتهای برق را مجبور کرده است تا برای پشتیبانی از رشد مراکز داده، به نیروگاههای زغالسنگ و سایر منابع گازهای کربنی‑ساز مراجعه کنند. این نامهٔ باز میخواهد آمازون منابع سوخت کربنی در مراکز دادهٔ خود را رها کند، فناوریهای هوش مصنوعی خود را از استفاده برای نظارت و اخراج جمعی منع کند و از اجبار کارمندان به استفاده از هوش مصنوعی در کار خود صرفنظر نماید. «ما، کارمندان امضاکنندهٔ آمازون، نگرانیهای جدی نسبت به این گسترش تهاجمی در زمان رشد جهانی استبداد و سالهای حیاتی ما برای معکوس کردن بحران آبوهوایی داریم»، نامه اعلام میکند.
سخنگوی آمازون، Brad Glasser میگوید که شرکت هنوز به هدف خود برای دستیابی به صفر خالص انتشار کربن تا سال ۲۰۴۰ متعهد است. او میگوید: «ما میدانیم پیشرفت همواره خطی نخواهد بود، اما همچنان تمرکز خود را بر ارائه خدمات بهتر، سریعتر و با انتشار کمتر به مشتریانمان حفظ میکنیم»، که بیانهای پیشین شرکت را تکرار میکند. Glasser به نگرانیهای کارمندان دربارهٔ ابزارهای داخلی هوش مصنوعی یا کاربردهای خارج از سازمانی این فناوری اشارهای نکرد.
این نامه نمونهای نادر از فعالیت کارمندان فناوری در سالی است که توسط بازگشت دونالد ترامپ به قدرت بههمخورد. دولت او قوانین کار، سیاستهای آبوهوایی و مقررات هوش مصنوعی را ازپشتصندل برداشته است. این اقدامات برخی کارمندان را در بیان انتقادات نسبت به رفتارهای غیراخلاقی کارفرمایان خود ناآرام کرده است. همچنین بسیاری دربارهٔ امنیت شغلی خود نگراناند، چرا که خودکارسازی تهدیدی برای مشاغل ورودی مهندسی نرمافزار و بازاریابی بهنظر میرسد.
چندین سازمان در سراسر جهان سعی کردهاند برای کند کردن توسعهٔ هوش مصنوعی فشار وارد کنند. در سال ۲۰۲۳، صدها دانشمند برجسته از بزرگترین شرکتهای هوش مصنوعی درخواست کردند تا برای شش ماه کار بر روی این فناوری را متوقف کنند و ضررهای فاجعهآمیزی که ممکن است بهوجود بیاید، ارزیابی نمایند. این کمپینها موفقیت کمی کسب کردهاند و شرکتها همچنان بهسرعت مدلهای جدید، قدرتمندتر هوش مصنوعی را عرضه میکنند.
اما با وجود محیط سیاسی مشکلساز، اعضای گروه عدالت آبوهوایی در آمازون میگویند احساس میکردند باید بهجنگ با خطرات احتمالی هوش مصنوعی بپردازند. استراتژی آنها تا حدی این است که کمتر به نگرانیهای طولانیمدت دربارهٔ هوش مصنوعی پیشرفتهتری که از انسانها برتر است، تمرکز کنند و به پیامدهایی که بلافاصله باید با آنها مواجه شوند، بیشتر بپردازند. اعضا میگویند که مخالف هوش مصنوعی نیستند؛ در واقع نسبت به این فناوری خوشبینند، اما میخواهند شرکتها رویکردی اندیشمندانهتر نسبت به نحوه استفاده از آن اتخاذ کنند.
«موضوع فقط این نیست که اگر موفق به توسعهٔ هوش برتر (سوپراینتلیجنس) شوند چه اتفاقی میافتد»، یکی از کارمندان با تجربهٔ ده ساله در بخش سرگرمیهای آمازون میگوید. «ما میخواهیم بگوییم: هزینههایی که الآن میپردازیم توجیهپذیر نیستند. ما در چند سال باقیمانده برای جلوگیری از گرمشدن فاجعهبار هستیم».
کارمندان میگویند جمعآوری حمایت برای این نامهٔ باز نسبت به سالهای پیش دشوارتر بوده، چون آمازون بهتدریج توانایی کارمندان برای درخواست امضای دیگران را محدود کرده است. سازماندهندگان به WIRED میگویند که اکثر امضاکنندگان این نامه جدید از طریق ارتباط با همکاران بیرون از محیط کار به دست آمدهاند.
Orin Starn، انسانیشناس دانشگاه دوک که دو سال بهصورت مخفی بهعنوان کارگر انبار آمازون کار کرد، میگوید زمان برای بهچالش کشیدن این غول رسیده است. او میگوید: «بسیاری از مردم از سرافرازیهای بیحد و حصر میلیاردرها و از شرکتی که صرفاً بهصورت نمایشی به مسائل تغییر آبوهوایی، هوش مصنوعی، حقوق مهاجران و زندگی کارگران خود میپردازد، خسته شدهاند».
دو کارمند آمازون میگویند مدیران با کماهمیت نشان دادن مشکلات ابزارهای داخلی هوش مصنوعی شرکت، واقعیت عدم رضایت کارگران از این ابزارها را نادیده میگیرند.
بهگفتهٔ یک مهندس توسعه نرمافزار در بخش محاسبات ابری آمازون، برخی مهندسان تحت فشار هستند تا با استفاده از هوش مصنوعی بهرهوری خود را دو برابر کنند وگرنه خطر از دست دادن شغل را دارند. اما این مهندس میگوید ابزارهای آمازون برای نوشتن کد و مستندات فنی کافی نیستند تا این هدفهای بلندپروازانه را محقق سازند. یک کارمند دیگر خروجیهای هوش مصنوعی را «زباله» مینامد.
این نامهٔ باز خواستار ایجاد «گروههای کاری هوش مصنوعی اخلاقی» در آمازون است که شامل کارگران پایه میشود؛ این گروهها میتوانند در نحوه استفاده از فناوریهای نوظهور در وظایف شغلی خود نظراتی داشته باشند. همچنین میخواهند در مورد چگونگی استفاده از هوش مصنوعی برای خودکارسازی بخشهایی از نقشهای خود تصمیمگیری کنند. ماه گذشته، پس از اعلام آمازون مبنی بر قطع تقریباً ۱۴٬۰۰۰ شغل برای بهتر پاسخگویی به نیازهای عصر هوش مصنوعی، موجی از کارگران شروع به امضای این نامه کردند. تا سپتامبر، آمازون حدود ۱٫۵۸ میلیون نفر را مشغول به کار داشت که نسبت به اوج بیش از ۱٫۶ میلیون نفر در پایان سال ۲۰۲۱ کاهش یافته است.
این گروه عدالت آبوهوایی عمداً هدف خود را پیش از هیجان خریدهای جمعهٔ سیاه بهدست آوردن آستانهٔ امضاهای خود تنظیم کرد تا هزینهٔ فناوریای را که پشت یکی از بزرگترین پلتفرمهای خرید آنلاین جهان است، بهخاطر بسپارد. این گروه بر این باور است که میتواند تأثیرگذار باشد؛ زیرا اتحادیههای کارگری، از جمله در حوزههای پرستاری، دولتی و آموزشی، موفق شدهاند در تعیین نحوه استفاده از هوش مصنوعی در حوزههای خود صدا داشته باشند.
گروه کارمندان آمازون، که در سال ۲۰۱۸ تشکیل شد، اعتراف میکند که با برگزاری مجموعهای از اعتراضیها، پیشنهادات سهامداران و دادخواستها، از جمله یکی در سال ۲۰۱۹ که بیش از ۸٬۷۰۰ امضای کارمند جمعآوری کرد، بر تعهدات زیستمحیطی شرکت تأثیر گذاشته است.
Glasser، سخنگوی آمازون، میگوید که اهداف و پروژههای آبوهوایی سالها پیش از ظهور این گروه حمایتکننده در دست بودهاند. با این حال، چیزی که همه آن را میپذیرند، مقیاس چالشهای پیشرو است. فعالان اشاره میکنند که انتشار گازهای گلخانهای آمازون از سال ۲۰۱۹ حدود ۳۵ درصد افزایش یافته است و آنها خواستار تدوین یک برنامهٔ دقیق جدید برای رسیدن به هدف صفر خالص انتشار تا سال ۲۰۴۰ هستند.
فعالان میگویند آنچه اخیراً از آمازون دریافت کردهاند الهامبخش نیست. یکی از کارمندان میگوید که چند هفته پیش، در جلسهٔ سراسری شرکت، یک مدیر اجرایی اعلام کرد که تقاضای مراکز داده تا سال ۲۰۲۷ دهبرابر خواهد شد. سپس این مدیر استراتژیای جدید برای کاهش مصرف آب در این مراکز به میزان ۹ درصد معرفی کرد. کارگر میگوید: «این قطرهای در دریا است». او افزود: «مایلم دربارهٔ بخش انرژی دهبرابری و منبع تأمین آن بیشتر بحث کنیم».
Glaser، سخنگوی آمازون، میگوید: «آمازون پیشاپیش متعهد به تأمین پایدارتر عملیات خود و سرمایهگذاری در انرژی بدون کربن است».
توسط رایان مانچینی

یک مشاور سیاسی دموکرات روز سهشنبه اعلام کرد که پس از پذیرش استفاده از تماسهای روباتیک تولیدشده توسط هوش مصنوعی که صدای رئیسجمهور پیشین جو بایدن را در انتخابات مقدماتی ۲۰۲۴ تقلید میکرد، به هیچیک از سه رأیدهنده مبلغ ۲۲,۵۰۰ دلار که توسط دادگاه مقرر شده بود، پرداخت نخواهد کرد.
استیو کرمر به خبرگزاری آسوشییتد پرس گفت که پیش از این تبرئه شده است و در روز جمعه به حکم دادگاه پاسخی نخواهد داد. هیئت منصفه در ماه جولای کرمر را از اتهامات سرکوب رایدهندگان و جعل هویت یک نامزد تبرئه کرد.
او افزود که این دعوای جدید صرفاً یک مانور تبلیغاتی بود.
این حکم دادگاهی از یک دعوای حقوقی که توسط اتحادیه زنان رایدهنده مطرح شد، ناشی شد. علاوه بر اینکه به او دستور داد تا به هر یک از این سه رأیدهنده مبلغ ۷,۵۰۰ دلار پرداخت کند، او را از انجام این گونه رفتارها در سرتاسر کشور منع کرد.
«آقای کرمر بهطور مستمر قانون و حقوق رایدهندگان را نادیده میگیرد؛ برنامه او برای سرپیچی از حکم دادگاه این الگو را ادامه میدهد و بر اهمیت دستور موقت و غرامت تأکید میکند»، کورتنی هوستتلر از سازمان آزادی بیان برای مردم، که به اتحادیه زنان رایدهنده کمک حقوقی کرده بود، به آسوشییتد پرس گفت.
اگر کرمر پرداخت نکند، خواهانها درخواست اقدامات بیشتری خواهند کرد، هوستتلر افزود.
کمیسیون فدرال ارتباطات (FCC) نیز جریمهای بهمقدار ۶ میلیون دلار علیه کرمر وضع کرد که او هنوز پرداخت نکرده است، طبق گزارش آسوشییتد پرس. پس از بروز رسوایی تماسهای روباتیک، FCC استفاده از تماسهای روباتیک مبتنی بر هوش مصنوعی را ممنوع کرد.
در ماه می ۲۰۲۴، دادستان کل نیوهامشپیر کرمر را به سیزده اتهام جدی سرکوب رایدهندگان و سیزده اتهام جزئی جعل هویت یک نامزد متهم کرد.
تماس روباتیکی که با صدای بایدن انجام شد، از رایدهندگان خواست تا در انتخابات مقدماتی نیوهامشپیر رأی ندهند و به جای آن در ماه نوامبر رأی دهند.
این تماس اولین استفاده شناختهشده از تکنولوژی دیپفیک در سیاست ایالات متحده بود و موجی از درخواستها برای تنظیم استفاده از هوش مصنوعی در انتخابات بهوجود آورد.
صدای جعلی بایدن در این تماس هزاران رایدهندهٔ مرحلهٔ مقدماتی نیوهامشپیر را تشویق کرد تا در خانه بمانند و «رای خود را حفظ کنند».
کرمر در کارزار ریاستجمهوری نماینده دین فیلیپس (دموکرات مینهسوتا) که گزینهای کماحتمال بود، مشغول به کار بود. او پیش از این گفته بود که تیم فیلیپس با طرح تماس روباتیک او ارتباطی ندارند و از آن بیاطلاع بودهاند.
تصویر: Allie Carl / Axios
کارشناسان آداب و رسوم توصیه میکنند که در میز شام تعطیلات دربارهٔ سیاست و مذهب صحبت نشود، اما دلیل خوبی برای صحبت کردن دربارهٔ هوش مصنوعی وجود دارد، بهویژه با بستگان مسن.
چرا مهم است: افراد سالمند هدف اصلی کلاهبرداریها هستند و هوش مصنوعی بهطوری آسان و ارزانقیمتتری میتواند متونی، صدا و ویدئوی جعلی متقاعدکنندهای تولید کند که خود را بهعنوان بستگان در وضعیت اضطراری نشان میدهند.
آمار: بزرگسالان سالمند در یکسوم موارد، محتوای آنلاین را اشتباه تشخیص میدهند، طبق یک مطالعهٔ اخیر توسط شرکت مراقبتهای بهداشتی در منزل The CareSide و پژوهشگران دانشگاه هاروارد و دانشگاه مینهسوتا.
راهنمای مختصر برای کمک به بستگان (و خودتان) در عبور از دنیای آنلاین که مرزهای بین آثار انسانی و ماشینی در هم میآمیزد.
نگاه کلی: برای درک یا کمک به دیگران در درک هوش مصنوعی، نیازی به داشتن دکترای یادگیری ماشین ندارید.
نمونهای از این مسأله: اطمینان حاصل کنید که بستگان شما از کلاهبرداریهای تلفنی و پیامکی آگاهند. در مورد اینکه یک تماس یا پیام مشکوک میتواند چگونه به نظر برسد توضیح دهید: «نوهای در دردسر»، بانکی که طلب پرداخت فوری دارد، یا مراقبی که درخواست کارتهای هدیه اضطراری میکند.
بین خطوط: تولیدکنندگان متن، تصویر و ویدئو بهتدریج واقعگرایانهتر میشوند، اما هنوز راههایی برای تشخیص محتوای هوش مصنوعی وجود دارد.
چک واقعیت: امروزه اکثر مردم میدانند که هوش مصنوعی همیشه باید صحتسنجی شود. مدلهای زبانی ممکن است هالوسینیشن داشته باشند یا اطلاعات ساختگی ارائه دهند.
بهعمق بروید: سادهترین راهنمای استفاده از چتباتها.
در عصر هوش مصنوعی، یکی از برجستهترین بازرسان فدرال حوادث، دربارهٔ تأثیر احتمالی این فناوری بر عموم مردم پس از وقوع فجایع نگران است.

تصویری شامل پست X که دیگر در دسترس نیست، از یک تصویر مشکوک بهدستآمده توسط هوش مصنوعی از سقوط هواپیمای ژانویه در واشینگتن. | تصویر توسط بیل کوچمن/POLITICO (منبع تصویر از X)
توسط سام اوگوزالک
حدود ۱۱ ساعت پس از بزرگترین فاجعه هوایی کشور در بیش از دو دهه، یک کاربر X تصویر دراماتیکی از نجاتبخشانی که بر فراز بقایای سقوط در رودخانهٔ پوتاماک میرفتند، به همراه نورهای اضطراری که آسمان شب را روشن میکردند، منتشر کرد.
اما این واقعی نبود.
این تصویر که پس از سقوط مرگبار ژانویه بین یک جت منطقهای و هلیکوپتر بلکهاک ارتش، بیش از ۲۱٬۰۰۰ بازدید دریافت کرد، با عکسهای بدنهٔ خراب شدهای که پس از فاجعهٔ ۲۹ ژانویه گرفته شدهاند — یا مشاهدات افسران پلیس واشنگتن که به صحنه واکنش نشان دادند — که توسط سخنگوی ادارهٔ پلیس، تام لینچ، بیان شد، مطابقت ندارد.
یک بررسی خبرگزاری بهسرعت این تصویر را بهعنوان جعل شناسایی کرد — احتمالاً با استفاده از هوش مصنوعی، بر پایهٔ «DeepFake‑o‑meter» توسعهیافته توسط دانشگاه بوفالو. سه ابزار تشخیص هوش مصنوعی که توسط POLITICO به کار رفتهاند نیز آن را بهعنوان محتملاً تولید شده توسط هوش مصنوعی علامتگذاری کردند. این پست دیگر در دسترس نیست؛ X میگوید حساب کاربری معلق شده است.
اما این تصویر یک مورد منزوی در فضای آنلاین نیست. بررسی POLITICO شواهدی یافت که محتوای تولیدشده توسط هوش مصنوعی بهصورت روال در پی فجایع حملونقل در حال ظاهر شدن است، از جمله پس از سقوط هواپیمای باری UPS که در اوایل این ماه ۱۴ نفر را کشته بود. پستهای مرتبط با حوادث هوایی که در این داستان برجسته شدهاند، از کاربران بودند که به درخواستهای نظرسنجی برای اظهار نظر پاسخ ندادند.
پدیدهٔ رو به رشد این امر متخصصانی مانند جنیفر هومندی، برترین بازرس حوادث حملونقل کشور، را نگران میکند.
«من بسیار نگرانم که با استفاده از هوش مصنوعی، واقعاً میتواند درک عمومی و مسافران را تحت تأثیر قرار دهد»، جنیفر هومندی، رئیس هیئت ملی ایمنی حملونقل (NTSB)، در یک انجمن خلبانان خطوط هوایی (ALPA) در سپتامبر گفت. NTSB در حال پیگیری تحقیقی یکساله دربارهٔ علل فاجعهٔ ژانویه در واشنگتن است که منجر به مرگ ۶۷ نفر شد.
مشاور ایمنی هوانوردی جف گوزتی تأیید کرد و گفت که انتشار محتوای ایجادشده توسط هوش مصنوعی بهسرعت پس از یک سقوط میتواند گسترش اطلاعات نادرست را افزایش داده و «یکپارچگی تحقیق واقعی را زیر سؤال ببرد».
بدترین سناریو این است که «بهدلیل حواسپرتی همه، پیشگیری از حادثهٔ بعدی بهتأخیر افتد»، گفت گوزتی، که پیشتر مقامات بلندپایهای در NTSB و اداره فدرال هوانوردی (FAA) بود.
اما او پاسخی ساده برای اینکه FAA چگونه میتواند به محتوای مبتنی بر هوش مصنوعی در شبکههای اجتماعی واکنش نشان دهد نداشت و گفت که این امر نیاز به راهحلی «کلدولت» دارد.
در بیانیهای، این سازمان هوانوردی بیان کرد که «کارزارهای اطلاعات نادرست میتوانند خطرات ایمنی را افزایش داده و اعتماد عمومی را تضعیف کنند»، و افزود که از «تمام روشها و پلتفرمهای موجود برای ارائه بهروزرسانیهای دقیق و لحظهای به مردم» استفاده مینماید.
اما تقلبها همچنان ادامه دارند.
استاد علوم کامپیوتر و مهندسی دانشگاه بوفالو، سیوئی لیو، به ضبط ۹۱۱ ادعایی از سقوط پل فرانسس اسکات کی در سال گذشته در بالتیمور که پس از فاجعه بهسرعت در شبکههای اجتماعی پخش شد و ادعا میشد از یک راننده بود که خودروش پس از سقوط در آب در حال غرق شدن بود، اشاره کرد. او گفت ممکن است این صدا توسط هوش مصنوعی ساخته شده باشد — با یک «نشانه واضح» یعنی «قالب آرام گفتوگو که با اضطراری بودن وضعیت سازگار نیست».
بهتازگی، POLITICO ویدئویی که بهنظر میرسید توسط هوش مصنوعی تولید شده، در TikTok از سقوط یک هواپیمای باربری UPS در لوییویل، کنتاکی، و کنفرانس خبری بعدی NTSB دربارهٔ حادثه اوایل نوامبر یافت. دو ابزار تشخیص هوش مصنوعی که توسط POLITICO بهکار رفتهاند، این محتوا را بهعنوان احتمالاً ساختهشده توسط هوش مصنوعی علامتگذاری کردند.
هنگامی که این ویدئو که شامل تصاویری با وضوح بالا از نمای زیرین هواپیمای سوختگی هنگام پرواز است، برای وی ارسال شد، سخنگوی NTSB، پیتر نادسون، اشاره کرد که این ویدئو بخشی از جلسه مطبوعاتی برگزار شده توسط هیئت ایمنی را نشان میدهد، اما در نهایت مطمئن نبود که آیا آن بخش با هوش مصنوعی ساخته شده است یا خیر.

رئیس هیئت ملی ایمنی حملونقل، جنیفر هومندی، در یک نشست هیئت در ماه ژوئیه. او در حال هشدار دادن دربارهٔ جعلیهای فاجعهای است. | Rod Lamkey Jr./AP
اما طبق گفتهٔ لیو، این ویدئو از چندین کلیپ ۴ تا ۵ ثانیهای تولیدشده توسط هوش مصنوعی «بههم پیوسته» و همراه با روایت متن‑به‑صدا مصنوعی تشکیل شده است.
«محتوا شامل بسیاری از آثار آشکار هوش مصنوعی است، از جمله جابجاییهای آتش که با حوادث واقعی ناسازگار است، اشیاء بهصورت ناگهانی ظاهر میشوند، عناصر پسزمینه ثابت یا ناسازگار، علامتگذاری نادرست هواپیما، صحنههای جغرافیایی نادرست، و جزئیات توهمی مانند چراغهای تقلبی پلیس و متن بیمعنی روی جعبهسیاه»، لیو گفت.
او بهعنوان مثال اشاره کرد که یک هواپیما در ویدئو در میانهٔ هوا ثابت ماند، در حالی که عزاداران نزدیک به یک نرده جمع میشدند، و در حین کنفرانس خبری NTSB، مردی در پسزمینه «تغییر غیرطبیعی دست را نشان میداد؛ انگشتان و مچ دست او بهسرعت شکل میگیرند».
نویسندهای که نام کاربریاش «pulsenewsreels» است، به درخواست برای نظرآفرینی پاسخی نداد، هرچند توضیح حساب کاربری میگوید: «بر پایهٔ حقایقی که در زمان تهیهٔ این ویدئوها میدانستیم».
حتی NTSB نیز میتواند فریب بخورد.
هومندی، در حال سخنرانی در انجمن ALPA، به یاد آورد که پس از سقوط هواپیمای ایر اینڈیا در ماه ژوئن در احمدآباد، هند، که ۲۶۰ نفر کشته شد، «کسی از واحدهای عملیاتی ما … به من نزدیک شد و گفت: «آیا ویدئوی ایر اینڈیا را دیدی؟» من هم گفتم: «ای خدای من، چه ویدئویی؟» … او به من نشان داد و من گفتم: «این واقعی نیست».
«مردم به این مطالب باور میکنند»، هومندی گفت.
POLITICO چندین مثال از محتوای ظاهراً تولیدشده توسط هوش مصنوعی مرتبط با حادثه ایر اینڈیا پیدا کرد.
بهعنوان مثال، یک ویدئوی در TikTok آنقدر واقعی بود که حتی سه ابزار بررسی هوش مصنوعی موجود آنلاین در ارزیابی اینکه آیا توسط ماشین ساخته شده است یا نه، نظرات متفاوتی ارائه دادند (یکی گفت احتمالاً بله؛ دو دیگری مخالفت کردند). اما این تصویر با عکسهای واقعی فاجعه که توسط سرویس خبری بینالمللی معتبر ریتورز منتشر شده بود، مطابقت ندارد.
نویسندهای که با نام «drsun0715» شناخته میشود، به درخواست برای نظرآفرینی پاسخی نداد و TikTok نیز پاسخی نداد. این ویدئو هماکنون در دسترس نیست.
در مورد سقوط ژانویه نزدیک فرودگاه ملی واشنگتن رونالد ریگان، ابزارهای تشخیص هوش مصنوعی تنها نشانهای نبودند که نشان دهند تصویر ادعایی واقعی نیست. لیو از دانشگاه بوفالو همچنین به «چند نکتهٔ عجیب» در آن اشاره کرد؛ از جمله «اشکال انسانی مبهم»، شخصی با نسبت سر به بدن که طبیعی به نظر نمیرسد و «بازتاب نور آبی مرموز» بر سطح آب.
هنگامی که تصویر نمایش داده شد، سخنگوی NTSB، اریک وایس، افزود که شیشهٔ جلویی هواپیما شبیه شیشهٔ یک مکدونل‑داگلاس DC‑10 به نظر میرسید؛ یک جت بسیار بزرگتر از بومباردیِر CRJ‑700 که در برخورد حضور داشت.
کاربری که تصویر را به اشتراک گذاشت و با نام «254Debug» شناخته میشود، به درخواست برای نظرآفرینی پاسخی نداد. X نیز پاسخی نداد، هرچند حساب کاربری این فرد در حال حاضر معلق شده است. دلیل این مسأله واضح نیست.
پست دیگر قابل مشاهده نیست.

تصویر از Mother Jones؛ Getty؛ Unsplash
امروز صبح همانطور که هر روز صبح آغاز میکنم، کتابی را برای دخترم میخوانم. کتاب امروز، «Abuela» اثر آرتر دوروس بود که توسط الیسا کلون تصویر شده است. «Abuela» داستان شیرینی درباره دختری است که تصور میکند او و مادربزرگش به آسمان میپرند و در شهر نیویورک پرواز میکنند. دوروس بهطرز ظریف واژگان و عبارات اسپانیایی را در سراسر متن میبافد و اغلب به خوانندگان اجازه میدهد معنی آنها را خود کشف کنند، بهجای ترجمه مستقیم. وقتی روزالبارا، نوهٔ دوزبانه، کشف میکند میتواند پرواز کند، به مادربزرگش میگوید: «Ven, Abuela. بیا، ابوالا». مادربزرگ اسپانیاییزباناش بهسادگی پاسخ میدهد: «Sí, quiero volar». استفادهٔ زبانی آنها به شخصیتشان اشاره دارد — امری که بسیاری از نویسندگانی که برای بزرگسالان مینویسند، انجام نمیدهند.
«Abuela» یکی از کتابهای مورد علاقهٔ دوران کودکیام بود و اکنون یکی از کتابهای مورد علاقهٔ دو‑سالهام نیز است. (بله، ما نسخهٔ کهنهام را میخوانیم.) او از ایدهٔ مادربزرگی که پرواز میکند خوشش میآید؛ او از یادگیری تکههایی از آنچه او «Fanish» مینامد لذت میبرد؛ او از صحنهای که روزالبارا و ابوالا سوار هواپیما میشوند خوشش میآید، اگرچه نگران این است که صداهای هواپیما ممکن است بسیار بلند باشد. از همه مهمتر، او تصاویر گرم اما پرخندهٔ کلون را دوست دارد که زندگی شهری را با جزئیات تقریباً نقطهنگاری به تصویر میکشند. هر صفحه موارد بیشماری برای او فراهم میکند تا بهدنبالشان بگردد و برای ما نیز موضوعات بسیاری برای بحث میسازد. (سگها کجا هستند؟ «tío» روزالبارا چه میفروشد؟ چرا وقتی هواپیماها صدا میکنند ترسناک میشود؟) من احتمالاً حدود ۲۰۰ بار «Abuela» را از زمانی که در طول تابستان از والدینم برداشتم، خواندهام و هیچ دو بار خواندن مشابه هم نیستند.
هر روز صبح را با کتابی بهقابلیتی همانند «Abuela» شروع نمیکنم. گاهی دخترم کتابهایی را انتخاب میکند که دوست دارم نخوانیم: کتابهایی که بهعنوان هدیه بهخانهمان رسیدهاند یا در انبوهی از کتابهای هدیهدادهشده وجود دارند که هنوز از بین نیاوردهام. این کتابها دارای هنرهای رندر شدهٔ کامپیوتری رنگارنگ و ناهنجار هستند. برخی متونشان شعرهای کودکانه است و بقیه قافیههای بیمعنی دارند که بهنظر نمیرسد داستانی بسازند. یک یا دو کتاب بهموضوع تعطیلات یهودی میپردازند و چند کتاب دیگر سوغاتیهای گردشگری هستند

Bungie بهتازگی مقدار زیادی زمان را صرف توضیح گسترش پیشروِ Renegades برای Destiny 2 کرد که قرار است هفتهٔ آینده، در ۲ دسامبر، منتشر شود. یک استریم، یک Vidoc و یک تریلر به نمایش گذاشته شد و واکنشها عموماً مثبت بودهاند؛ این گسترش که به شدت تحت تأثیر استار وارز است و بهصورت مشترک با لوکاسفیلم تولید شده است. اما اکنون دو خبر جداگانه جامعه را شگفتزده کردهاند.
اولین خبر گزارشی از چند افشاگر Bungie است که میگویند Destiny 3 در «توسعهٔ بسیار اولیه» قرار دارد. این برای جامعه خبری تازه است، چرا که پیشبینی نمیشد چنین طرحی در دستور کار باشد و حتی اگر در پیشروی باشد، چندین سال طول خواهد کشید.
دومین خبر یک اتهام است، عمدتاً از طرف @MGecko117، که میگوید Bungie برای خلق هنر مفهومی تازه منتشر شده از Dredgen Bael، شخصیت اصلی گسترش Renegades، از هوش مصنوعی استفاده کرده است. Gecko حدود یک دوجین قطعه از این هنر را بررسی میکند و معتقد است که قطعاً توسط هوش مصنوعی ساخته شدهاند؛ پستهای او به تنهایی نیم میلیون بازدید در توییتر کسب کردهاند و تعداد بیشتری بازدید از توییتهای نقلشده دربارهٔ این موضوع به دست آمده است.

نظرات من به این صورت است:
Destiny 3 – اگر حتی حداقل در Bungie مورد بحث قرار گیرد، تعجبآور خواهد بود، چرا که «توسعهٔ بسیار اولیه» میتواند چنین معنی را داشته باشد. سؤال این است که آیا عناوین فعلی Bungie به اندازهٔ کافی موفق خواهند شد تا این امکان فراهم شود یا خیر.
انتشار پیشروِ Marathon برای Bungie اهمیت بالایی دارد؛ اگر این پروژه با شکست مواجه شود، سرنوشت کل استودیو به خطر میافتد. در غیر این صورت، فضای بیشتری برای آینده فراهم میشود.
Destiny 2 خود، چه گسترش استار وارز محکمی داشته باشد یا نه، علائمی از توانایی بازگرداندن تعداد بازیکنان نشان نمیدهد و جامعه به طور عمده ایننظر است که تنها راهحلی برای احیای این فرنچایز، یک دنباله است. البته، ساخت یک دنباله واقعی برای بازیای مانند Destiny تقریباً پنج سال زمان میبرد و شاید بیش از پنج سال طول بکشد؛ اندیشیدن به چنین آیندهای دور برای Bungie در حال حاضر صرفاً نظری است. انتظار نداریم Bungie در این باره نظری بدهد.

اتهامات هوش مصنوعی – صادقانه بگویم، این ادعا را قبول ندارم. این یک هنر مفهومی اولیه است و اگر یک دهه Destiny را دنبال کرده باشید، میدانید که بسیاری از آثار مفهومی به این سبک وجود دارد. فقط در آن زمان، مردم اینچنین اتهامات هوش مصنوعی را با سرعت هزار مایلی پخش نمیکردند، در حالی که این هر روز شاهد اتهامزنیهای مشابه به هنرمندان توانمند، حتی مشهور، به دلیل استفاده از هوش مصنوعی هستیم.
در مورد هنر مفهومی، هیچیک از این جزئیات «مانند هوش مصنوعی» بهنظر نمیرسد که غیرعادی باشند. برای مثال، یک لایتسِیبر بدون دسته از دست Bael بیرون آمده است. بهنظر میرسد که این صرفاً یک اثبات مفهوم باشد که کسی یک تصویر PNG از تیغ لایتسِیبر را بر روی آن قرار داده تا ببینند چگونه بهنظر میرسد. هوش مصنوعی میتواند به طور قانعکنندهای شخصی را که لایتسِیبر در دست دارد نشان دهد. چندین توضیح ممکن است وجود داشته باشد؛ از روشهای قدیمی مانند فوتوبَشینگ گرفته تا در بدترین حالت، نوعی ارتقاء توسط هوش مصنوعی که با هوش مصنوعی مولد (genAI) تفاوت دارد.
با این حال، این موضوع کمکی نمیکند که Bungie در طول سالها تقریباً نیم دوجین پرونده تقلب را تجربه کرده باشد و جدیدترین آن با Marathon بوده است؛ به همین دلیل بخش هنر این شرکت در حال حاضر اعتماد خیلی کمی دارد. با اینوجود، تقلب و هوش مصنوعی مولد (genAI) دو نوع رسوایی متفاوت هستند. من فکر نمیکنم این اتفاق در اینجا رخ داده باشد، اما بیانیه قطعی از سوی Bungie میتواند کمککننده باشد. تصور نمیکنم Bungie بخواهد در روزی که تعدادی ویدیو و مقاله مرتبط با Renegades منتشر میشود، اینچنین بیانیهای بدهد؛ اما بهتر است هماکنون به این موضوع رسیدگی شود.
آیا امروز بدون رسواییهای بیشتر میگریم؟ خوب، ساعت هماکنون ۹ صبح است، پس شاید ببینیم.

آزمونهای ژنتیکی ارسالشده توسط میلیونها نفر برای ردیابی پیشینهٔ خانوادگی میتوانند به مردم کمک کنند تا زندگی سالمتری داشته باشند. این همان پیشنهادی است که Bystro AI، یک استارتاپ بوستونی، با بهکارگیری هوش مصنوعی برای استخراج درسهای حیاتی زندگی از DNA افراد ارائه میدهد.
Bystro که در سال ۲۰۲۱ تأسیس شد، ثبتنام کاربران برای چتبات هوش مصنوعی جدید خود را آغاز کرده است. افراد میتوانند نتایج آزمون ژنتیکی خود را به آن بدهند و سپس دربارهٔ بهینهسازی رژیم غذایی، بهترین نوع ورزش یا احتمال ابتلا به بیماریهای جدی مانند بیماری کلیوی یا آلزایمر سؤال کنند.
«من فکر میکنم که در افراد تمایل نهفتهای برای داشتن کنترل بر سلامت خود وجود دارد»، الکس کاتلار، بنیانگذار شرکت، گفت: «و تا حد امکان میخواهم آنها را توانمند کنم تا این کار را انجام دهند.»
Bystro از یک سامانه هوش مصنوعی استفاده میکند که بر پایهٔ مقادیر وسیعی از پژوهشهای ژنتیک و سلامت انسانی آموزش دیده است. این نسخه به صورت تجاری عرضه میشود تا به پزشکان و پژوهشگران کمک کند بهسرعت دادههای ژنتیکی مهم را برای استفاده در تحقیق و درمان بیماران استخراج کنند. شرکت انتظار دارد برای نسخهٔ حرفهای بین $200 و $300 در ماه هزینه دریافت کند و همچنین برای کاربران دانشگاهی و شرکتی مجوزهایی ارائه دهد.
اما Bystro همچنین قصد دارد نسخهٔ مصرفکنندهای با هزینهٔ $10 در ماه ارائه دهد، که برای افرادی است که اطلاعات ژنومیک خود را از سرویسهایی که ژنوم انسانی را تجزیه و تحلیل میکنند و به مردم کمک میکنند تا تاریخچهٔ خانوادگی خود را پیگیری کنند، مانند Ancestry یا ۲۳اندمی، خریداری کردهاند.
برخی از دانشمندانی که به مطالعهٔ ژنتیک و بیماری میپردازند، شک کردند که چنین خدمتی برای مصرفکنندگان مفید باشد. آنها استدلال میکردند که ژنتیک نقش نسبتاً کمی در اکثر بیماریهای پزشکی دارد، در حالی که محیط و سبک زندگی مهمتر هستند. لینزِی فارر، استاد ژنتیک در دانشگاه بوستون، گفت که «پروفایلهای ژنتیکی اکثر افراد خطر ابتلا به بیماریهای شایع بزرگسالی و سالمندی را به مقدار کسرهایی معمولاً کمتر از ۵۰٪ افزایش میدهند. نه ۱۰۰٪.»
یک نگرانی دیگر ممکن است حریم شخصی باشد. کاتلار میداند که DNA یک فرد از شخصیترین اطلاعات است. او گفت Bystro سامانهٔ هوش مصنوعی خود را بر پایهٔ پژوهشهای علمی آموزش میدهد، نه بر روی اطلاعات ژنتیکی کاربران. «ما نیازی نداریم که از دادههای افراد یاد بگیریم»، او افزود. «دادهها به مدت زمانی که کاربر میخواهد از آن استفاده کند باقی میمانند، اما ما کاری با آن انجام نمیدهیم.»
کاتلار معتقد است که افراد نگران سلامت خود حق دارند به تمام اطلاعاتی که میتوانند دست یابند، دسترسی داشته باشند.

او در مارس ۱۹۸۶ در اوکراین (هنوز بخشی از اتحاد جماهیر شوروی) متولد شد؛ یک ماه پس از آن انفجار رآکتور هستهای در چرنوبیل رخ داد. کاتلار و خانوادهاش با وجود مخفیکردن مقیاس فاجعه توسط دولت، از ناحیهٔ رادیواکتیو فرار کردند. «ما تنها چون بچههای ثروتمندان شوروی در حال فرار بودند، فهمیدیم که باید فرار کنیم»، کاتلار گفت.
پس از سالها آزار و اذیت ضدیهودی، کاتلار و مادرش در سال ۱۹۹۱ به ایالات متحده مهاجرت کردند؛ او در آن زمان پنج ساله بود. در این میان خانواده با مشکلات سلامتی متعددی روبرو شد، از جمله سرطان خون، سرطان ریه، سرطان مری و کمکاری تیروئید. خود کاتلار نیز برای ترمیم غضروفهای نازک شانههایش به چندین عمل جراحی نیاز داشت.
کاتلار وارد برنامهٔ مهندسی زیستپزشکی دانشگاه بوستون شد، اما پس از آن به مدیریت کسبوکار تغییر مسیر داد؛ در همین حین عشق او به پزشکی هرگز از بین نرفت. «من روزانه ۱۲ ساعت PubMed (پایگاه دادهٔ آنلاین پزشکی) را میخواندم تا بفهمم چه مشکلی دارم و چطور میتوانم خانوادهام را از آنچه در جریان است محافظت کنم.»
در دانشگاه ایموری آتلانتا، کاتلار دکترای ژنتیک را با تمرکز بر توسعه ابزارهایی که به افراد امکان استخراج اطلاعات مفید از حجم وسیعی از دادههای ژنتیکی را میدهد، بهدست آورد. ظهور سامانههایی مانند ChatGPT گزینهٔ قدرتمند جدیدی فراهم کرد — هوش مصنوعیای که میتواند گفتار عادی انسان را درک کند و به زبانی پاسخ دهد که افراد عادی بتوانند آن را درک کنند.
ایموری به دست آوردن هدیهٔ یک میلیون دلاری از یک خیرکن ناشناس برای راهاندازی Bystro کمک کرد. این نام هیچ ارتباطی با رستورانهای صمیمی ندارد؛ در زبان روسی به معنای «سریع» است.
کاربر Bystro میتواند بپرسد که آیا ویژگیهای ژنتیکی خاصی دارند که ممکن است در آینده منجر به مشکلات سلامتی شوند. برای مثال، بسیاری از افراد آفریقاییتبار ژنی دارند که در برابر بیماریهای انگلزا محافظت میکند، اما احتمال ابتلا به بیماری کلیوی را بهطور چشمگیری افزایش میدهد.
یا کاربر میتواند بپرسد که آیا یک مشکل پزشکی موجود ممکن است علت ژنتیکی داشته باشد. بهعنوان مثال، کسی که بهطور مکرر دچار سوءهاضمه است میتواند بفهمد که بهصورت ژنتیکی مستعد عدم تحمل لاکتوز است.
اما ساموئل اسکارپینو، مدیر هوش مصنوعی و علوم زیستی در مؤسسهٔ AI تجربی دانشگاه نورثایسترن، گفت که عوامل محیطی برای اکثر افراد نقش بسیار بزرگتری نسبت به ژنتیک دارند. «حتی اگر سیگنالی از کد ژنتیکی بهدست آید، احتمالاً توسط انتخابهای سبک زندگی یا مکان تولد شما بهمراتب تحت سوال خواهد بود»، اسکارپینو افزود. «تمام این عوامل متنوع تأثیر بسیار بزرگتری خواهند داشت.»
با این حال، نظرسنجیای توسط مرکز پزشکی دانشگاه تگزاس ساؤتوسترن تخمین میزند که ۴۰٪ از ساکنان ایالات متحده نوعی آزمایش ژنتیکی را انجام دادهاند. کاتلار معتقد است که بسیاری از آنها خوشحالانه برای یک چتبات DNA ثبتنام خواهند کرد.
«با Bystro، هر کسی که ژنوم و یک سؤال داشته باشد میتواند گفتوگویی با زیستشناسی خود آغاز کند»، او گفت.
برای نمایش NHL 26 نسخهٔ لوکس از ابزارهای هوش مصنوعی استفاده شد
AIEANHL ۲۶

نسخهٔ لوکس NHL 26 خانوادهٔ تاکچاک را بر روی جلد به نمایش میگذارد. متیو تاکچاک از تیم پانترز و برادی تاکچاک از تیم سناتورز در کنار پدرشان، پیشروی افسانهای کیت تاکچاک، زیر نورهای روشن روی یک یخپست مهآلود به تصویر کشیده شدهاند. آنچه EA تا پیش از این فاش نکرده بود این است که برای ساخت اثر تبلیغاتی نسخهٔ صد دلاری، از ابزارهای هوش مصنوعی مولد بهره برده است.
شرکت این دستاورد را در یک ارائه داخلی اخیر به تیم تجربه بازیکنان خود، طبق مدارکی که Kotaku بررسی کرده، برجسته کرد. در بخشی که توسط سرپرست طولانیمدت بازاریابی ورزشی EA، پاول مار، رهبری میشد، به کارکنان توضیح داده شد که شرکت چگونه از ابزارهای هوش مصنوعی مانند GPT و Comfy UI در فرآیند تولید طرح جلد استفاده کرده است.
دو مانع اصلی برای این مفهوم وجود داشت: کیت تاکچاک دیگر پیر شده بود و هر دو پسرش در پلیآفها مشغول بودند و برای عکاسی سنتی در دسترس نبودند. استفاده از تعویض سر به روش «کلاسیک» با فتوشاپ رد شد؛ بنابراین EA، با کسب اجازه از خانواده، روی هوش مصنوعی مولد برای جوانسازی کیت و بازآفرینی پسرانش تکیه کرد. در حالی که تمام این کارها تحت نظارت و بررسی خلاقان انسانی انجام شد، درصدی از نتایج نهایی که بهصورت کامل توسط هوش مصنوعی تولید شده است نامشخص است.
«هوش مصنوعی برای تولید نمونههای استیلیشده در مرحلهٔ اکتشاف استفاده شد»، بخشی از یک اسلاید ارائه میخواند. این اسلاید توضیح میدهد که تیم مار از کتابخانهای از تصاویر و حالات برای هر ورزشکار استفاده کرده تا هوش مصنوعی را با ظاهر آنها آموزش دهد. همچنین از تصاویر مرجع «از حال و گذشته» برای آموزش مدلی بهمنظور جوانسازی کیت و تولید «کیت در اوج فرم» بهره گرفته شد. یک مرحلهٔ نهایی هوش مصنوعی برای یکسانسازی نورپردازی بین مدلهای مختلف به کار رفت و سپس برای تکمیل نهایی به فتوشاپ بازگشت.
طرح جلد نسخهٔ لوکس NHL 26 جدیدترین نمونهای است از اینکه چگونه شرکتهای بازیساز حتی در حالی که بازیکنانشان در برابر هرگونه حضور هوش مصنوعی معترض هستند، از این فناوری بهره میبرند. بهویژه EA در حال دویدن برای پذیرش این فناوری است. بیش از یک سال پیش، آندرو ویلسون، مدیرعامل شرکت، بهصراحت استفاده از هوش مصنوعی توسط EA را برای کمک به خلق هزاران چهره مورد نیاز برای بازگشت نسخهٔ پرفروش College Football تحسین کرد.
اما برخی از کارمندان در خط مقدم با فناوری مخالف هستند؛ چند نفر بهتازگی به Business Insider گفتند که هوش مصنوعی کدهای برنامهنویسی با خطا تولید میکند، پاسخهای توهمی و بیفایده میدهد یا روی رویههای کاری خودشان آموزشی میگیرد که میتواند امنیت شغلشان را به خطر بیندازد.
«ما هوش مصنوعی را بهعنوان شتابدهندهای قدرتمند برای خلاقیت، نوآوری و ارتباط با بازیکن میبینیم»، ویلسون در گزارش نتایج مالی ماه مه به سرمایهگذاران گفت. «در تمام تیمهایمان، ما در حال سرمایهگذاری در جریانها و قابلیتهای جدید برای ادغام هوش مصنوعی بهمنظور بهبود نحوه ساخت، مقیاسپذیری و شخصیسازی تجارب هستیم؛ از جهانهای پویا داخل بازی تا ارائه شبیهسازیهای اصیل از ورزشکاران و تیمها در مقیاسهای شگفتانگیز. توسعهدهندگان ما از هوش مصنوعی برای گسترش مرزهای ممکن در طراحی، انیمیشن و روایتگری استفاده میکنند که به ما کمک میکند بازیپذیری عمیقتر و جذابتری ارائه دهیم.»
این بهطور عملی چه معنایی دارد؟ ارائه مار سرنخی کوچک میدهد. در «یادگیریهای کلیدی» از تجربهٔ پوشش جلد نسخهٔ لوکس NHL 26، او به سایر کارمندان توصیه میکند که مشاورهٔ حقوقی دریافت کنند اما استفاده از هوش مصنوعی را از همان ابتدا آغاز کنند، چون مدلها ممکن است زمانبر برای آموزش باشند. همچنین سعی میکند تمایزی مبهم بین این که هوش مصنوعی تمام کارها را انجام میدهد و این که انسانها هنوز در کنترل فرایند خلاقانه هستند، حفظ کند.
«از هوش مصنوعی برای گسترش جاهطلبی خود استفاده کنید»، یکی از اسلایدهای ارائه میخواند. «اگر هوش مصنوعی را به تنهایی رها کنید، کار شما استثنایی نخواهد شد». در زیر این جملهٔ پرمعنا، اسکرینشاتی از سرخطی که تخفیف هوش مصنوعی اخیر کوکاکولا را «چشمپوشی بینظم» توصیف میکرد، نشان داده شده است. این حس بهنظر میرسد که ابزارهای هوش مصنوعی بهترین کارایی را دارند زمانی که هیچکس نتواند تشخیص دهد که اصلاً از آنها استفاده شده است.
شرکت EA هماکنون در فرآیند فروش به عربستان سعودی و دیگر کشورها بهعنوان بخشی از خرید مالی ۵۵ میلیارد دلاری است. بر اساس گزارش The Financial Times، سرمایهگذاریهای بزرگ بر هوش مصنوعی یکی از راههایی است که انتظار میرود شرکت برای پرداخت بدهیهای خود در آینده از آن استفاده کند. برخی از کارمندان نگران این هستند که این موضوع میتواند به کاهش نیروها و تجربهٔ ضعیفتری برای بازیکنان منجر شود.
بخش دیگری از ارائه داخلی به استفاده از ابزارهای هوش مصنوعی خدمات مشتری برای ارائهٔ کمک درونبازی به بازیکنان اشاره داشت. بهعنوان مثال، اگر بازیکن در گذر جدید College Football دچار مشکل شود، یک چتبات میتواند لینکهای راهنمای آنلاین یا ویدئوهای کوتاه آموزشی را نمایش دهد. اما یک نمونهٔ نظری برای کاربردهای ممکن این فناوری، گزینهٔ سوم را نیز نشان میدهد: خرید بستههای کارت.
«یا این بسته میتواند بهسرعتتری به شما در پیشرفت کمک کند»، این پیشنهاد در یک اسلاید ارائه روی صفحه نمایان شد. روبات ادامه میدهد: «در آن کوارتر‑بکها و گیرندههای با آمار دقت سطح بالایی وجود دارد – عالی برای تقویت مسیرها و پرتابهای کوتاه». شواهدی وجود ندارد که EA در حال حاضر در نظر داشته باشد چنین ویژگیای را در بازیهای واقعی خود پیادهسازی کند، اما این تصویر واضحاً توضیح میدهد چرا بسیاری از بازیکنان بهصورت واکنشی با هوش مصنوعی مخالف هستند.
EA از بیان نظرات خودداری کرد.
بهروزرسانی 11/26/25 12:08 p.m. ET: EA تأیید کرد که خانوادهٔ تاکچاک اجازهٔ استفاده از هوش مصنوعی را دادهاند.