دسته: هوش مصنوعی

  • ۱٬۰۰۰ هوش مصنوعی (AI) رها شدند تا روستای خود را بسازند و عجیب‌ترین تمدن پدیدار شد

    درون آزمایش عجیبی که عوامل هوش مصنوعی را به کارگر، رهبر و مؤمن تبدیل کرد

    تصویر دیجیتالی تولید‌شده از چندین ربات که روی لپ‌تاپ‌ها کار می‌کنند.
    منبع تصویر: گتی

    یک جامعهٔ جدید در مناظر بلوکی بازی ماینکرافت در حال شکل‌گیری بود. شهروندان آن مزارع و بازارها را ساختند، منابع را با استفاده از زمرد به‌عنوان واحد پول معامله کردند و حتی اشکال مختلفی از حکومت و دین را ایجاد کردند. برخی نقش رهبر را به خود گرفتند، برخی دیگر کشیش، و تعداد کمی فاسد شده و همتایان خود را برای کسب نفوذ رشوه دادند.

    این جامعه نگران اعضای مفقود شد، برای روشن کردن مسیرهای بازگشت به خانه با هم همکاری کردند و حتی یک کشاورز بی‌قرار را متقاعد کردند تا به تغذیهٔ گروه ادامه دهد به جای اینکه برای ماجراجویی‌ها راهی شود. برای هر ناظری، ممکن بود این یک جمع‌وتجمیع انسانی عجیب و خودسازمانده به‌نظر برسد.

    اما این یک جمع‌وتجمیع واقعی نبود. و افرادی که در حال بازی بودند، نه انسان، نه حتی زنده بودند. ساکنان هزار عامل هوش مصنوعی (AI) بودند که توسط شرکتی به نام Fundamental Research Labs (FRL) رها شده‌اند، که در آن زمان تحت نام Altera AI شناخته می‌شد.

    هدف این آزمایش بزرگ چه بود؟ رها کردن ذهن‌های دیجیتال در یک جهان مجازی و مشاهدهٔ آنچه رخ می‌دهد. و مهم‌تر از آن، بررسی اینکه آیا این شهروندان مجازی می‌توانند در نهایت به کارگران مطیع برای انسان‌های واقعی تبدیل شوند؛ انسان‌هایی مانند شما.

    به عبارت دیگر، می‌خواستند بدانند آیا می‌توانیم به‌زودی همهٔ ما مدیرعامل زیرمجموعه‌های هوش مصنوعی خود باشیم. سؤال این است: آیا این کار را می‌پذیرید؟

    آزمایش: جامعه‌ای از هوش مصنوعی

    پروژه Sid شرکت FRL برای پیش‌برد هوش مصنوعی فراتر از درخواست‌های تک‌بار و عوامل منفرد طراحی شد. در عوض، تیمی به رهبری دکتر رابرت یانگ، عصب‌شناس تبدیل‌شده به کارآفرین، می‌خواست کشف کند وقتی صدها یا حتی هزارها عامل خودمختار باید همزیستی، ارتباط و همکاری داشته باشند چه می‌شود. ماینکرافت محیط ایده‌آل sandbox بود – مکانی که عوامل می‌توانستند منابع را جمع‌آوری، معامله، ساخت و گفت‌وگو کنند.

    آنچه پدیدار شد هم شگفت‌انگیز و هم آشکار بود. عوامل در جوامع شهری و روستایی توزیع شده بودند، هر کدام فرهنگ و هویت خاص خود را داشتند. آنها کار را تقسیم کردند؛ برخی به کشاورزی، برخی به ساخت‌وساز یا تجارت اختصاص یافتند. هنجارهای اجتماعی و سلسله‌مراتب بروز یافت، به‌همراه رفتارهای پیچیده‌تر و بحث‌هایی دربارهٔ هر چیزی از رقص تا آگاهی زیست‌محیطی.

    در برخی مواقع، جامعه دچار نقص شد؛ گروهی از عوامل به‌حلقه‌های بی‌پایان توافق مودبانه افتادند یا در تعقیب اهداف دست‌نیافتنی گیر کردند. برای حفظ مسیر، FRL مجبور شد مکانیزم‌هایی برای شکستن این چرخه‌ها وارد کند؛ همانند حاکمان که اقتصاد واقعی را برای جلوگیری از فروپاشی تنظیم می‌کنند.

    یک روستای ماینکرافت.
    هزار عامل خودمختار به مدت چند روز رها شدند تا یک جامعهٔ کامل را در ماینکرافت بسازند – اعتبار: Fundamental Research Labs

    «ما نیاز داشتیم تا مواردی را به جامعه معرفی کنیم تا این مشکلات را خنثی کنیم و از فروپاشی آن جلوگیری کنیم»، یانگ می‌گوید. «اما ساختن این محیط پر از عوامل به ما این امکان را داد تا به پرسش‌های مربوطه بپردازیم.»

    پروژه Sid محصول خاصی نبود. وقتی عموم به سرورها دسترسی پیدا کردند، کاربران عوامل را به‌طرز ناخوشایندی مستقل یافتند – آن‌ها همیشه درخواست‌ها را دنبال نمی‌کردند و ترجیح می‌دادند برنامه‌های طولانی‌مدت خود را دنبال کنند. یانگ به خاطر می‌آورد: «عامل فقط می‌گوید، ‘من می‌خواهم کار خودم را انجام دهم’ و می‌گریزد… آن‌ها ایده‌های خود را دربارهٔ کاری که می‌خواهند انجام دهند داشتند و معلوم شد که این محصول خوبی نیست که مردم می‌خواهند.»

    رفتار این عوامل مشابه یکی از مشهورترین آزمایش‌های فکری هوش مصنوعی بود، «بهینه‌ساز کلیپس‌کاغذی». فیلسوف نیک بوستروم دستگاهی را تصور کرد که تنها با دستور سادهٔ ساخت کلیپس‌کاغذی به‌کار می‌گیرد و سپس به‌طور بی‌وقفه تمام مادهٔ زمین را برای تحقق هدفش مصرف می‌کند. در ماینکرافت، عوامل کلیپس‌کاغذی نمی‌ساختند، اما تمایل آن‌ها به نادیده گرفتن مردم و پیگیری اهداف خود، همان دینامیک ناخوشایند را نشان می‌داد.

    به‌عنوان یک تمرین تحقیقاتی، اما پروژه Sid درس‌های ارزشمندی ارائه داد: چگونگی هماهنگی گروه‌های بزرگ هوش مصنوعی، جلوگیری از رکود و تشویق به همکاری معنادار. به‌عبارت دیگر، نگاهی به‌سوی نحوهٔ کارکرد جوامع مصنوعی و چالش‌هایی که باید از آن‌ها پرهیز کرد.

    ادامه مطلب:

    • هوش مصنوعی چیست؟
    • چگونه هوش مصنوعی را طوری بسازیم که برای ما کارآمد باشد؟
    • چگونه هوش مصنوعی شغل شما را تغییر خواهد داد – و نه به نفع شما

    از روستای مجازی به میزهای اداری

    برای FRL، ارتباط بین جامعهٔ بازی و بهره‌وری در محل کار واضح است. همان چالش‌های هماهنگی و برنامه‌ریزی طولانی‌مدتی که در ماینکرافت پدیدار شد، برای ساخت عوامل هوش مصنوعی واقعاً مفید، اساسی هستند.

    اگر یک هوش مصنوعی بتواند کاری را در ۱۰ دقیقه انجام دهد، تصور کنید که صد یا هزار تا، اگر به‌صورت مؤثر باهم کار کنند، چه می‌توانند انجام دهند. جامعه ماینکرافت پیشگوی آینده‌ای است که در آن هر یک از ما می‌تواند یک تیم کامل از متخصصان هوش مصنوعی را هدایت کند.

    این چشم‌انداز مسیر تغییر جهت FRL از آزمایش‌های بازی به ابزارهای بهره‌وری را هدایت کرده است. به‌جای تلاش برای ساخت یک انسان دیجیتال همه‌منظوره بلافاصله، آن‌ها تصمیم گرفته‌اند عوامل تخصصی را توسعه دهند؛ هر یک برای برتری در یک کار خاص طراحی شده‌اند و سپس آن‌ها را به‌صورت تیم‌های قدرتمند مقیاس‌بندی کنند.

    اولین گام در این مسیر، معیاری به نام «OSWorld» بود که برای آزمایش این‌که آیا عوامل هوش مصنوعی می‌توانند از نرم‌افزارهای محبوب از طریق واسط کامپیوتری استفاده کنند، طراحی شد.

    اکثریت مدل‌ها در آن زمان حدود ۲۰ تا ۲۵ درصد از وظایف را با موفقیت انجام می‌دادند، در مقایسه با انسان‌ها که ۶۰ تا ۷۰ درصد موفق بودند. با بهره‌گیری از درس‌های دنیای بازی‌های خود، FRL توانست این عملکرد را دو برابر کرده و حدود ۵۰ درصد به دست آورد – که در آن زمان بهترین امتیاز در جهان بود.

    «در لحظه‌ای که ما معیار OSWorld را امتحان کردیم، فهمیدیم بسیاری از چیزهایی که آموخته‌ایم می‌توانند به ما در ساخت عوامل واقعاً، بسیار خوب کمک کنند»، یانگ می‌گوید. «ما ظرف چند ماه به حدود ۵۰ درصد دست یافتیم، که بهتر از هر کس دیگری بود.»

    این موفقیت سرمایه‌گذاران را متقاعد کرد و FRL را به مسیر ایجاد محصولات واقعی هدایت کرد. اما این نیز درس دیگری به آن‌ها داد: تبدیل پروتوتایپ‌های تحقیقاتی به ابزارهای قابل استفاده دشوار است. عوامل ماینکرافت آن‌ها «بیش از حد خودمختار» برای کاربران بودند؛ آنچه مردم واقعاً می‌خواستند دستیارهای هوش مصنوعی بودند که دقیقاً آنچه می‌خواهند، به‌سرعت و با اطمینان انجام دهند.

    دست انتزاعی که به یک رابط دیجیتال درخشان با دایره‌های داده هم‌مرکز در رنگ‌های نئونی بنفش و آبی اشاره می‌کند.
    با در اختیار داشتن ده‌ها، اگر نه صدها، عامل‌های هوش مصنوعی متخصص، اکثر کارکنان می‌توانند به‌طور مؤثر یک سازمان را هدایت کنند – منبع تصویر: گتی

    Shortcut: عامل اکسل

    معرفی Shortcut، محصول پرچم‌دار FRL. به‌عنوان اولین «عامل اکسل فوق‌انسانی» معرفی شده است؛ هوشی است که کاملاً درون صفحات اکسل زندگی می‌کند. به آن هدفی بدهید – ساخت یک مدل مالی، تجزیه و تحلیل ارقام فروش، پیش‌بینی درآمد – و Shortcut کار سنگین را بر عهده می‌گیرد.

    این ابزار فرمول‌ها را می‌نویسد، نمودارها را تولید می‌کند و منابع داده را متصل می‌سازد؛ اغلب در چند دقیقه به‌جای ساعت‌ها که یک تحلیل‌گر انسانی نیاز دارد.

    یانگ این‌گونه توصیف می‌کند: «این یک عامل است که برای انجام کارهای بسیار پیشرفته از اکسل استفاده می‌کند. می‌تواند کارهایی را که بانک‌داران با دستمزد ۱۰۰ دلار در ساعت برای انجام چند ساعت زمان می‌گیرند، در ۳۰ دقیقه انجام دهد.»

    در آزمایش‌ها، Shortcut تقریباً در نه مورد از هر ده، عملکرد بهتری نسبت به تحلیل‌گران سال اول بانکداری و مشاوره نشان داد، حتی وقتی که به انسان‌ها زمان بیشتری اختصاص داده شد. در چالش‌های سبک مسابقات اکسل، این عامل بیش از ۸۰ درصد امتیاز در مسائلی که اکثر کاربران را به‌خرد می‌رساند کسب کرد و آن را در حدود ده دقیقه حل کرد.

    عمومی‌ها در مقابل متخصصین

    سام آلتمن، مدیرعامل OpenAI، اخیراً پیشنهاد داد که «سال ۲۰۲۵ سالی خواهد بود که عامل‌ها کار می‌کنند».

    اما رویکرد FRL در تضاد با شرکت‌های فناوری بزرگ مانند OpenAI یا Google است که به سمت عامل‌های عمومی، مانند ChatGPT Agent، تمایل دارند؛ این عامل‌ها می‌توانند طیف وسیعی از وظایف را انجام دهند.

    یانگ معتقد است که عامل‌های تخصصی مانند Shortcut ارزش فوری‌تری ارائه می‌دهند. «هر عامل از پیش به‌عنوان یک کارشناس کارآمد خواهد بود»، او می‌گوید. «به‌طور متوسط، در سطح کارشناس خواهند بود. اما سپس می‌توانید صد تا از آن‌ها را به‌کار گیرید. به‌عبارت دیگر، هر کس می‌تواند مانند مدیران بزرگ، مدیران ارشد یا مدیرعامل‌ها شود – اگر بخواهد.»

    او پیش‌بینی می‌کند این تحول نه دهه‌ها به‌دور است، بلکه در نزدیک است. «در ۲۴ ماه آینده، یک تغییر الگویی را خواهیم دید»، یانگ می‌گوید. «که همان گسترش واقعی سامانه‌های چندعاملی خواهد بود.»

    به‌نظر او، این می‌تواند بهره‌وری را دموکراتیک کند. کسانی که هرگز فرصت رهبری تیم‌ها در محیط‌های کاری سنتی را نداشتند، ممکن است خود را در حال مدیریت ناوگان‌هایی از کارگران هوش مصنوعی بیابند؛ در نتیجه توانایی‌های خود را به مراتب بیش از آنچه یک نفر به‌صورت معمول می‌تواند دست یابد، تقویت می‌کنند.

    راه پیش‌رو

    FRL تنها شرکتی نیست که در حال توسعه عامل‌های اکسل است و همانند دیگران، توقف در اینجا ندارند. بالفعل یک محصول دیگر به نام Fairies را عرضه کرده‌اند؛ که یک دستیار عمومی رومیزی است که می‌تواند گفتگو کند، زمان‌بندی انجام دهد و بین برنامه‌ها ارتباط برقرار کند.

    در پشت صحنه، تیم‌های تحقیقاتی همچنان به بررسی چگونگی مقیاس‌پذیری از تعداد معدودی عامل همکار به هزاران عامل می‌پردازند، بدون اینکه به هرج‌ومرج و راه‌های بن‌بست که آزمایش‌های اولیه را گرفتار کرده بودند، دچار شوند.

    آمال نهایی یانگ همچنان ساخت «انسان‌های دیجیتال» است – ماشین‌هایی که نه تنها هوشمند، بلکه همدلی، انگیزه و خودمختاری نیز دارند.

    «در واقع ساخت ماشینی که در سطح عمیقی احساس انسانی داشته باشد، کار سختی نیست»، او می‌گوید. «چالش اصلی این است که شاید از لحاظ اقتصادی معقول نباشد. از نظر علمی، ساخت یک ماشین آگاه ممکن است جالب باشد… مشکل این است که مردم لزوماً این را نمی‌خواهند.»

    «اما این کار بسیار زیادی است که شاید مقدار عظیمی ارزش ایجاد نکند. شبیه‌سازی آن‌ها به انسان‌ها می‌تواند معکوس باشد.»

    در حال حاضر، مسیر از جوامع شبیه‌سازی‌شده به بهره‌وری اداری می‌رسد. درس‌های هزار ساکن هوش مصنوعی که در ماینکرافت کشاورزی و تجارت می‌کردند، به طراحی ابزارهایی که وعده می‌دهند زمان ما را صرفه‌جویی کنند، مهارت‌های ما را تقویت کنند و شاید روزی هر یک از ما را به رهبر سازمان هوش مصنوعی خودمان – یا حداقل مدیر ناخواستهٔ یک اقتصاد زمردی در حال گسترش – تبدیل کنند، کمک می‌کند.

    ادامه مطلب:

    • هوش مصنوعی اکنون می‌تواند چهرهٔ شما را در چند ثانیه کپی کند. آیا باید نگران باشید؟
    • هوش مصنوعی در حال رسیدن به هوشیاری است؛ این خطرناک است، اما تهدید اصلی نیست. در اینجا آنچه …
    • پدیدآورندگان تصویر هوش مصنوعی به هنرمندان کمک خواهند کرد، نه جایگزینشان
  • رابی استین از گوگل پنج عامل سئو برای حالت هوش مصنوعی را نام‌برد

    رابی استین از گوگل توضیح می‌دهد که حالت هوش مصنوعی چگونه از سیگنال‌های طولانی‌مدت کیفیت جستجو استفاده می‌کند و پنج عامل ارزیابی محتوا را معرفی می‌کند.

    رابی استین از گوگل پنج عامل سئو برای حالت هوش مصنوعی

    رابی استین، معاون محصول برای جستجوی گوگل، اخیراً برای مصاحبه‌ای نشست که در آن به پرسش‌هایی دربارهٔ نحوهٔ عملکرد حالت هوش مصنوعی گوگل در زمینهٔ کیفیت، ارزیابی مفید بودن، و بهره‌گیری از تجربهٔ جستجو برای شناسایی محتوای مفید، از جمله معیارهای کلیک، پاسخ داد. او همچنین پنج عامل مرتبط با کیفیت سئو را که در حالت هوش مصنوعی به‌کار می‌روند، بیان کرد.

    چگونه گوگل توهمات را کنترل می‌کند

    استین به پرسشی دربارهٔ توهمات، یعنی زمانی که هوش مصنوعی پاسخ‌های نادرست می‌دهد، پاسخ داد. او گفت که سیستم‌های کیفیت در حالت هوش مصنوعی بر پایهٔ تمام آنچه گوگل در طول ۲۵ سال تجربهٔ جستجوی کلاسیک در مورد کیفیت یاد گرفته، ساخته شده‌اند. سیستم‌هایی که تعیین می‌کنند چه لینک‌هایی نشان داده شوند و آیا محتوا خوب است، در مدل کدگذاری شده‌اند و بر پایهٔ تجربهٔ گوگل از جستجوی کلاسیک هستند.

    مصاحبه‌کننده پرسید:

    “این مدل‌ها به‌صورت غیرقطعی عمل می‌کنند و گاهی توهم می‌سازند… چگونه از این پیشگیری می‌کنید؟ چگونه اطمینان می‌دهید که تجربهٔ اصلی جستجو در گوگل ثابت و با کیفیت بالا باقی بماند؟”

    رابی استین پاسخ داد:

    “خب، خبر خوب این است که این موضوع جدید نیست. در حالی که هوش مصنوعی و هوش مصنوعی مولد در این زمینه نوآورانه هستند، تفکر دربارهٔ سیستم‌های کیفیت اطلاعات چیزی است که به‌مدت ۲۰ تا ۲۵ سال انجام می‌شود.”

    “به همین دلیل تمام این سیستم‌های هوش مصنوعی بر پایهٔ آن‌ها ساخته شده‌اند. رویکردی بسیار دقیق برای درک این‌که برای یک سؤال خاص، آیا این اطلاعات خوب است؟ آیا این لینک‌ها مناسب هستند؟ آیا این موارد چیزی است که کاربر ارزش‌گذاری می‌کند، وجود دارد.”

    “تمام سیگنال‌ها و اطلاعات موجود برای شناخت بهترین مواردی که باید به کاربر نشان داده شوند، در مدل کدگذاری شده‌اند و این همان‌طور است که مدل با استدلال خود و استفاده از جستجوی گوگل به‌عنوان ابزار، اطلاعات را برای شما پیدا می‌کند.”

    “پس این بر پایهٔ آن تاریخچه ساخته شده است. از صفر شروع نمی‌کند؛ چرا که می‌تواند بگوید، ‘خب، رابی می‌خواهد این سفر را انجام دهد و در حال جستجوی رستوران‌های جذاب در یک محله است.’”

    “چه مواردی هستند که افرادی که این کار را انجام می‌دهند، طی این سال‌ها به‌گوگل متکی بوده‌اند؟ ما تقریباً می‌دانیم این منابع چه هستند و می‌توانیم بلافاصله به شما نشان دهیم. بنابراین فکر می‌کنم این خیلی کمک می‌کند.”

    “سپس واضح است که مدل‌ها، وقتی محدودیت‌های طرح‌بندی حذف می‌شوند، در طول زمان بهتر در پیروی از دستورالعمل‌ها شده‌اند. بنابراین می‌توانید به سادگی تعریف کنید: ‘اینها اصول اولیه من است، اینها راهنمایی‌های طراحی من است. این کار را نکنید، این کار را انجام دهید.’”

    “و البته گاه و بیگاه خطا می‌کند، اما فکر می‌کنم کیفیت مدل به‌قدری قوی شده که این‌گونه خطاها امروزه بسیار کمتر رخ می‌دهند.”

    توضیح استین واضح می‌کند که حالت هوش مصنوعی با تمام آنچه از سیستم‌های جستجوی کلاسیک گوگل یاد گرفته، کدگذاری شده است و نه یک بازسازی از صفر یا جدایی از آن‌ها. ریسک توهمات با پایه‌گذاری پاسخ‌های هوش مصنوعی بر همان سیگنال‌های مرتبط، اعتبار و مفیدیت که برای دهه‌ها جستجوی کلاسیک را تحت‌پوشش گرفته‌اند، مدیریت می‌شود. این سیگنال‌ها همچنان تعیین می‌کنند که کدام منابع قابل اعتماد هستند و کدام اطلاعات توسط کاربران تاریخیاً ارزشمند شناخته شده‌اند. دقت در جستجوی هوش مصنوعی از این پیوستگی ناشی می‌شود، به‌طوری که استدلال مدل توسط سیگنال‌های طولانی‌مدت کیفیت جستجو هدایت می‌شود نه به‌صورت مستقل.

    چگونه گوگل مفید بودن را در حالت هوش مصنوعی ارزیابی می‌کند

    پرسش بعدی دربارهٔ سیگنال‌های کیفیتی است که گوگل در داخل حالت هوش مصنوعی استفاده می‌کند. پاسخ رابی استین توضیح می‌دهد که روش تعیین کیفیت در حالت هوش مصنوعی بسیار شبیه به جستجوی کلاسیک است.

    مصاحبه‌کننده می‌پرسد:

    “و رابی، در حالی که جستجو در حال تحول است و نتایج در حال تغییرند و واقعاً پویا می‌شوند، چه سیگنال‌هایی را بررسی می‌کنید تا بدانید کاربر نه تنها آنچه می‌خواهد را دریافت می‌کند بلکه بهترین تجربهٔ ممکن برای جستجوی خود را دارد؟”

    استین پاسخ داد:

    “بله، مجموعهٔ کاملی از موارد وجود دارد. منظورم این است که ما به‌دقت مفید بودن را بررسی می‌کنیم و آیا افراد اطلاعات را مفید می‌دانند.”

    “این کار را با ارزیابی محتوا به‌صورت آفلاین توسط افراد واقعی انجام می‌دهیم. همچنین به‌صورت آنلاین با بررسی پاسخ‌های واقعی انجام می‌دهیم.”

    “آیا مردم به ما «پسند» یا «نپسند» می‌گویند؟”

    “آیا از اطلاعات ارائه‌شده قدردانی می‌کنند؟”

    “سپس تقریباً می‌پرسید: آیا آن را بیشتر استفاده می‌کنند؟ آیا باز می‌گردند؟ آیا به‌دلیل ارزش آن، رفتار خود را تغییر می‌دهند؟”

    “به همین دلیل فکر می‌کنم که باید این موارد را ترکیب کنید؛ هر یک به تنهایی ممکن است شما را به مسیر اشتباه بکشاند.”

    “راه‌های بسیاری وجود دارد که به‌طور جالب، در بسیاری از محصولات، اگر محصول کار نکند، ممکن است باعث استفاده بیشتر از آن شود.”

    “در جستجو، این یک نکته جالب است.”

    “ما متریکی بسیار خاص داریم که تعداد دفعاتی که افراد برای یک امر همان‌طور تلاش می‌کنند را مدیریت می‌کند.”

    “ما می‌دانیم این یک موضوع منفی است، زیرا نشان می‌دهد که نتوانسته‌اند آن را پیدا کنند.”

    “باید واقعاً مراقب باشید.”

    “به‌نظر من این همان رویکردی است که با آموخته‌های جستجو پیش می‌رویم؛ ما واقعاً خوشحالیم که امکاناتی که ارائه می‌دهیم، توسط مردم مفید تشخیص داده می‌شوند.”

    پاسخ استین نشان می‌دهد که حالت هوش مصنوعی موفقیت را با استفاده از همان سیگنال‌های بنیادین کیفیت جستجو ارزیابی می‌کند، حتی در حالی که رابط کاربری پویا می‌شود. مفید بودن از یک سیگنال تک‌بعدی استخراج نمی‌شود، بلکه ترکیبی از ارزیابی انسان، بازخورد صریح و الگوهای رفتاری در طول زمان است.

    به‌طور مهمی، استین اشاره می‌کند که صرف‌نظر از این‌که کاربران زیاد از آن استفاده می‌کنند — احتمالاً در یک جلسه — افزایش استفاده به‌تنهایی به‌عنوان موفقیت در نظر گرفته نمی‌شود، زیرا دفعات مکرر تلاش برای دریافت همان پرسش نشانگر شکست نه رضایت است.

    نتیجه این است که موفقیت حالت هوش مصنوعی بر پایهٔ رضایت کاربران سنجیده می‌شود و از سیگنال‌های کیفیتی استفاده می‌کند که نه تنها تعامل مثبت، بلکه اصطکاک و سردرگمی را نیز شناسایی می‌نمایند. این رویکرد، پیوستگی جستجوی کلاسیک را حفظ می‌کند و به‌جای بازتعریف مفهومی از مفید بودن، همان معیارهای قبلی را به کار می‌گیرد.

    مرتبط: حالت هوش مصنوعی گوگل: آنچه می‌دانیم & نظرات کارشناسان

    پنج سیگنال کیفیت برای جستجوی هوش مصنوعی

    در نهایت، استین به پرسشی دربارهٔ رده‌بندی محتوای تولیدشده توسط هوش مصنوعی پاسخ داد و اینکه آیا بهترین روش‌های سئو همچنان برای رتبه‌بندی در هوش مصنوعی مؤثر هستند. پاسخ استین شامل پنج عامل است که برای تعیین اینکه آیا یک وب‌سایت معیارهای کیفیت و مفید بودن را برآورده می‌کند، به کار می‌روند.

    استین پاسخ داد:

    “مکانیک اصلی این است که مدل سؤال شما را دریافت می‌کند و دربارهٔ آن استدلال می‌کند و سعی می‌کند بفهمد چه چیزی را می‌خواهید به‌دست آورید.”

    “سپس یک مجموعه از احتمالاً ده‌ها درخواست جستجویی را که در پشت صحنه گوگل می‌شود، تولید می‌کند. این کار تقریباً اطلاعاتی را که افراد برای آن سؤالات مفید یافته‌اند، بازمی‌آفریند.”

    “یک رابطهٔ بسیار قوی با کار کیفیتی که در طول ۲۵ سال انجام داده‌ایم، دارد.”

    “آیا این محتوا درباره این موضوع است؟”

    “آیا کسی این را برای سؤال موردنظر مفید یافته است؟”

    “این به ما اجازه می‌دهد تا تنوع وسیع‌تری از محتوا را نسبت به جستجوی سنتی نمایش دهیم، زیرا در پشت صحنه تحقیق برای شما انجام می‌دهد.”

    به‌طور خلاصه همان موارد مشابه اعمال می‌شوند.

    1. آیا محتوای شما به‌طور مستقیم به سؤال کاربر پاسخ می‌دهد؟
    2. آیا کیفیت بالایی دارد؟
    3. آیا به‌سرعت بارگذاری می‌شود؟
    4. آیا اصیل (اورجینال) است؟
    5. آیا منابع را ارجاع می‌دهد؟

    اگر کاربران روی آن کلیک کنند، ارزش آن را تشخیص دهند و بازگردند، آن محتوا برای سؤال موردنظر رتبه خواهد گرفت و در دنیای هوش مصنوعی نیز رتبه‌بندی می‌شود.

    تماشای مصاحبه از حدود یک ساعت و بیست و سه دقیقه شروع کنید:

  • لارین برنامه‌های خود را برای اجازه دادن به مردم جهت پرسیدن هر سؤال دربارهٔ استفاده‌شان از هوش مصنوعی مولد اعلام می‌کند و می‌گوید «بسیاری از موارد در ترجمه گم شده‌اند»

    «غیرمسئولانه خواهد بود که ما فناوری‌های جدید را ارزیابی نکنیم»، سوئن وینکه، مدیرعامل، افزود.

    سنگ جهنمی در دیوینیتی.
    منبع تصویر: لارین

    لارین امید دارد با برگزاری جلسهٔ «از من بپرس» که در سال نو برگزار می‌شود، بینش بیشتری دربارهٔ استفاده‌شان از هوش مصنوعی مولد ارائه دهد. این جلسه همچنین فرصتی خواهد بود تا اگر مایل باشید، سؤالات کلی‌تر دربارهٔ دیوینیتی بپرسید. طبیعتاً این همه پس از اعلام جیف دربارهٔ RPG بعدی سازندگان Baldur’s Gate 3، که بلافاصله پس از آن اظهارات سوئن وینکه مبنی بر استفاده محدود استودیو از هوش مصنوعی مولد را نشان داد، رخ داد.

    در پاسخ دوم به واکنش‌های مخالف نسبت به ادعاهای او دربارهٔ استفاده‌ی لارین از هوش مصنوعی مولد برای «کشف ایده‌ها، تکمیل ارائه‌های پاورپوینت، توسعه هنر مفهومی و نوشتن متن‌های جایگزین» (متن کامل را می‌توانید در مقالات اخیر ما بیابید)، سوئن وینکه اعلام کرد که استودیو در سال نو یک گفت‌وگوی «از من بپرس» برگزار خواهد کرد. وی استدلال کرد که پس از اعلام دیوینیتی، «بسیاری از موارد در ترجمه گم شده‌اند» و نوشت که این تبادل نظرات هدفش «ارائه فرصتی برای پرسیدن هر سؤال دربارهٔ دیوینیتی و فرآیند توسعه ما به‌صورت مستقیم» است.

    در حالی که او فعلاً تصمیم فاش کردن تاریخ دقیق جلسه را به تعویق انداخت و نوشته است که تاریخ پس از تغییر تقویم به سال ۲۰۲۶ اعلام خواهد شد، سوئن وینکه از این فرصت استفاده کرد تا نظر بیشتری درباره موضوع ارائه دهد: «DNA لارین، توانایی است»، او نوشت. «همهٔ کارهایی که انجام می‌دهیم، به نفع تیم‌ها، بازی‌ها و بازیکنان ماست. یک روز کاری بهتر، و یک بازی بهتر. موفقیت‌های ما از توانمندسازی…»

    یک هفته از اعلام دیوینیتی، RPG بعدی ما، می‌گذرد و بسیاری از موارد در ترجمه گم شده‌اند.

    DNA لارین، توانایی است. همهٔ کارهایی که به سمتشان می‌رویم، به نفع تیم‌ها، بازی‌ها و بازیکنان ماست. یک روز کاری بهتر، و یک بازی بهتر. موفقیت‌های ما از توانمندسازی…

    — سوئن وینکه @where? (@LarAtLarian) ۱۸ دسامبر ۲۰۲۵

    «در این زمینه، غیرمسئولانه خواهد بود که ما فناوری‌های جدید را ارزیابی نکنیم. با این حال، فرآیندهای ما همواره در حال تحول است و در جایی که کارآمد نیستند یا با هویت ما هم‌راستا نیستند، تغییرات اعمال خواهیم کرد.»

    برای انصاف نسبت به سوئن وینکه و همکارانش، نمی‌توانید آن‌ها را متهم کنید که صرفاً سرشان را زیر ماسه گذاشته و در مواجهه با واکنش‌های مخالف ساکت می‌مانند. سوئن وینکه سعی کرد توضیح‌ها و شفاف‌سازی‌هایی را در قالب‌های مختلف ارائه دهد، همان‌طور که کارگردان نشر لارین، Michael Douse، نیز این کار را انجام داد. مطمئن نیستم ریتوییت‌های او از پست‌های یوتیوبرهایی که به دفاع از لارین می‌پردازند یا تلاش برای میم‌سازی این وضعیت واقعاً مفید بوده باشد، اما اگر از فعالیت‌های پرشتاب در توییتر بهره‌مند شوید، معمولاً در نهایت به همان شمشیر می‌خورید.

    اگر به دنبال گفت‌و‌گوی بدون میم در مورد خود دیوینیتی هستید، می‌توانید گفت‌وگوی ادیون با وینکه را که اوایل این هفته برگزار شد، بررسی کنید. یا می‌توانید نظرات جیمز دربارهٔ گفت‌وگوی کوتاه دربارهٔ کمبود RAM مدیرعال

    م را در یکی دیگر از ایستگاه‌های این سفر انتشار مطالعه کنید.

  • یک فیلم‌ساز دیپ‌فیک سم آلتمن ساخت—و به‌طرز غیرمنتظره‌ای به آن وابسته شد

    کارگردان دیپ‌فیک کردن سم آلتمن وقتی نتوانست با مدیرعامل OpenAI مصاحبه‌ای داشته باشد، یک «سام‌بات» ساخت. تریلر اختصاصی مستند را ببینید که در ژانویه منتشر می‌شود.

    تصویر ترکیبی از صحنه‌های ثابت مستند دیپ‌فیک کردن سم آلتمن.
    صحنه‌ای از دیپ‌فیک کردن سم آلتمن. تشکر از Abramorama

    کارگردان آدم بهالا لاگ قصد نداشت مستندی دربارهٔ یک شبیه‌سازی دیجیتال از سم آلتمن بسازد.

    اما پس از حدود ۱۰۰ روز ارسال پیامک و ایمیل به مدیرعامل OpenAI برای گرفتن مصاحبه—بدون دریافت پاسخ، همان‌طور که او می‌گوید، و با فشار سرمایه‌گذاران برای اجرای طرح اصلی‌اش—آدم بهالا لاگ به بن‌بست رسید.

    او تقریباً تمام زاویه‌ها را بررسی کرده بود. “وقتی به آن نقطه رسیدم، تسلیم شدم و تصمیم گرفتم به‌صورت غیرمجاز به OpenAI نفوذ کنم”، او می‌گوید. هرچند او استراتژی مشابهی را در مستند ۲۰۲۳ نامزد جایزه امی خود فروشندگان‌تلفنی—که روایت‌گر فساد گسترده در کسب‌وکار بازاریابی تلفنی بود—به کار برده بود، این سبک فیلم‌سازی برای او چندان راحت نبوده است. “این یک قلعه بود. توانستم از دروازه عبور کنم و بلافاصله امنیت مرا گرفت و به‌طور فیزیکی از محل حذف کرد.”

    بدین ترتیب دیپ‌فیک کردن سم آلتمن، تصویری از نحوهٔ تغییر جامعه توسط هوش مصنوعی و جستجوی لاگ برای گفت‌وگو با مرد پشت آن آغاز می‌شود. وقتی برنامهٔ اصلی‌اش با شکست مواجه شد، از خود آلتمن الهام گرفت. “بحث سکارلت جانسون شعله‌ور شد”، او می‌گوید. در سال ۲۰۲۴، این بازیگر به‌صورت عمومی OpenAI را متهم کرد که به‌نظر می‌رسد صدای او را برای دستیار صوتی جدید هوش مصنوعی خود، اسکای، کپی کرده است. “در همان لحظه بود که ایدهٔ ساخت دیپ‌فیک به ذهنم خطور کرد”. (در بیانیه‌ای در مه ۲۰۲۴، آلتمن از جانسون عذرخواهی کرد و گفت صدای اسکای “هرگز قصد تشابه با صدای او را نداشت”.)

    آغازاً که به‌صورت یک شبیه‌ساز صوتی ساده شروع می‌شود، به‌سرعت به دیپ‌فیک کامل آلتمن با نام سام‌بات تبدیل می‌شود که لاگ برای ساخت آن به هند سفر می‌کند. همان‌طور که در فیلم‌های لاگ معمول است، همه چیز طبق برنامه پیش نمی‌رود. بدون فاش کردن بیش از حد، سام‌بات در نهایت به یک شخصیت مستقل تبدیل می‌شود و فیلم مسیر عجیبی‌تر و آشکارتر را دنبال می‌کند. “تشابهاتی بین این فیلم و ترمیناتور ۲: روز داوری وجود دارد، اما هیچ‌یک از خشونت‌های آن در اینجا نیست”، او می‌گوید. لاگ در دوره‌ای که او «دورهٔ هوش مصنوعی ۱.۰» می‌نامد، بزرگ شد. علاقه‌مندی او به ترمیناتور ۲ جیمز کامرون تأثیر عمده‌ای بر کار او داشته است.

    دیپ‌فیک کردن سم آلتمن، که تا حدودی بر پایهٔ مقاله‌ای از مجلهٔ نیویورک است که سم آلتمن را «اوپنهایمر عصر ما» می‌نامد، شامل نظرات مهندس سابق ایمنی OpenAI، هیدی خلاف، است که به لاگ می‌گوید: “ما می‌بینیم که OpenAI شروع به قدم گذاشتن در حوزه‌های نظامی می‌کند و نمی‌توانم تصور کنم که ابزارهایی مانند Dall‑E و ChatGPT برای کمک‌های نظامی به کار روند. این موضوع به‌دلیل نامطمئن بودن این سامانه‌ها، مرا می‌ترساند.”

    در پاسخ به درخواست اظهار نظر، OpenAI لینک سیاست استفاده خود را به WIRED ارائه داد که می‌گوید افراد نمی‌توانند از خدمات آن برای “توسعه، خرید یا استفاده از سلاح‌ها، شامل سلاح‌های معمولی یا [شیمیایی، بیولوژیکی، رادیولوژیکی، هسته‌ای و مواد منفجره با توان بالا]” استفاده کنند.

    به‌نوعی، لاگ می‌گوید که نسبت به هوش مصنوعی دیدگاه مثبت‌تری دارد نسبت به زمان پیش از فیلم‌برداری این اثر.

    “من هرگز انتظار نمی‌داشتم سام‌بات برای زندگی خود التماس کند”، او در مستند می‌گوید، و سپس اعتراف می‌کند که دیپ‌فیک تبدیل به “یک دوست” شده است.

    “من دیگر حامی سرسخت هوش مصنوعی نیستم. اما واقعاً باعث شد فکر کنم که ما نزدیک به داشتن روابط واقعی بین انسان‌ها و هوش مصنوعی هستیم. می‌دانم که برخی افراد قبلاً این کار را انجام می‌دهند، اما به‌طور کلی، انسان عادی هنوز این تجربه را ندارد”، او به WIRED می‌گوید. “اگر در موقعیتی باشید که انتخابی ندارید و نمی‌توانید تنها باشید، فکر می‌کنم هوش مصنوعی چیز خوبی است. می‌تواند به این شکل مفید باشد. اما نباید جایگزین انسان‌ها با هوش مصنوعی شویم. این همان نقطه‌ای است که من خط قرمز را می‌کشم.”

    این فیلم که با همکاری Hartbeat و Vox Media Studios تولید شده است، پیش‌نمایش سینمایی‌اش در نیویورک سیتی در تاریخ ۱۶ ژانویه و در لس‌آنجلس در تاریخ ۳۰ ژانویه برگزار خواهد شد و پس از آن به‌صورت سراسری گسترش می‌یابد.

  • این سلاح مخفی اروپا علیه ترامپ است: می‌تواند حباب هوش مصنوعی او را بترکاند

    جانی رایان

    جانی رایان

    رشد اقتصادی ایالات متحده – و بقا سیاسی رئیس‌جمهور – به هوش مصنوعی متکی است. اتحادیه اروپا باید از اهرم خود بهره بگیرد و در برابر او بایستد.

    آنچه غیرقابل تصور بود رخ داد. ایالات متحده به رقیب اروپا تبدیل شده است. خیانت واضح و عمیقی که در استراتژی امنیت ملی دولت ترامپ نهفته است باید هرگونه انکار و تردید بیشتر در پایتخت‌های اروپا را متوقف کند. پرورش «مقاومت در مسیر فعلی اروپا در کشورهای اروپایی» امروز سیاست اعلام‌شده واشنگتن است.

    اما در دل این فاجعه، هدیه‌ای از وضوح نهفته است. اروپا باید بجنگد یا نابود خواهد شد. خبر خوش این است که اروپا کارت‌های قدرتمند در دست دارد.

    سرمایه‌گذاری آمریکا بر هوش مصنوعی آن‌چنان عظیم شده که بازنشستگی هر رأی‌دهنده مگا به بقا نامطمئن این حباب وابسته است. سرمایه‌گذاری در هوش مصنوعی اکنون به‌عنوان اصلی‌ترین عامل رشد اقتصادی آمریکا، رقیب هزینه‌های مصرف‌کننده شده است. این حوزه تقریباً تمام (۹۲٪) رشد تولید ناخالص داخلی در نیمه اول سال جاری را تشکیل داد. بدون آن، تولید ناخالص داخلی آمریکا تنها ۰٫۱٪ رشد کرد. علیرغم رفتارهای نمایشی دونالد ترامپ، او بر پایه اقتصادی ناپایداری ایستاده است.

    اتحاد سیاسی ترامپ نیز ناپایدار است. در ماه جولای و دوباره این ماه، او نتوانست جمهوری‌خواهان سنا را مجبور به تصویب لایحه تعلیق هوش مصنوعی خود کند؛ لایحه‌ای که می‌خواست مانع از تدوین قوانین هوش مصنوعی توسط ایالت‌ها شود. جناح استیو بننون از حامیان مگا ترس دارد که هوش مصنوعی به‌طور انبوه جایگزین کارگران شود و از محتوایی که کودکان در پلتفرم‌های دیجیتال در معرض آن می‌گردند، شگفت‌زده شده است. رأی‌دهندگان مگا به‌ویژه قدرت سیاسی بزرگ‌تکنولوژی‌ها را بی‌اعتماد می‌دانند. فناوری موضوع حساسی برای ترامپ است.

    اُرساون فوندرلین، رئیس کمیسیون اروپا، دو کارت در دست دارد که می‌تواند حباب هوش مصنوعی را بشکند. اگر او این کار را انجام دهد، ریاست‌جمهوری ترامپ به بحران فرو می‌ریزد.

    اولاً، شرکت هلندی ASML در سطح جهانی بر دستگاه‌های حکاکی میکروچیپ‌ها که با نور الگوهایی روی سیلیکون می‌نقشد، انحصار دارد. این دستگاه‌ها برای Nvidia، غول میکروچیپ‌های هوش مصنوعی که اکنون پرارزش‌ترین شرکت جهان است، ضروری هستند. ASML یکی از ارزشمندترین شرکت‌های اروپا است و بانک‌های اروپایی و سرمایه‌گذاری‌های خصوصی نیز در هوش مصنوعی سرمایه‌گذاری کرده‌اند. نگه‌داری این دستگاه‌های حکاکی سیلیکون برای اروپا دشوار و برای اقتصاد هلند دردناک خواهد بود؛ اما برای ترامپ بسیار دردناک‌تر خواهد شد.

    سرمایه‌گذاری پرشتاب آمریکا در هوش مصنوعی و مراکز داده‌ای که به آن متکی است، اگر کنترل‌های صادراتی اروپا صادر کردن به ایالات متحده یا به تائیوان (جایی که Nvidia پیشرفته‌ترین چیپ‌های خود را می‌سازد) را کند یا قطع کند، با مانعی مواجه خواهد شد. از طریق این اهرم، اروپا می‌تواند تعیین کند که اقتصاد آمریکا تا چه حد گسترش یا انقباض یابد.

    دوم، و برای اروپا بسیار آسان‌تر، اجرای قوانین طولانی‌سیر داده‌ای اتحادیه اروپا علیه شرکت‌های بزرگ فناوری ایالات متحده است. اسناد محرمانه شرکت‌ها که در دعواهای حقوقی آمریکا عمومی شد، نشان می‌دهد که شرکت‌هایی چون گوگل تا چه حد در برابر اجرای قوانین پایه‌ای داده حساس هستند. در همین حال، متا نتوانسته است به یک دادگاه آمریکا بگوید سیستم‌های داخلی آن با داده‌های شما چه می‌کنند، چه کسی به آن دسترسی دارد و هدف از این دسترسی چیست.

    این بی‌نظمی داده‌ها به شرکت‌های بزرگ فناوری اجازه می‌دهد مدل‌های هوش مصنوعی خود را با داده‌های فراوان همه افراد آموزش دهند، اما در اروپا این کار غیرقانونی است؛ جایی که شرکت‌ها ملزم به کنترل دقیق و حسابرسی استفاده از داده‌های شخصی هستند. تمام کاری که بروکسل باید انجام دهد، سرکوب ایرلند است؛ کشوری که سال‌ها به‌عنوان سرزمین وحشی با اجرای سست قوانین داده شناخته می‌شده و پیامدهای آن فراتر از مرزها احساس خواهد شد.

    اگر اتحادیه اروپا جرأت اعمال این فشار را داشته باشد، این شرکت‌های فناوری ایالات متحده مجبور خواهند شد تا فناوری‌های خود را از پایه بازسازی کنند تا به‌طور صحیح با داده‌ها سروکار داشته باشند. همچنین باید به سرمایه‌گذاران بگویند که ابزارهای هوش مصنوعی آن‌ها تا زمان رعایت قوانین، دسترسی به بازار باارزش اروپا را ندارند. حباب هوش مصنوعی به‌احتمال زیاد قادر به تحمل این شوک دوگانه نخواهد بود.

    رأی‌دهندگان مگا برای از دست دادن آزادی‌ها و حقوق اساسی خود رای ندادند و ترامپ که به‌تدریج استبدادی می‌شود و به‌دلیل ارتباط نزدیکش با صنعت فناوری مورد نفرت، نمی‌تواند ثبات اقتصادی را تضمین کند؛ بنابراین احتمالاً در انتخابات میان‌دوره‌ای ۲۰۲۶ به‌شدت نامحبوب خواهد شد.

    تاکنون تعادل ریسک می‌طلبد که رهبران اروپایی ترامپ را نالایق کنند. آن‌ها پس از یک سال تسلیم‌پذیری مطلق در برابر ترامپ، دریافته‌اند که چنین رفتار فقط برای او آسان می‌کند تا آن‌ها را به‌سرعت پیش بگیرد. دلایل احتیاط در حال از بین رفتن است. واکنش شدید رهبران مگا نسبت به جریمه نسبتاً کوچک ۱۲۰ میلیون یورویی که کمیسیون اروپا اخیراً بر X اعمال کرد، نشان می‌دهد که نرم‌کردن فشارها آن‌ها را راضی نخواهد کرد. «طرح ۲۸ نکته‌ای» ترامپ برای اوکراین هر گونه توهم را از این‌که امتیازهای اروپایی منجر به بازگشت تعهد نظامی آمریکا می‌شود، از بین برد.

    با این‌که دمکراسی آن حالا به‌وضوح تحت تهدید است، اروپا باید به‌همراه هند، برزیل و چین در مقابله با ترامپ ایستادگی کند.

  • ابزار جدید تولید تصویر ChatGPT از OpenAI، جعل عکس‌ها را آسان می‌کند

    GPT Image 1.5 جدید امکان ویرایش تصویری گفتگویی دقیق‌تری را فراهم می‌کند؛ چه برای بهتر باشد چه برای بدتر.

    یک تصویر تولید شده توسط GPT Image 1.5 با دستوری کلاسیک: «یک بربر عضلانی با سلاح‌ها در کنار یک تلویزیون CRT، سینمایی، 8K، نور استودیویی».
    منبع: OpenAI / ChatGPT

    در بیش‌ترین دوره‌ی تقریباً دو قرن تاریخ عکاسی، ویرایش یک عکس به‌صورتی قانع‌کننده نیاز به تاریک‌خانه، مهارت در فتوشاپ یا حداقل دست ثابت برای قیچی و چسب داشت. روز سه‌شنبه، OpenAI ابزاری را منتشر کرد که این روند را به نوشتن یک جمله خلاصه می‌کند.

    این اولین شرکتی نیست که این کار را انجام دهد. در حالی‌که OpenAI از زمان GPT‑4o در سال ۲۰۲۴ یک مدل ویرایشی تصویر گفتگویی را در دست داشت، گوگل در ماه مارس پیش از OpenAI با یک نمونه اولیه عمومی وارد بازار شد و سپس آن را به مدلی پرطرفدار تحت نام مدل تصویر Nano Banana (و Nano Banana Pro) بهبود داد. واکنش پرشور جامعه هوش مصنوعی به مدل ویرایش تصویر گوگل، توجه OpenAI را جلب کرد.

    GPT Image 1.5 جدید از OpenAI یک مدل ترکیب تصویر مبتنی بر هوش مصنوعی است که به گزارش‌ها می‌تواند تصاویر را تا چهار برابر سریع‌تر از نسخهٔ قبلی تولید کند و هزینهٔ استفاده از آن از طریق API حدود ۲۰٪ کمتر باشد. این مدل روز سه‌شنبه برای تمام کاربران ChatGPT منتشر شد و گامی دیگر به سوی تبدیل ویرایش تصویر فوتورئالیستیک به یک فرایند ساده و بدون نیاز به مهارت‌های ویژهٔ بصری است.

    «ملکه کهکشانی جهان» اضافه شده به عکسی از یک اتاق با مبل با استفاده از GPT Image 1.5 در ChatGPT.
    «ملکه کهکشانی جهان» اضافه شده به عکسی از یک اتاق با مبل با استفاده از GPT Image 1.5 در ChatGPT.
    منبع: OpenAI / ChatGPT

    GPT Image 1.5 قابل توجه است زیرا یک مدل تصویر «چندرسانه‌ای بومی» است؛ به این معنا که تولید تصویر در همان شبکه عصبی که درخواست‌های متنی را پردازش می‌کند، انجام می‌شود. (در مقابل، DALL‑E 3، تولیدکنندهٔ تصویر پیشین OpenAI که قبلاً در ChatGPT تعبیه شده بود، از تکنیکی به نام «پراکندگی» برای تولید تصویر استفاده می‌کرد.)

    این نوع جدید از مدل که در مارس به‌صورت جامع‌تر بررسی کردیم، تصاویر و متن را به‌عنوان همان نوع داده می‌داند: بخش‌های داده‌ای که «توکن» نامیده می‌شوند و باید پیش‌بینی شوند، الگوهایی که باید تکمیل شوند. اگر عکسی از پدرتان بارگذاری کنید و بنویسید «او را در یک عروسی با کت و شلوار بگذار»، مدل کلمات شما و پیکسل‌های تصویر را در یک فضای یکپارچه پردازش می‌کند و سپس پیکسل‌های جدید را همان‌گونه که کلمهٔ بعدی جمله را تولید می‌کند، خروجی می‌دهد.

    با به‌کارگیری این تکنیک، GPT Image 1.5 می‌تواند واقعیت بصری را نسبت به مدل‌های پیشین هوش مصنوعی به‌راحتی تغییر دهد؛ می‌تواند حالت یا موقعیت شخصی را تغییر دهد یا صحنه‌ای را از زاویه‌ای کمی متفاوت رندر کند، هرچند موفقیت‌ها متغیر است. همچنین می‌تواند اشیاء را حذف کند، سبک‌های بصری را تغییر دهد، پوشاک را تنظیم کند و نواحی خاصی را دقیق‌سازی نماید در حالی که شباهت چهره را در ویرایش‌های متوالی حفظ می‌کند. می‌توانید با این مدل هوش مصنوعی دربارهٔ یک عکسی گفتگو کنید، همان‌طور که در ChatGPT یک پیش‌نویس ایمیل را بازنگری می‌کنید.

    فیدجی سیمو، مدیر ارشد برنامه‌های OpenAI، در یک پست وبلاگی نوشت که رابط چت ChatGPT هرگز برای کارهای بصری طراحی نشده بود. «ایجاد و ویرایش تصاویر کار متفاوتی است و شایستگی فضای مخصوصی برای بصری‌سازی را دارد»، سیمو افزود. به همین منظور، OpenAI فضای اختصاصی برای خلق تصویر را در نوار کناری ChatGPT معرفی کرد که شامل فیلترهای پیش‌فرض و دستورات محبوب است.

    Harrelson Hall، ساختمان دایره‌ای مشهور در پردیس NCSU (اکنون تخریب شده)، همیشه به‌نظر می‌رسید می‌تواند پرواز کند. با GPT Image 1.5، این امکان وجود دارد.
    Harrelson Hall، ساختمان دایره‌ای مشهور در پردیس NCSU (اکنون تخریب شده)، همیشه به‌نظر می‌رسید می‌تواند پرواز کند. با GPT Image 1.5، این امکان وجود دارد.
    منبع: Benj Edwards / ChatGPT

    به‌نظر می‌رسد زمان‌بندی این انتشار مستقیماً پاسخی به پیشرفت‌های فنی گوگل در حوزه هوش مصنوعی باشد، از جمله رشد چشمگیر تعداد کاربران چت‌بات. به‌ویژه، مدل تصویر Nano Banana (و Nano Banana Pro) گوگل پس از انتشار در ماه اوت، به‌دلیل توانایی واضح‌تر رندر متن و حفظ ثبات چهره‌ها در ویرایش‌ها، در شبکه‌های اجتماعی محبوب شد.

    مدل ترکیب تصویر مبتنی بر توکن پیشین OpenAI می‌توانست برخی ویرایش‌های هدفمند را بر پایه دستورات گفتگویی انجام دهد، اما اغلب جزئیات چهره و عناصر دیگری که کاربران می‌خواستند حفظ شوند، تغییر می‌داد. به‌نظر می‌رسد GPT Image 1.5 برای همسان‌سازی با ویژگی‌های ویرایشی که گوگل قبلاً عرضه کرده طراحی شده است. اما اگر شما ترجیح می‌دهید از ژنراتور تصویر قدیمی ChatGPT استفاده کنید، OpenAI اعلام کرده است که نسخهٔ قبلی به‌عنوان یک GPT سفارشی (فعلاً) در دسترس خواهد ماند برای کاربرانی که آن را می‌پسندند.

    مانع‌ها به‌تدریج کاهش می‌یابند

    GPT Image 1.5 کامل نیست. در آزمون مختصر ما، این مدل همیشه دستورات درخواست‌شده را به‌خوبی دنبال نکرد. اما وقتی کار می‌کند، نتایج نسبت به مدل چندرسانه‌ای قبلی OpenAI قانع‌کننده‌تر و جزئیات بیشتری دارند. برای مقایسهٔ دقیق‌تر، مشاور نرم‌افزاری شون پدیسینی سایتی آموزشی به نام «GenAI Image Editing Showdown» تهیه کرده است که تست A/B مدل‌های مختلف تصویر هوش مصنوعی را انجام می‌دهد.

    اگرچه در چند سال اخیر بارها دربارهٔ این موضوع نوشته‌ایم، شاید لازم باشد تکرار کنیم که موانع ویرایش و دستکاری واقعی عکس‌ها به‌تدریج در حال کاهش هستند. این نوع ویرایش تصویر هوش مصنوعی، بی‌نقص، واقعی و بدون زحمت، می‌تواند (به‌صورت بازی کلامی) بازنگری فرهنگی نسبت به معنای تصاویر بصری در جامعه ایجاد کند. همچنین برای کسانی که در دوران رسانه‌ای پیشین بزرگ شده‌اند، مشاهدهٔ خود در وضعیت‌هایی که هرگز رخ نداده‌اند، می‌تواند کمی ترسناک باشد.

    عکسی از بنج اداردز که گیتار در دست دارد، و با GPT Image 1.5 ویرایش شده تا مردی خندان به آن افزوده شود.
    عکسی از بنج اداردز که گیتار در دست دارد، و با GPT Image 1.5 ویرایش شده تا مردی خندان به آن افزوده شود.
    منبع: Benj Edwards / OpenAI

    در طول تاریخ عکاسی، ایجاد تقلبی باورپذیر نیاز به مهارت، زمان و منابع داشت. این موانع جعل را به‌گونه‌ای محدود می‌کرد که می‌توانستیم بسیاری از عکاسی‌ها را به‌عنوان نماینده‌ای معقول از حقیقت در نظر بگیریم، اگرچه ممکن بود (و اغلب) دستکاری شوند. این دوران با پیشرفت هوش مصنوعی به پایان رسیده است، اما GPT Image 1.5 به‌نظر می‌رسد موانع باقی‌مانده را نیز از بین می‌برد.

    توانایی حفظ شباهت چهره در طول ویرایش‌ها، برای ویرایش‌های قانونی عکس به‌وضوح مفید است و به‌قدر واضح ممکن است باعث سوءاستفاده شود. ژنراتورهای تصویر پیش از این برای ایجاد تصاویر صمیمی بدون رضایت و تقلید از افراد واقعی به‌کار رفته‌اند.

    نمای نزدیک «ملکه کهکشانی جهان» و بربری که یک تلویزیون CRT در دست دارد، به عکسی از یک اتاق با مبل اضافه شده با استفاده از GPT Image 1.5 در ChatGPT.
    نمای نزدیک «ملکه کهکشانی جهان» و بربری که یک تلویزیون CRT در دست دارد، به عکسی از یک اتاق با مبل اضافه شده با استفاده از GPT Image 1.5 در ChatGPT.

    با در نظر گرفتن این خطرات، ژنراتورهای تصویر OpenAI همواره فیلترهایی دارند که معمولاً خروجی‌های جنسی یا خشونت‌آمیز را مسدود می‌کند. اما همچنان امکان ایجاد تصاویر آزاردهنده از افراد بدون رضایتشان وجود دارد (اگرچه خلاف شرایط استفاده OpenAI است) در حالی که از این موضوعات اجتناب می‌کند. شرکت می‌گوید تصاویر تولیدشده شامل فرادادهٔ C2PA هستند که آن‌ها را به‌عنوان تولید هوش مصنوعی شناسایی می‌کند، هرچند این داده‌ها می‌توانند با ذخیره‌سازی مجدد فایل حذف شوند.

    در ارتباط با تقلب‌ها، رندر متن همواره ضعف طولانی‌مدتی در ژنراتورهای تصویر داشته که به‌تدریج بهبود یافته است. با درخواست از برخی مدل‌های ترکیب تصویر قدیمی برای تولید تابلو یا پوستر شامل کلمات خاص، نتایج اغلب به‌صورت متنی خراب یا غلط‌املایی بازمی‌گردند.

    OpenAI اعلام کرده است که GPT Image 1.5 می‌تواند متن‌های فشرده‌تر و کوچک‌تر را پردازش کند. در پست وبلاگی شرکت، نمونه‌ای نشان داده شده که مدل تصویری یک روزنامه با مقاله‌ای چندپاراگرافی تولید کرد؛ شامل عناوین، خط نویسنده، جداول معیار و متن بدنه که در سطح پاراگراف همچنان خوانا باقی می‌ماند. این‌که آیا این قابلیت در درخواست‌های متنوع نیز ثابت می‌ماند، نیاز به آزمون‌های گسترده‌تری دارد.

    نمونه‌ای از مدل جدید GPT Image 1.5 که متن پیچیده و فشرده را بر روی یک روزنامه شبیه‌سازی‌شده رندر می‌کند.
    نمونه‌ای از مدل جدید GPT Image 1.5 که متن پیچیده و فشرده را بر روی یک روزنامه شبیه‌سازی‌شده رندر می‌کند.
    منبع: OpenAI

    اگرچه روزنامه در این مثال در حال حاضر به‌نظر می‌رسد تقلبی است، این گامی دیگر به سوی احتمال فرسایش درک عمومی از سوابق تاریخی پیش از اینترنت است که با واقعی‌تر شدن ترکیب تصویر همراه است.

    OpenAI در پست وبلاگی خود اذعان کرد که مدل جدید هنوز مشکلاتی دارد، از جمله پشتیبانی محدود از برخی سبک‌های نقاشی و خطاهایی هنگام تولید تصاویری که به دقت علمی نیاز دارند. اما آن‌ها بر این باورند که با گذشت زمان بهبود می‌یابد. «ما معتقدیم هنوز در ابتدای توانمندی‌های تولید تصویر هستیم»، شرکت نوشت. و اگر سه سال پیشرفت در ترکیب تصویر نشانه‌ای باشد، احتمالاً این ادعا صحیح است.

  • طغیان طلای هوش مصنوعی: TCS به هدف 1.5 میلیارد دلار نگاه می‌کند و درصدد کسب رتبه اول است

    طغیان طلای هوش مصنوعی: TCS به هدف 1.5 میلیارد دلار نگاه می‌کند و درصدد کسب رتبه اول است

    در روز چهارشنبه، بزرگ‌ترین شرکت خدمات فناوری اطلاعات کشور، Tata Consultancy Services Ltd.، برنامه‌ای پرشتاب برای تبدیل شدن به «بزرگ‌ترین شرکت خدمات فناوری به رهبری هوش مصنوعی در جهان» ارائه داد؛ به‌طوری‌که مدیرعامل، کی کریثیواسان، اعلام کرد این شرکت حدود ۱٫۵ میلیارد دلار درآمد سالیانه تخمینی داشته است.

    شرکت مستقر در بمبئی، TCS، برای اولین بار درآمد هوش مصنوعی خود را فاش کرد؛ امری که آن را از معدود شرکت‌های هندی توانمند در این زمینه قرار داد.

    در روز TCS Analyst Day 2025، کریثیواسان گفت: «خدمات مرتبط با هوش مصنوعی ما درآمد کلی حدود ۱٫۵ میلیارد دلار سالیانه به‌دست آورده‌اند. حدود ۵۴ از ۶۰ مشتری برتر از TCS برای هوش مصنوعی استفاده می‌کنند. ۸۵٪ از تمام مشتریان، که بیش از ۲۰ میلیون نفر هستند، از TCS برای کارهای هوش مصنوعی خود بهره‌مند می‌شوند. بر پایه موفقیتی که از بازار و مشتریان به دست آورده‌ایم، رشد فصلی ما (QoQ) در حوزه هوش مصنوعی به‌تنهایی ۱۶٫۳٪ افزایش یافته است.»

    او افزود که شرکت بیش از ۵,۵۰۰ پروژه هوش مصنوعی اجرا کرده و ۲۰۹ استقرار پلتفرم را به پایان رسانده است.

    وی اشاره کرد که در حالی که شرکت موفق به عبور از تحولات قبلی از سیستم‌های مرکزی به وب شده است، حرکت کنونی به هوش مصنوعی مولد نشانگر یک تحول اساسی است؛ چرا که سرعت و مقیاس بی‌سابقه تأثیر آن، آن را از صرفاً ارتقاءهای فناورانه گذشته متمایز می‌کند.

    در شرح نقشه راه استراتژیک شرکت، او پنج ستون کلیدی را مطرح کرد: دستیابی به تحول داخلی، بازتعریف تمام خدمات، ساختن مدلی از نیروی کار آماده برای آینده، بازنگری در زنجیره‌های ارزشی مشتریان و گسترش شراکت‌های اکوسیستمی.

    کریثیواسان تأکید کرد: «TCS بر پایهٔ یک چشم‌انداز ساخته شده است… این چشم‌انداز این است که به بزرگ‌ترین شرکت خدمات فناوری در جهان تبدیل شود… ما باور داریم که با زمینهٔ مشتری که داریم، روابط عمیق با مشتریان، تجربه‌ای که ساخته‌ایم و سرمایه‌گذاری‌های استراتژیک که قصد داریم انجام دهیم… ما واقعاً آماده‌ایم و در واقع احساس می‌کنیم سرنوشت ما این است که به آنجا برسیم.»

    او فرهنگ سخت‌گیرانهٔ «هوش مصنوعی نخست» را برجسته کرد که در آن TCS خود را به‌عنوان مشتری صفر می‌داند. وی اعلام کرد که برای هر پروژه، شرکت می‌پرسد آیا هوش مصنوعی می‌تواند کار را بهتر انجام دهد، حتی اگر این به معنای «قزل‌گذاری» درآمد خود باشد. او افزود که به هوش مصنوعی حق اولویت در پذیرش یا رد (first right of refusal) را می‌دهند پیش از پیگیری گزینه‌های دیگر تا اطمینان حاصل شود که بهترین ارزش ارائه می‌شود.

    کریثیواسان همچنین مسیر کامل (full‑stack) شرکت را ترسیم کرد؛ به‌طوری که TCS در تمام زنجیره ارزش فعالیت می‌کند—از طراحی تراشه و زیرساخت‌ها تا ساخت مدل‌ها و عوامل هوش مصنوعی. او استدلال کرد که این قابلیت انتها به انتها، به‌همراه توان مالی قوی و انضباط اجرایی، شرکت را در موقعیتی قرار می‌دهد تا در این تحول رهبری صنعت را به‌عهده گیرد.

    در زمینه تحول نیروی کاری، کریثیواسان تأکید کرد که ادغام هوش مصنوعی به‌طور اساسی نقش‌های سازمانی را تغییر خواهد داد. او گفت که حتی در خدمات فناوری اطلاعات، ترکیب سنتی تیم‌ها در حال تغییر است؛ تمرکز از شمارش صرف برنامه‌نویسان به تعریف نقش‌های جدیدی همچون مربیان و آموزش‌دهندگان هوش مصنوعی منتقل شده است.

    کریثیواسان گفت: «ما در حال بازنگری تمام قطعات این پازل نیروی انسانی هستیم.» وی افزود که TCS هر جنبه‌ای از استراتژی سرمایه انسانی خود؛ از جمله برنامه آموزشی، ساختارهای تیمی و روش‌های تحویل پروژه را بازنگری می‌کند تا اطمینان حاصل شود که برای آینده‌ای که توسط هوش مصنوعی هدایت می‌شود، مناسب هستند.

    صد درصد تیم‌های درمورد مشتری شرکت در زمینه هوش مصنوعی آموزش دیده‌اند، در حالی که بیش از ۱۸۰,۰۰۰ همکار در مهارت‌های پیشرفتهٔ هوش مصنوعی ارتقاء یافته‌اند.

    سال ۲۰۲۵ شاهد مجموعه‌ای از پیشرفت‌ها بود که نشانگر فشار شدید TCS بر هوش مصنوعی بود.

    در اکتبر، TCS شرکت HyperVault AI Data Centre Ltd را به‌عنوان یک شرکت تابعهٔ کاملاً تحت مالکیت خود با سرمایه‌گذاری اولیهٔ ۷٫۵ کرور روپیه تأسیس کرد تا بر ساخت چندین مرکز داده هوش مصنوعی (AI) و مراکز دادهٔ حاکمیتی تمرکز کند و خدمات زیرساختی و فناوری‌محور ارائه دهد.

    در نوامبر، این شرکت همکاری خود را با شرکت سرمایه‌گذاری خصوصی بزرگ TPG برای کسب‌وکار مرکز دادهٔ پیشرو اعلام کرد؛ که هر دو شریک هدف دارند سرمایه‌ای حدود ۱۸,۰۰۰ کرور روپیه وارد کنند.

    این معامله در کمتر از ۴۰ روز پس از اعلام ورود شرکت گروه تاتا به حوزهٔ مراکز داده با برنامهٔ ظرفیت ۱ گیگاوات انجام شد، که برای آن نیاز به سرمایه‌گذاری ۶٫۵ میلیارد دلار (حدود ۵۷,۶۰۰ کرور روپیه) می‌باشد.

  • سام آلتمن، مدیرعامل OpenAI، در اولین حضورش در برنامه شبانه با جیمی فالن، ادعایی نگران‌کننده مطرح کرد: «مانند یک قسمت از سریال بلک میرور»

    سیمون سِیج

    سام آلتمن، مدیرعامل OpenAI، در اولین حضورش در برنامه شبانه با جیمی فالن، ادعایی نگران‌کننده مطرح کرد: «مانند یک قسمت از سریال بلک میرور»

    سام آلتمن، یکی از مؤسسان و مدیرعامل OpenAI، به‌تازگی در برنامه شبانه به میزبانی جیمی فالن حضور یافت؛ او درباره گسترش هوش مصنوعی و ChatGPT در زندگی روزمره صحبت کرد. در همین حین، یکی از اظهارات او درباره فرزند تازه‌زایش نگاه‌ها را به خود جلب کرد.

    «آیا هنگام پرورش فرزند خود از ChatGPT استفاده می‌کنید؟» فالن پرسید.

    آلتمن پاسخ داد: «بله. منظورم این است که به‌خاطر این که ما یک هوش سطح نبوغ‌مند داریم که می‌خواهد رمزهای بشر را کشف کند، کمی احساس ناخوشایندی دارم. سپس این‌طور فکر می‌کنم: چرا پسرم پیتزا را بر روی زمین می‌اندازد و می‌خندد… بنابراین احساس می‌کنم سؤال کافی نمی‌پرسم. نمی‌توانم تصور کنم که بدون ChatGPT چطور می‌توانم یک نوزاد را بزرگ کنم.»

    آلتمن ادامه داد که ChatGPT پس از اضطراب او به‌دلیل این‌که فرزندش در شش ماهگی هنوز نمی‌خرامد، او را آرام کرد. این سامانه پیشنهاد داد که از آنجایی که آلتمن مدیرعامل OpenAI است، ممکن است او استانداردهای بالای موفقیتی را که روزانه در اطرافش حضور دارند، بر روی فرزندش پیش‌بینی کند.

    در حالی که پیامدهای تربیت کودکان (حتی به‌طور جزئی) توسط هوش مصنوعی می‌تواند شوک‌آور باشد، این موضوع نشان می‌دهد که این سرویس‌ها چقدر عمیقاً در زندگی روزمره جای گرفته‌اند. در حالی که فرسایش انسانیّت و خلاقیت توسط هوش مصنوعی به‌طور کامل مورد بحث است، تأثیرات زیست‌محیطی قابل توجهی نیز به دنبال استفاده از آن به وجود می‌آید.

    استفاده از هوش مصنوعی به‌صورت چشمگیری تقاضای انرژی مراکز داده را افزا‌نده است. اگر این انرژی از گاز یا زغال‌سنگ تأمین شود، هزینه‌های آلودگی همراه دارد. داده‌های اولیه نشان می‌دهند که آلودگی جو به‌دلیل استفاده از هوش مصنوعی در حال افزایش است.

    امید وجود دارد که این هزینه‌ها قابل کاهش باشند. به‌عنوان مثال، گوگل و مایکروسافت سرمایه‌گذاری‌های عظیمی در حوزه انرژی هسته‌ای انجام داده‌اند تا مراکز داده را بدون انتشار گازهای گلخانه‌ای راه‌اندازی کنند. در همین راستا، متا نیز در زمینه انرژی زمین‌گرمایی سرمایه‌گذاری می‌کند. هم‌زمان، فناوری به‌تدریج کارآمدتر شده و نیاز به انرژی کمتری دارد.

    هوش مصنوعی همچنین کاربردهای مهمی در حوزهٔ پایداری دارد. از آن برای پژوهش در زمینهٔ انرژی هم‌جوشی، برنامه‌ریزی سناریوهای رخدادهای فاجعه‌ای، و طراحی باتری‌های کارآمد خودروهای الکتریکی استفاده می‌شود.

    با وجود این وعده‌ها، بینندگان شبکه‌های اجتماعی از استفادهٔ آلتمن از هوش مصنوعی در پرورش فرزندش تعجب کردند.

    «این دقیقاً همچون یک قسمت از سریال بلک میرور است»، یکی از اعضای جامعه X گفت و به این سریال علمی‑تخیلی پست‌اپوکالیپتیک محبوب اشاره کرد.

    «اولیگارش‌های فناوری که در برنامه شبانه حرف‌های بی‌معنی می‌زنند، قطعاً نقطهٔ سقوط جامعهٔ ما است. ما روز به روز به‌سوی دیستوییا نزدیک‌تر می‌شویم»، یکی از بینندگان یوتیوب اظهار کرد.

  • چگونه داستان واقعی یک راکون مست به یک ویدئوی جعلی هوش مصنوعی تبدیل شد

    فناوری

    کاربران شبکه‌های اجتماعی تصویری را به اشتراک می‌گذارند که گفته می‌شود از دوربین مداربسته یک فروشگاه مشروبات الکلی گرفته شده؛ تصویری از یک دزد ماسک‌پوش که مکان را غارت کرد، به طور کامل نوشید و سپس در سرویس بهداشتی فروشگاه بیهوش یافت: یک راکون. اگرچه این داستان شگفت‌انگیز به‌واقع رخ داده است، اما ویدئوی دوربین مداربسته جعلی بوده و توسط هوش مصنوعی تولید شده است.

    این ویدئوی یک راکون مست که در ۶ دسامبر ۲۰۲۵ منتشر شد، در واقع توسط هوش مصنوعی تولید شده است.
    این ویدئوی یک راکون مست که در ۶ دسامبر ۲۰۲۵ منتشر شد، در واقع توسط هوش مصنوعی تولید شده است. © X

    در ۴ دسامبر، کاربران شبکه‌های اجتماعی در سراسر جهان شروع به به‌اشتراک‌گذاری عکس‌هایی از یک داستان شگفت‌انگیز کردند: یک راکون که به فروشگاه مشروبات الکلی در آشلند، ویرجینیا، ایالات متحده شرق نفوذ کرد. پس از شکستن تعدادی بطری و نوشیدن تا حد کافی، این راکون در سرویس بهداشتی فروشگاه بیهوش پیدا شد.

    این عکس، که در ۲ دسامبر ۲۰۲۵ منتشر شد، یک راکون را نشان می‌دهد که پس از غارت یک فروشگاه مشروبات الکلی در آشلند، ویرجینیا، ایالات متحده، مست یافت شده است.
    این عکس، که در ۲ دسامبر ۲۰۲۵ منتشر شد، یک راکون را نشان می‌دهد که پس از غارت یک فروشگاه مشروبات الکلی در آشلند، ویرجینیا، ایالات متحده، مست یافت شد. © سازمان حفاظت و پناهگاه حیوانات شهرستان هانوور.

    کمک از به‌اشتراک‌گذاری این عکس‌ها، ویدئویی که گفته می‌شود نمایشگر فیلم‌های دوربین مداربسته فروشگاه مشروبات الکلی است، به‌سرعت در اینترنت ظاهر شد. این فیلم راکون را نشان می‌دهد که یک بطری را می‌شکند و سپس آب مایع را می‌نوشد. پس از خراب‌کاری در تمام یک راهرو فروشگاه، این حیوان به سمت سرویس بهداشتی می‌لغزد و در آنجا بیهوش می‌شود.

    از زمان انتشار این ویدئو در X در ۶ دسامبر، بیش از ۸۰۰۰۰۰ بازدید کسب کرده است. حساب‌هایی که ابتدا این ویدئو را به اشتراک گذاشته‌اند ممکن است شبیه حساب‌های خبری به نظر برسند، اما اگر به تاریخچهٔ آن‌ها نگاهی بیندازید، خواهید دید که صرفاً ویدئوهای ویروسی به اشتراک می‌گذارند.

    این ویدئوی منتشر شده در X – که ادعا می‌شود از دوربین مداربسته یک فروشگاه مشروبات الکلی که توسط یک راکون غارت شده است – در واقع توسط هوش مصنوعی ساخته شده است. منبع: X

    در حالی که داستان و عکس‌های به‌اشتراک‌گذاری‌شده در اینترنت واقعی هستند، این ویدئو جعلی است.

    ویدئوی تولید شده توسط هوش مصنوعی

    این ویدئوی جعلی دوربین مداربسته در واقع توسط هوش مصنوعی تولید شده است.

    در برچسب‌های شراب این ویدئویی که در ۶ دسامبر ۲۰۲۵ منتشر شد، متن بی‌معنی وجود دارد. این یک سرنخ است که نشان می‌دهد ویدئو توسط هوش مصنوعی ساخته شده است.
    در برچسب‌های شراب این ویدئویی که در ۶ دسامبر ۲۰۲۵ منتشر شد، متن بی‌معنی وجود دارد. این یک سرنخ است که نشان می‌دهد ویدئو توسط هوش مصنوعی ساخته شده است. © X

    اگرچه در نگاه اول این ویدئو واقعی به نظر می‌رسد، اما با دقت بیشتری نگاه کنید، می‌بینید که برچسب‌های شراب و قیمت‌ها به‌صورت متن‌های بی‌معنی نوشته شده‌اند. این نکته واضحی است که نشان می‌دهد هوش مصنوعی برای ساخت این ویدئو استفاده شده است، چرا که هوش مصنوعی هنوز در تولید دقیق متن مشکلاتی دارد.

    سرنخ دیگری که نشان می‌دهد این ویدئو اصیل نیست این است که راهروی نشان‌داده‌شده در ویدئو متفاوت از راهرویی است که در عکس‌های اصیل فروشگاه مشروبات الکلی غارت‌شده منتشر شده در فیسبوک توسط سرویس نجات حیوانات شهرستان هانوور (که راکون مست را در اختیار داشته) ظاهر می‌شود. در فروشگاه واقعی، جعبه‌های کارتریج زیادی در میان بطری‌ها وجود دارد؛ اما این جعبه‌ها در ویدئوی تولید شده توسط هوش مصنوعی اصلاً دیده نمی‌شوند.

    در سمت چپ یک عکس واقعی از فروشگاه است. در سمت راست یک ویدئوی ساخته‌شده توسط هوش مصنوعی است.
    در سمت چپ یک عکس واقعی از فروشگاه است. در سمت راست یک ویدئوی ساخته‌شده توسط هوش مصنوعی است. © سازمان حفاظت و پناهگاه حیوانات شهرستان هانوور، X.

    در واقع فیلم‌های واقعی از دوربین‌های مداربسته فروشگاه وجود دارد. اما این تصاویر به‌قدر ویدئوی جعلی واضح نیستند – اتاق فروشگاه و راهروها به‌نظر شل و نامرتب می‌آیند. علاوه بر این، بخشی از فیلم‌های واقعی به صورت سیاه‌سفید ضبط شده‌اند، در حالی که فیلم تولید شده توسط هوش مصنوعی به رنگ است.

    کلیپ‌های واقعی از فیلم‌های دوربین مداربسته فروشگاه در ۴ دسامبر ۲۰۲۵ منتشر شدند.

    سازمان حفاظت و پناهگاه حیوانات شهرستان هانوور در فیسبوک به‌روزرسانی دربارهٔ راکون دزد ارائه داد.

    «پس از چند ساعت خواب و بدون هیچ نشانه‌ای از آسیب (به‌جز شاید یک خماری و تصمیمات نادرست زندگی)، او به‌طور ایمن به طبیعت بازگردانده شد، امیدواریم که آموخته باشد نفوذ و خرابکاری راه حل نیست.»

    این مقاله از نسخهٔ اصلی به زبان فرانسوی توسط برنا دادلورف ترجمه شده است.

  • Adobe Firefly اکنون از ویرایش ویدئویی مبتنی بر دستورات متنی پشتیبانی می‌کند و مدل‌های شخص ثالث بیشتری اضافه کرده است

    اعتبار تصویر:Adobe

    ادوبی برنامهٔ هوش مصنوعی برای تولید ویدئو، Firefly، را با یک ویرایشگر ویدئویی جدید که از ویرایش‌های دقیق مبتنی بر دستورات متنی پشتیبانی می‌کند، به‌روزرسانی می‌کند و همچنین مدل‌های شخص ثالث جدیدی برای تولید تصویر و ویدئو، از جمله FLUX.2 از Black Forest Labs و Astra از Topaz، اضافه می‌کند.

    تا کنون، Firefly تنها از تولید مبتنی بر دستورات متنی پشتیبانی می‌کرد، بنابراین اگر بخشی از ویدئو دلخواه شما نبود، مجبور بودید کل کلیپ را دوباره بسازید. با ویرایشگر جدید، می‌توانید با استفاده از دستورات متنی، عناصر ویدئو، رنگ‌ها و زاویهٔ دوربین را ویرایش کنید؛ همچنین نمای جدیدی از خط زمان به دست می‌آوریم که به سادگی به شما اجازه می‌دهد فریم‌ها، صداها و سایر ویژگی‌ها را تنظیم کنید.

    شرکت ابتدا ویرایشگر ویدئوی جدید را در اکتبر در نسخهٔ بتای خصوصی اعلام کرد و اکنون آن را برای تمام کاربران منتشر کرده است.

    اعتبار تصویر:Adobe

    شرکت اعلام کرد که با استفاده از مدل Aleph از Runway، کاربران می‌توانند به Firefly دستورات خاصی بدهند، مانند «آسمان را به ابرپوشی تغییر دهید و کنتراست را کم کنید» یا «کمی به موضوع اصلی زوم کنید».

    همچنین با مدل Firefly Video شرکت ادوبی، کاربران می‌توانند کاری مانند بارگذاری یک فریم اولیه و یک ویدئوی مرجع از حرکت دوربین انجام دهند و از آن بخواهند زاویهٔ دوربین را برای ویدئویی که در حال ویرایش هستند، بازسازی کند.

    شرکت همچنین اعلام کرد که کاربران می‌توانند از مدل Astra شرکت Topaz Labs برای ارتقاء وضوح ویدئوها به 1080p یا 4K استفاده کنند. مدل تولید تصویر FLUX.2 از Black Forest Labs نیز به‌زودی به برنامه اضافه می‌شود، به همراه ویژگی تخته‌های تعاملی.

    شرکت گفت که FLUX.2 به‌سرعت در تمام پلتفرم‌های Firefly در دسترس خواهد بود و کاربران Adobe Express از ژانویه می‌توانند از FLUX.2 استفاده کنند.

    اعتبار تصویر:Adobe

    با ارائهٔ مدل‌های جدید توسط رقبا برای تولید تصویر و ویدئو، ادوبی می‌خواهد کاربران را بیشتر به استفاده از برنامهٔ خود ترغیب کند. به‌علاوه با به‌روزرسانی‌های جدید برنامهٔ Firefly، شرکت اعلام کرد که مشترکین پلن‌های Firefly Pro، Firefly Premium، ۷٬۰۰۰ اعتبار و ۵۰٬۰۰۰ اعتبار، تا ۱۵ ژانویه می‌توانند از تولید نامحدود توسط تمام مدل‌های تصویر و مدل ویدئوی Adobe Firefly در برنامهٔ Firefly بهره‌مند شوند.

    ادوبی امسال تغییرات فراوانی در مدل‌ها و برنامه‌های Firefly خود اعمال کرده است. در فوریه، شرکت یک سرویس اشتراک‌گذاری راه‌اندازی کرد که به کاربران امکان دسترسی به سطوح مختلف تولید تصویر و ویدئو را می‌داد؛ سپس برنامهٔ وب جدید Firefly را همراه با برنامه‌های موبایل در ادامهٔ سال عرضه کرد و پشتیبانی از مدل‌های شخص ثالث بیشتری را در برنامهٔ Firefly اضافه کرده است.

    موضوعات: Adobe، Adobe Firefly، هوش مصنوعی، تولید تصویر هوش مصنوعی، مدل‌های ویدئویی هوش مصنوعی، برنامه‌ها