دسته: هوش مصنوعی

  • Wētā FX و AWS ابزارهای هوش مصنوعی برای هنرمندان جلوه‌های بصری توسعه می‌دهند

    این توافق‌نامه به شرکت‌ها اجازه می‌دهد تا سه حوزهٔ خاص را بررسی کنند که در آن‌ها هوش مصنوعی می‌تواند به‌صورت قابل‌اهمیتی کارایی جریان کار جلوه‌های بصری و دوره‌های خلاقانه را بهبود بخشد.

    Wētā FX و Amazon Web Services (AWS) به‌تازگی توافق‌نامه‌ای را اعلام کردند تا توسعه ابزارهای هوش مصنوعی (AI) را بررسی کنند؛ ابزارهایی که با فراهم کردن بازدهی برای هنرمندان، به پرورش و ارتقاء خلاقیت آن‌ها در تمام فرآیند تولید جلوه‌های بصری کمک می‌کند.

    «هوش مصنوعی فرصتی است برای تغییر نحوه ساخت سرگرمی‌های سطح بالا، با استفاده از عوامل سفارشی برای کمک به وظایف مکانیکی»، گفت کیمبال تورستون، مدیر فنی (CTO) در Wētā FX. «ما با AWS همکاری می‌کنیم تا ابزارهایی بسازیم که واسطی نو برای هنرمندان فراهم می‌آورد؛ نه ربات‌های گفتگویی یا دستورات متنی، بلکه قابلیت سازماندهی سیستم‌های هوشمند با واسطی طبیعی و مدیریت پیچیدگی و پیشرفتی که تاکنون ممکن نبوده است. با این‌که کنترل کامل در دست هنرمند باشد، او می‌تواند با بقیه تیم همکاری کند و نسل بعدی داستان‌سرایی برتر را برای سرگرم کردن جهان بسازد.»

    Wētā FX و AWS برنامه دارند تا در سه حوزه‌ای که هوش مصنوعی می‌تواند به‌صورت معنادار کارایی و دوره‌های خلاقانه را بهبود بخشد، بررسی‌های خود را پیش ببرند:

    دستیار هوشمند برای جلوه‌های بصری پیچیده: امروز، خلق داستانی شگفت‌انگیز در یک جهان فتو‑واقع‌گرایانه مستلزم این است که هنرمندان برای هر شات چندین هفته صرف کارهای فنی پیشرفته کنند. این کار شامل به‌دست آوردن دقیق‌تر اجراهای بازیگر، ساخت و انیمیشن موجودات و محیط‌های خارق‌العاده، و اطمینان از ظاهر نهایی بی‌نقص می‌شود. این فرآیندها اغلب به‌دلیل نیاز به تخصص عمیق و مهارت، شامل گام‌های تکراری و زمان‌بر برای مدیریت پیچیدگی ذاتی هستند. Wētā FX و AWS قصد دارند با توسعه جریان‌های کاری مبتنی بر هوش مصنوعی در ابزارهای مبتنی بر هنرمند، امکان تمرکز بیشتر بر جهت‌گیری خلاقانه و نیت هنری را فراهم کنند، در حالی که کنترل کامل هنرمند حفظ می‌شود. برای مثال، ابزارهای یادگیری ماشین موجود که بر حرکت انسان تمرکز دارند، ضربه‌موشی‌های هنرمند را به منحنی‌هایی که نحوه حرکت عضلات را توصیف می‌کند، تبدیل می‌نمایند؛ اما با آموزش یک مدل هوش مصنوعی برای تعمیم ترجمه فیزیک و حرکت به سایر موجودات، می‌توان مجموعه‌ای جدید از ابزارهای تعاملی برای هنرمند ایجاد کرد که امکان کارآمدتر شدن هنرمندان را فراهم می‌سازد، در عین حال واقع‌گرایی لازم برای جذب مخاطب را حفظ می‌کند.

    هوش مصنوعی سفارشی برای چالش‌های جلوه‌های بصری: مدل‌های هوش مصنوعی سنتی از مجموعه داده‌های عمومی استفاده می‌کنند که اغلب فاقد جزئیات مورد نیاز برای کارهای حرفه‌ای جلوه‌های بصری هستند. Wētā FX و AWS برنامه دارند مدل‌های هوش مصنوعی را به‌طور خاص برای رفع چالش‌های منحصر به فرد تولید جلوه‌های بصری توسعه دهند. با بهره‌گیری از دهه‌ها تجربه تولیدی Wētā FX و ابزارهای قدیمی‌اش و قابلیت‌های زیرساختی AWS، این همکاری هدف دارد مدل‌های هوش مصنوعی‌ای بسازد که زبان و نیازهای هنرمندان جلوه‌های بصری را درک کنند، به‌جای آنکه هنرمندان مجبور به سازگار شدن با ابزارهای عمومی شوند. علاوه بر این، آموزش می‌تواند از ابزارهای ارثی برای تولید داده‌های مصنوعی استفاده کند. برای مثال، تیم‌ها می‌توانند با رندر کردن هزاران نسخه از موجودات افسانه‌ای همراه با داده‌های اسکلتی دقیق، یک مدل هوش مصنوعی را آموزش دهند تا حرکت آن‌ها را درک کند؛ یا سیستمی را آموزش دهند تا ساختارهای خراب‌شده را با شبیه‌سازی تخریب در سبک‌های معماری مختلف و تهیه جفت‌های قبل و بعد کامل، پیش‌بینی کند.

    تولید دسترس‌پذیر و پایدار: همزمان با رشد چشمگیر پروژه‌های جلوه‌های بصری، Wētā FX به بررسی روش‌هایی می‌پردازد تا زیرساخت‌های مقیاس‌پذیر محاسباتی AWS را به‌کار گیرد و رویکردهای محاسبه‌ای بهینه و جریان‌های کاری کارآمدی را فراهم کند که قابلیت‌های پیشرفته‌ی مبتنی بر هوش مصنوعی را برای تولیدات هر اندازه‌ای در دسترس بگذارد، در عین کاهش مصرف منابع کلی. این می‌تواند شامل توسعه مدل‌های هوش مصنوعی کوچکتر و کارآمدتر باشد که همچنان توانایی تعمیم قوی را داشته باشند. با پشتیبانی هوش مصنوعی از اجرای فنی، می‌توان دوره‌های تکرار خلاقانه را از روزها به ساعت‌ها تسریع کرد.

    «فیلمسازان برتر جهان برای به‌دست آوردن جلوه‌های بصری نمادین و شگفت‌انگیز، از میدان‌های نبرد مید‑ارث در ارباب حلقه‌ها تا جنگل‌های بایولومنسانت پاندورا در آواتار، به Wētā FX روی می‌آورند»، گفت دانیل سیاه، مدیرعامل Wētā FX. «ما این کار را به‌مدت سی سال با اطمینان از داشتن نوآورانه‌ترین ابزارها برای هنرمندانمان انجام داده‌ایم، تا بهترین مسیر را برای هر چالش خلاقانه پیش بگیریم. با همکاری AWS، ما هوش مصنوعی را با هدف تقویت کار هنرمندانمان می‌پذیریم، به‌طوری که آن‌ها خلاق‌تر باشند. ما معتقدیم که فناوری هوش مصنوعی باید خلاقیت و نیت انسانی را تقویت کند و با AWS متعهد به بررسی و توسعه این امر هستیم.»

    «AWS نزدیک به دو دهه است که نوآوری در حوزه رسانه و سرگرمی را با قدرت می‌پذیرد، و این توافقنامه نمایانگر گامی هیجان‌انگیز برای بررسی و توسعه جریان‌های کاری هوش مصنوعی و خدماتی است که می‌توانند صنعت جلوه‌های بصری را متحول سازند»، گفت نینا والش، رهبر جهانی توسعه کسب‌وکار صنایع رسانه، سرگرمی، بازی‌ها و ورزش. «دیدگاه Wētā FX درباره توانمندسازی هنرمندان برجسته برای بهتر شدن است؛ با خلق هوش مصنوعی اختصاصی که با جریان کاری خلاقانه آن‌ها سازگار باشد. این دقیقاً همان نوآوری است که ما می‌خواهیم با زیرساخت‌های AWS و سرویس‌های هوش مصنوعی‌مان ممکن سازیم.»

    منبع: Wētā FX

  • تیم کوک عاشق سامسونگ گالکسی S25: کلیپ طنزآمیز هوش مصنوعی به سرعت در میان می‌گیرد

    دپ‌فیک ویروسی نشان می‌دهد تیم کوک طرفدار سامسونگ گالکسی S25 Ultra است. (منبع تصویر: X، نوآ کات، @Cartidise، اسکرین‌شات)
    دپ‌فیک ویروسی نشان می‌دهد تیم کوک طرفدار سامسونگ گالکسی S25 Ultra است. (منبع تصویر: X، نوآ کات، @Cartidise، اسکرین‌شات)

    تیم کوک به‌عنوان طرفدار سامسونگ؟ کلیپ ویروسی نشان می‌دهد مدیرعامل اپل با سامسونگ گالکسی S25 Ultra همراه است و به «BugOS» طعنه می‌زند. اگرچه این یک دپ‌فیک است، اما این ویدئوی کوتاه همچنان خنده‌ها و شگفتی‌های فراوانی را نسبت به فناوری هوش مصنوعی که هر روز پیشرفت می‌کند، برانگیخته است.

    ویدئوی تولیدشده توسط هوش مصنوعی که تیم کوک را به‌عنوان طرفدار سامسونگ در پلتفرم X به نمایش می‌گذارد، هم‌اکنون به‌صورت ویروسی منتشر شده و حدود ۳۰۰٬۰۰۰ بار مشاهده شده است. این کلیپ مدیرعامل اپل را در غرفه سامسونگ نشان می‌دهد که گالکسی S25 Ultra جدید را در دست گرفته و مشتاقانه بر روی آن ضربه می‌زند. او به‌صورت خشک می‌گوید نرم‌افزار این دستگاه بهتر از «BugOS 26» به نظر می‌رسد. در پایان با تعجب می‌گوید «OMG».

    طبیعتاً این واقعی نیست. هوش مصنوعی بسیار قدرتمندی در این کار نقش داشته است. ابزارهایی مانند Google Veo، Nano Banana Pro، OpenAI Sora یا Kling AI احتمالاً در ساخت آن مشارکت داشته‌اند. نوآ کات می‌نویسد: «از Nano Banana Pro خواستم تصویری از تیم کوک در حال استفاده از گالکسی S25 Ultra تولید کند». اما نتیجه به‌وضوح خجالت‌آور است. کیفیت این کلیپ کوتاه نشان می‌دهد که به نقطه‌ای رسیده‌ایم که دیگر نمی‌توانید به چشمان خود اعتماد کنید؛ به‌ویژه وقتی که «به‌سرعت و به‌صورت سرسری نگاهی به آن می‌اندازید».

    جزئیات فوق‌العاده‌اند. به‌ویژه با توجه به سرعت چشمگیری که فناوری‌های هوش مصنوعی ویدئویی در چند سال اخیر بهبود یافته‌اند. صدا شبیه به صدای کوک است؛ لحن آرام و کمی یکنواخت به‌خوبی بازسازی شده است. از نظر بصری تقریباً همه چیز دقیق است؛ نور به‌طور واقع‌گرایانه در عینک او منعکس می‌شود و سر تکان دادن طبیعی به‌نظر می‌رسد. تنها در نگاه دقیق می‌توانید تقلب را تشخیص دهید؛ سایه‌های صورت او ۱۰۰٪ دقیق نیستند و حرکات دست کمی مکانیکی به‌نظر می‌رسند. این‌ها ضعف‌های معمول در نسل‌سازهای ویدئوی هوش مصنوعی امروز هستند.

    این شوخی به‌دلیل «BugOS» مؤثر است؛ اصطلاحی که مخالفان برای اشاره به سیستم‌عامل iOS اپل هنگام لگ یا سقوط پس از بروز رسانی به کار می‌برند. این که خود تیم کوک این واژه را به‌کار می‌برد، کلیپ را به تمسخر کاملی تبدیل کرده است. با این حال، طعم ناخوشایندی از این ماجرا باقی می‌ماند. اگر محتوای ویدئو این‌چنین غیرمنطقی نبود، بسیاری احتمالاً آن را به‌عنوان واقعی می‌پذیرفتند. مرز بین واقعیت و تقلب روزبه‌روز تارتر می‌شود. در قسمت نظرات کاربران، این کلیپ همچنان به‌عنوان کشف برتر هفته جشن گرفته می‌شود؛ برخی نیز به‌سر و صدا می‌گویند که تیم کوک به‌صورت مخفیانه به نمایشگرهای گوشی‌های رقیب حسادت می‌کند.

    منابع

    نوآ کات @Cartidise

  • سایبر ماندی 2025 تمام توان خود را به هوش مصنوعی اختصاص می‌دهد — و تخفیف‌های بزرگ

    نوشته کلی تی‌کو

    تصویر یک کیف خرید همراه با آیکون دست، نشان‌دهنده تقاطع تجارت دیجیتال و دنیای واقعی

    تصویر: Rebecca Zisser/Axios

    فروشندگان در سایبر ماندی 2025 با تخفیف‌ها و هجوم ابزارهای خرید مبتنی بر هوش مصنوعی به بازار می‌پردازند — همه برای این‌که مصرف‌کنندگان با بودجه محدود، در طول آخر هفته جمعه سیاه، همچنان کلیک کنند.

    چرا مهم است: امسال، این تعطیلات خرید کمتر درباره «تخفیف‌های فقط آنلاین» است و بیشتر حول کشف هدایا با کمک هوش مصنوعی می‌چرخد — تغییری که متخصصان می‌گویند روش کشف محصولات توسط خریداران را متحول می‌کند.

    • «مصرف‌کنندگانی که در سایبر ماندی به‌صورت تعطیلاتی خرید می‌کنند، محصولاتی برای دیگران کشف می‌کنند که خارج از رفتاری است که معمولاً خرید می‌کنند»، مایک او‌دونل، معاون ارشد نوآوری و تحول تجاری در Flywheel، به Axios گفت.
    • «این فرایند کشف، که به‌طور تاریخی ممکن بود از گوگل یا جستجو در سایت‌های فروشندگان آغاز شود، اکنون با ورود ابزارهای هوش مصنوعی مولد مانند ChatGPT و Rufus آمازون مختل شده است»، او‌دونل افزود.

    تخفیف‌های سایبر ماندی 2025

    وضعیت فعلی: تخفیفات سایبر ماندی از جمعه زودتر آغاز می‌شوند و تا شب دوشنبه افزایش می‌یابند.

    • بسیاری از پیشنهادها همچنان فقط آنلاین هستند، اما فروشندگان به‌طور فزاینده‌ای تجربه‌های اپلیکیشنی، جوایز وفاداری و فروشندگان بازار را ترکیب می‌کنند تا دامنه دسترسی خود را گسترش دهند.

    در ادامه جزئیات تخفیفات اصلی فروشندگان در سایبر ماندی آمده است.

    تخفیفات سایبر ماندی 2025 آمازون

    هفته جمعه سیاه آمازون و رویداد سایبر ماندی از 20 نوامبر آغاز شد و تا 1 دسامبر ادامه دارد، که به‌عنوان یکی از طولانی‌ترین بازه تخفیفی مستمر این غول خرده‌فروشی در نظر گرفته می‌شود.

    • این غول تجارت الکترونیکی در یک فصل خرید تعطیلاتی طولانی‌تر سرمایه‌گذاری می‌کند، زیرا مصرف‌کنندگان خسته از تورم به دنبال تخفیف‌های زودتر می‌گردند.
    • دوره بازگشت کالاهای تعطیلاتی تا 31 ژانویه 2026 تمدید شده است.

    تخفیفات سایبر ماندی 2025 Best Buy

    Best Buy فروش خود را به‌نام «یکشنبه و دوشنبه سایبری» با تخفیف‌های حداکثر ۵۰٪ برای محصولات معرفی کرده است.

    تخفیفات روزهای سایبری کولز 2025

    روزهای سایبری کولز برای دو روز — یکشنبه و دوشنبه — بازگشته‌اند و خریداران می‌توانند برای هر ۵۰ دلار هزینه، ۱۵ دلار اعتبار کولز‌کش دریافت کنند.

    • فروش در ساعت ۱:۰۱ ب.ظ به وقت ET روز یکشنبه آغاز می‌شود و تخفیف‌ها به‌صورت آنلاین و در فروشگاه‌ها در دسترس خواهند بود، به گفته کولز. همچنین تخفیف‌هایی برای سِفورا در کولز ارائه می‌شود.
    • این خرده‌فروش همچنین مسابقه «Kohl’s Holiday Quest» را تا کریسمس برگزار می‌کند که جوایز روزانه و یک جایزه بزرگ ۱۰۰ 000 دلاری دارد.

    تخفیفات سایبر ماندی 2025 تارگت

    تارگت این سایبر ماندی را به‌عنوان یک رویداد خرید پیشرفته تکنولوژیک معرفی می‌کند و ویژگی‌های جدید هوش مصنوعی را بر برخی از عمیق‌ترین تخفیف‌های این فصل می‌چسباند.

    • این خرده‌فروش می‌گوید که خریداران اکنون می‌توانند تجربه کامل خرید از تارگت را مستقیماً در ChatGPT تکمیل کنند — تبدیل خرید تعطیلاتی به «تجربه‌ای سفارشی و گفت‌وگو‌گونه».
    • تخفیف‌ها — با تخفیف‌های حداکثر ۶۰٪ برای هزاران کالا — از ساعت ۳ ب.ظ به وقت ET روز یکشنبه، 30 نوامبر، آغاز می‌شود و تا دوشنبه، 1 دسامبر ادامه دارد، «فقط در Target.com و اپلیکیشن تارگت با برخی از پیشنهادهای موجود در فروشگاه‌ها».

    تخفیفات سایبر ماندی 2025 والمارت

    فروش جمعه سیاه والمارت تا روز یکشنبه در فروشگاه‌ها و به‌صورت آنلاین ادامه دارد.

    • اعضای Walmart+ دسترسی زودتر به تخفیفات سایبر ماندی را از ساعت ۷ ب.ظ به وقت ET روز یکشنبه، 30 نوامبر، برای فروش آنلاین دریافت می‌کنند — پنج ساعت قبل از آغاز فروش برای تمام خریداران در ساعت ۱۲:۰۱ ب.ظ به وقت ET روز دوشنبه، 1 دسامبر.
    • والمارت برخی از تخفیفات سایبر ماندی خود را در یک اطلاعیه خبری پیش‌نمایش داد.

    بازگشت فروش کارت هدیه تارگت

    آینده چه دارد: یکی از محبوب‌ترین تخفیف‌های تعطیلاتی تارگت، تخفیف نادر بر کارت‌های هدیه، برای دو روز 6 تا 7 دسامبر باز می‌گردد.

    • با خرید کارت هدیه فروشگاهی تا سقف 500 دلار، 10٪ تخفیف دریافت کنید؛ این تخفیف از طریق برنامه وفاداری Target Circle ارائه می‌شود — حداکثر صرفه‌جویی 50 دلار.
    • مستثنیات وجود دارد و این پیشنهاد هم در فروشگاه و هم به‌صورت آنلاین قابل استفاده است.

    نکته قابل ذکر: تارگت به Axios اعلام کرد که در سال گذشته خریداران 6 میلیون کارت هدیه فروشگاهی در این تخفیف خریدند.

  • پالسی سئو: ChatGPT قابلیت خرید را اضافه می‌کند & عوامل مؤثر بر ارجاع‌های هوش مصنوعی

    پالسی سئو این هفته به بررسی داده‌های جدیدی می‌پردازد که عوامل مؤثر بر ارجاع‌های هوش مصنوعی را شناسایی می‌کند، به‌علاوه اینکه ChatGPT تحقیق خرید را راه‌اندازی کرده است. این خلاصهٔ سریع برای آنچه متخصصان باید بدانند.

    پالسی سئو: ChatGPT قابلیت خرید را اضافه می‌کند & عوامل مؤثر بر ارجاع‌های هوش مصنوعی

    به پالسی این هفته خوش آمدید: به‌روزرسانی‌ها نحوهٔ کشف محصول را تحت‌تأثیر قرار می‌دهند، عواملی را که دیده‌شدگی در ChatGPT را شکل می‌دهند و تأثیر دارایی‌های پس‌زمینه بر Core Web Vitals را بررسی می‌کنند.

    OpenAI تحقیق خرید را در ChatGPT راه‌اندازی کرد، SE Ranking بزرگ‌ترین مطالعه تاکنون دربارهٔ عوامل ارجاع در ChatGPT را منتشر کرد و جان مولر، نمایندهٔ جستجوی Google، توضیح داد که بارگذاری ویدئوی پس‌زمینه تأثیری بر سئو نخواهد داشت اگر ابتدا محتوای صفحه بارگذاری شود.

    در ادامه، نکات مهمی که برای شما و کارتان اهمیت دارد را مرور می‌کنیم.

    ChatGPT تحقیق خرید را برای تمام کاربران راه‌اندازی می‌کند

    OpenAI در تاریخ ۲۴ نوامبر تحقیق خرید را در ChatGPT منتشر کرد و راهنمای خرید شخصی‌سازی‌شده را برای تمام کاربران وارد شده در طرح‌های Free، Go، Plus و Pro در دسترس قرار داد.

    این ویژگی با پاسخ‌های استاندارد ChatGPT متفاوت عمل می‌کند. کاربران نیازهای خود را توصیف می‌کنند، به سؤالات شفاف‌ساز دربارهٔ بودجه و ترجیحات پاسخ می‌دهند و پس از چند دقیقهٔ تحقیق، راهنمای خرید جامعی دریافت می‌کنند.

    نکات کلیدی: با GPT‑5 mini قدرت‌پذیر است. استفاده تقریباً نامحدود در طول تعطیلات امکان‌پذیر است. فروشندگان می‌توانند درخواست حضور خود را از طریق فرآیند لیست سفید OpenAI ارائه دهند.

    چرا سئوکاران باید به این موضوع توجه کنند

    تحقیق خرید قسمت بیشتری از مسیر مقایسه محصول را داخل ChatGPT قبل از کلیک کاربران به سایت‌های فروشنده می‌کشد. این تغییر مکان کشف محصول در مسیر فروش را دگرگون می‌کند.

    جستجوی سنتی کاربران را به سایت‌های مقایسه، صفحات فروشگاهی و پلتفرم‌های نقد و بررسی می‌فرستاد تا لیست کوتاهی بسازند. تحقیق خرید این کار را داخل رابط چت انجام می‌دهد، سؤالات واضح‌ساز می‌پرسد و بر اساس محدودیت‌هایی مثل بودجه، ویژگی‌ها و کاربرد موردنظر، پیشنهادات محصول را نمایش می‌دهد.

    کریستال کارتر، سرپرست جستجوی هوش مصنوعی و ارتباطات سئو در Wix، در یک پست لینکدین به تأثیرات شخصی‌سازی اشاره کرد:

    اطمینان حاصل کنید که تمایلات برند شما و جوامع مرتبط به‌وضوح در وب‌سایت شما، اسناد پشتیبانی، سؤالات متداول (FAQ) بیان شده‌اند و اقدام به دریافت ارجاع از سایت‌های دیگر کنید، زیرا برای برخی از مشتریان، این موارد می‌تواند تعیین‌کنندهٔ موفقیت یا شکست باشد و در مدل‌های خود گنجانده می‌شود.

    آزمون‌های او نشان داد که ChatGPT به کاربران با ترجیحات پروفایل متفاوت، توصیه‌های رستورانی متفاوتی ارائه می‌دهد و از پروفایل‌های تجاری گوگل و سایر منابع برای مطابقت با تمایلات اعلام‌شده استفاده می‌کند.

    برای خرده‌فروشان و ناشران وابسته، قابل‌مشاهده بودن اکنون تا حدودی به نحوهٔ نمایش محصولات و صفحات در سیستم خرید OpenAI بستگی دارد. فرآیند لیست سفید یعنی فروشندگان باید به‌صورت فعال درخواست حضور کنند و دیگر به‌تنهایی به خزش ارگانیک تکیه نداشته باشند.

    مطالعه کامل ما را بخوانید: افزودن تحقیق خرید توسط ChatGPT برای کشف محصول

    مطالعه ۲۰ عامل برتر مؤثر بر ارجاع‌های ChatGPT را آشکار می‌کند

    SE Ranking 129٬000 دامنهٔ یکتا را در 216٬524 صفحه در ۲۰ حوزه مختلف تحلیل کرد تا عوامل مرتبط با ارجاع‌های ChatGPT را شناسایی کند.

    دامنه‌های ارجاع‌دهنده به‌عنوان قوی‌ترین پیش‌بین تک‌بعدی شناخته شدند. سایت‌هایی با حداکثر ۲٬۵۰۰ دامنهٔ ارجاع‌دهنده به‌طور متوسط ۱٫۶ تا ۱٫۸ ارجاع داشتند، در حالی که سایت‌هایی با بیش از ۳۵۰٬۰۰۰ دامنهٔ ارجاع‌دهنده به‌صورت متوسط ۸٫۴ ارجاع داشتند.

    نکات کلیدی: ترافیک دامنه فقط وقتی مؤثر است که بیش از ۱۹۰٬۰۰۰ بازدیدکنندهٔ ماهانه داشته باشد. محتوای بیش از ۲٬۹۰۰ کلمه به‌صورت متوسط ۵٫۱ ارجاع دارد در مقابل ۳٫۲ برای مقالات زیر ۸۰۰ کلمه. صفحاتی که ۱۹ یا بیشتر نقطهٔ داده دارند به‌طور متوسط ۵٫۴ ارجاع دارند.

    چرا سئوکاران باید به این موضوع توجه کنند

    این مطالعه نشان می‌دهد که اصول پایه‌ای سئو سنتی همچنان با احتمال ارجاع هوش مصنوعی سازگار هستند، اما آستانه‌ها بیش از بهبودهای تدریجی اهمیت دارند. سایتی با ۲۰٬۰۰۰ بازدید ماهانه عملکردی مشابه سایت با ۲۰۰ بازدید ماهانه دارد، اما عبور از ۱۹۰٬۰۰۰ بازدید ماهانه نرخ ارجاع را دو برابر می‌کند.

    این مسأله اولویت‌های بهینه‌سازی متفاوتی نسبت به جستجوی سنتی ایجاد می‌کند. ارتقای ترافیک از صفر به سطح متوسط بهبود دیده‌شدگی در ChatGPT نمی‌دهد، اما ارتقای از متوسط به بالا بهبود می‌بخشد. الگو برای دامنه‌های ارجاع‌دهنده نیز مشابه است که جهش در عدد ۳۲٬۰۰۰ دامنه رخ می‌دهد.

    مانیدورگا BLL، دانشجوی فناوری اطلاعات که تحقیق را تجزیه و تحلیل کرد، تبعات را در یک پست لینکدین همراه با ویدئوی توضیحی شرح داد:

    انقلاب هوش مصنوعی تنها شیوهٔ جستجوی ما را تغییر نمی‌دهد؛ بلکه کتاب راهنمای کامل اقتدار دیجیتال را بازنویسی می‌کند. برای ما دانشجویان فناوری و توسعه‌دهندگان آینده، این به معنای بازنگری استراتژی محتوا از روز اول است. ساختن اعتبار دامنه دیگر فقط دربارهٔ گوگل نیست؛ بلکه در مورد آموزش به سیستم‌های هوش مصنوعی برای اعتماد و ارجاع به کار شماست.

    این پست شامل یک مرور ویدئویی دقیق از یافته‌های تحقیق است که نشان می‌دهد حضور فعال در Quora و Reddit با ۷ تا ۸ ارجاع هم‌بستگی دارد، در حالی که فهرست‌گذاری در پلتفرم‌های نقد و بررسی به‌صورت متوسط ۴ تا ۶ ارجاع را به‌دست می‌آورد.

    تحقیق همچنین نشان داد که دامنه‌های .gov و .edu به‌صورت خودکار از سایت‌های تجاری پیشی نمی‌گیرند، اگرچه این فرض رایج است. آنچه مهم است کیفیت محتوا و اعتبار دامنه است، نه پسوند دامنه.

    مطالعه کامل ما را بخوانید: داده‌های جدید ۲۰ عامل برتر مؤثر بر ارجاع‌های ChatGPT را آشکار می‌کند

    مولر: بارگذاری ویدئوی پس‌زمینه به‌احتمال کم بر سئو تأثیر می‌گذارد

    جان مولر، نمایندهٔ جستجوی گوگل، اعلام کرد که فایل‌های ویدیویی بزرگ که به‌صورت پس‌زمینه بارگذاری می‌شوند، به‌احتمال کم تأثیر قابل‌توجهی بر سئو دارند، به شرطی که محتوای صفحه ابتدا بارگذاری شود.

    یکی از صاحب‌سایت‌ها در Reddit پرسید که آیا ویدیوی ۱۰۰ مگابایتی، اگر صفحه ابتدا بارگذاری تصویر قهرمان و محتوا را در اولویت داشته باشد و سپس ویدئو به‌صورت پس‌زمینه ادامه بارگذاری دهد، سئو را تحت‌تاثیر قرار می‌دهد؟ مولر پاسخ داد که انتظار اثر قابل‌توجهی بر سئو ندارد.

    نکات کلیدی: استفاده از preload="none" در عناصر ویدئو باعث می‌شود مرورگرها تا زمان نیاز، داده‌های ویدئو را دانلود نکنند. معیارهای Core Web Vitals باید اطمینان دهند که پیاده‌سازی با آستانه‌های عملکردی مطابقت دارد.

    چرا سئوکاران باید به این موضوع توجه کنند

    این سؤال به یک نگرانی رایج برای سایت‌های استفاده کننده از ویدئوی قهرمان بزرگ یا پس‌زمینه‌های انیمیشنی می‌پردازد. صاحبان سایت‌ها به‌دلیل نگرانی‌های عملکرد، از ویدئوی پس‌زمینه اجتناب کرده‌اند، اما راهنمایی‌های مولر روشن می‌کند که پیاده‌سازی صحیح مشکلی برای سئو ایجاد نخواهد کرد.

    کلید این است که ترتیب بارگذاری به‌درستی تنظیم شود. اگر صفحه تصویر قهرمان، متن و ناوبری را فوراً نمایش دهد در حالی که ویدئوی ۱۰۰ مگابایتی به‌صورت پس‌زمینه بارگذاری می‌شود، کاربران تجربهٔ سریعی خواهند داشت و موتورهای جستجو محتوا را به‌سرعت می‌بینند.

    در رشتهٔ Reddit بحثی دربارهٔ این راهنمایی مطرح شد؛ یکی از نظردهندگان تأکید کرد که پاسخ مولر با نگرانی‌ها دربارهٔ رقابت شبکه‌ای برای منابع بحرانی در تضاد است. WebLinkr، یکی از میانبرهای r/SEO، موضع مولر را دفاع کرد و اشاره کرد که توسعه‌دهندگان وب گاهی تأثیر عوامل سرعت صفحه بر سئو را بیش از حد بزرگ می‌نمایند.

    این مسئله محاسبهٔ تصمیم‌گیری برای سایت‌های در حال بررسی استفاده از ویدئوی پس‌زمینه را تغییر می‌دهد. اکنون تصمیم‌گیری بر تجربهٔ کاربری و هزینهٔ پهنای باند متمرکز است نه بر مجازات‌های سئو.

    پیاده‌سازی فنی همچنان مهم است. استفاده از preload="none" در عناصر ویدئو باعث می‌شود مرورگر به‌صورت پیش‌بینی‌شده داده‌های ویدئو را دانلود نکند و پهنای باند برای کاربرانی که هرگز ویدئو را پخش نمی‌کنند صرفه‌جویی شود.

    مطالعه کامل ما را بخوانید: مولر: بارگذاری ویدئوی پس‌زمینه به‌احتمال کم بر سئو تأثیر می‌گذارد

    تم هفته: کشف به‌سوی بالاتر حرکت می‌کند

    هر داستان این هفته نشان می‌دهد که کشف محصول زودتر در مسیر اتفاق می‌افتد.

    تحقیق خرید ChatGPT مقایسهٔ محصول را پیش از دسترسی کاربران به سایت‌های فروشنده انجام می‌دهد. مطالعهٔ SE Ranking نشان می‌دهد چه عواملی به‌صورت مقیاسی اعتبار ارجاع را می‌سازند، نه به‌صورت گام‌به‌گام. راهنمای ویدئویی مولر مانعی فنی را که مانع استفاده سایت‌ها از مدیاهای غنی می‌شد، حذف می‌کند.

    در مجموع، این هفته دربارهٔ نقطه‌ای است که تصمیم‌گیری‌ها به‌درستی شکل می‌گیرند، پیش از آنکه کسی حتی یک پرسش در گوگل وارد کند.

    برترین داستان‌های هفته:

    • ChatGPT تحقیق خرید را برای کشف محصول اضافه می‌کند
    • داده‌های جدید ۲۰ عامل برتر مؤثر بر ارجاع‌های ChatGPT را آشکار می‌کند
    • مولر: بارگذاری ویدئوی پس‌زمینه به‌احتمال کم بر سئو تأثیر می‌گذارد

    منابع بیشتر:

    • ChatGPT vs. Gemini vs. Claude: تفاوت‌ها چیست؟
    • چگونه افراد از ChatGPT استفاده می‌کنند و برای C‑Suite چه معنایی دارد؟
    • دوران جستجوی قدیمی گوگل به‌پایان رسیده – این‌جا نگاهی به سئو واقعی در سال ۲۰۲۶ است

    تصویر ویژه: Pixel‑Shot/Shutterstock

  • نرخ‌های پذیرش هوش مصنوعی شروع به هموار شدن کرده‌اند

    تورستن اسلوک

    اقتصاددان ارشد Apollo

    داده‌های به‌دست آمده از دفتر سرشماری و ریمپ نشان می‌دهند که نرخ پذیرش هوش مصنوعی در تمام مقیاس‌های شرکت‌ها شروع به هموار شدن کرده است؛ نمودارهای زیر را ملاحظه کنید.

    نرخ پذیرش هوش مصنوعی در تمام مقیاس‌های شرکت‌ها
    توجه: داده‌ها به‌صورت میانگین متحرک شش نظرسنجی محاسبه شده‌اند. نظرسنجی هر دو هفته یک‌بار انجام می‌شود. منابع: دفتر سرشماری ایالات متحده، ماکروبند، اقتصاددان ارشد Apollo
    نرخ پذیرش هوش مصنوعی در تمام مقیاس‌های شرکت‌ها
    توجه: شاخص Ramp Al نرخ پذیرش محصولات و خدمات هوش مصنوعی را در میان کسب‌وکارهای آمریکایی اندازه‌گیری می‌کند. این نمونه شامل بیش از ۴۰٬۰۰۰ کسب‌وکار آمریکایی و میلیاردها دلار هزینه‌کرد شرکتی است که از داده‌های کارت شرکتی و سامانه پرداخت فاکتورهای Ramp استخراج شده‌اند. منابع: Ramp، بلومبرگ، ماکروبند، اقتصاددان ارشد Apollo

    نمودارهای با وضوح بالا را دانلود کنید

    این ارائه بدون رضایت صریح Apollo Global Management, Inc. (به‌همراه زیرمجموعه‌های آن، «Apollo») به‌صورت کامل یا جزئی توزیع، انتقال یا به هر شکل دیگری به دیگران منتشر یا منتقل نخواهد شد.

    Apollo هیچ نمایندگی یا ضمانتی، صریح یا ضمنی، نسبت به دقت، معقولیت یا کامل بودن هر یک از اظهارات ارائه‌شده در این ارائه، از جمله اما نه محدود به اظهارات به‌دست‌آمده از طرف‌های ثالث، ارائه نمی‌کند. نظرات، برآوردها و پیش‌بینی‌ها بر پایه قضاوت جاری گوینده در تاریخ ذکرشده است. این موارد لزوماً بازتاب دیدگاه‌ها و نظرات Apollo نیستند و ممکن است در هر زمان بدون اطلاع قبلی تغییر کنند. Apollo مسئول به‌روزرسانی این ارائه برای انعکاس چنین تغییراتی نیست. هیچ تضمینی وجود ندارد که روندهای مطرح‌شده در این ارائه ادامه یابند.

    اظهارات مطرح‌شده در این ارائه برای ارائه مشاوره حسابداری، حقوقی یا مالیاتی نیستند و نباید برای این مقاصد مورد استناد قرار گیرند؛ همچنین این اظهارات به‌عنوان توصیه یا مشاوره سرمایه‌گذاری محسوب نمی‌شوند. سرمایه‌گذاران باید به‌صورت مستقل اطلاعات مطرح‌شده در این ارائه را بررسی کرده و در صورت لزوم با مشاوران مالیاتی، حقوقی، حسابداری یا سایر مشاوران خود مشورت نمایند. Apollo به‌نام شما عمل نمی‌کند و مسئول ارائه حفاظت‌های مشابه به مشتریان خود نیست. این ارائه به‌عنوان پیشنهاد برای فروش یا دعوت به خرید هر گونه اوراق بهادار، محصول یا خدمات، از جمله علاقه‌مندی به هر محصول سرمایه‌گذاری یا صندوق یا حسابی که توسط Apollo مدیریت یا مشاوره می‌شود، محسوب نمی‌شود.

    برخی از اظهارات موجود در این ارائه ممکن است به‌صورت «آینده‌نگر» باشند. به‌دلیل ریسک‌ها و عدم‌قطعیت‌های مختلف، نتایج یا رویدادهای واقعی ممکن است به‌طور قابل‌توجهی متفاوت از آنچه در این اطلاعات آینده‌نگر پیش‌بینی یا تصور شده است، باشد. بنابراین، نباید به‌طور افراطی به چنین اظهاراتی تکیه کرد. اظهارات آینده‌نگر معمولاً با استفاده از اصطلاحاتی نظیر «ممکن است»، «خواهد»، «باید»، «انتظار دارد»، «پیش‌بینی می‌کند»، «هدف»، «پروژه»، «برآورد»، «نیت دارد»، «ادامه می‌دهد» یا «باور دارد» و یا شکل‌های منفی و تغییرات مشابه شناخته می‌شوند.

  • حاکمیت هوش مصنوعی در جنوب شرقی آسیا 2025

    گزارش حاکمیت هوش مصنوعی USABC 2025

    حاکمیت هوش مصنوعی در جنوب شرقی آسیا 2025 – ۳۲٫۵۸ مگابایت – دانلود

  • تمام اتفاقات بدی که می‌تواند هنگام تولید یک ویدیو سُرا برای شما رخ دهد

    سرگرم‌کننده است که با هوش مصنوعی پیشرفته بازی کنید. این‌جا دلایلی وجود دارد که شاید هنوز هم نباید این کار را انجام دهید.

    تصویر تولید شده توسط هوش مصنوعی از نویسنده
    تصویر تولید شده توسط هوش مصنوعی از نویسنده © سُرا

    به محض اینکه فرصتی پیدا شد، برنامه سُرا را دانلود کردم. عکس‌های چهره‌ام — چهره‌ای که بچه‌هایم هنگام خواب می‌بوسند — و صدایم — صدایی که برای گفتن «دوستت دارم» به همسرم استفاده می‌کنم — به پروفایل سُرا بارگذاری کردم. تمام این کارها را انجام دادم تا بتوانم از ویژگی «Cameo» سُرا استفاده کنم و یک ویدیو احمقانه بسازم که نسخه هوش مصنوعی خودم را تحت شلیک توپ‌های رنگی صد نفر سالمند ساکن یک خانه سالمندان نشان می‌دهد.

    چه کاری انجام دادم؟ برنامه سُرا توسط سُرا ۲، یک مدل هوش مصنوعی — و صادقانه بگویم، شگفت‌انگیز — قوا می‌گیرد. این مدل می‌تواند ویدیوهایی بسازد که می‌توان آنها را از سطح ساده‌لوحانه تا کاملاً شیطانی دسته‌بندی کرد. این یک سیاهچاله از انرژی و داده است و همچنین توزیع‌کننده‌ای از محتوای بسیار مشکوک می‌باشد. همانند بسیاری از چیزهای امروزی، استفاده از سُرا حس کمی «گناه‌آلود» به آدم می‌دهد، حتی اگر دقیقاً ندانید چرا.

    پس اگر تازه یک ویدیو سُرا تولید کرده‌اید، این تمام اخبار بد برایتان است. با خواندن این متن، خود را برای احساس کمی گناه‌پذیری و نادیده‌گیری دعوت می‌کنید، و آرزوی شما برای من دستورات است.

    مقداری از برق که به‌تازگی مصرف کردید

    بر اساس گزارش CNET، یک ویدیوی سُرا حدود ۹۰ وات‑ساعت برق مصرف می‌کند. این عدد یک تخمین علمی است که از مطالعه‌ای درباره مصرف انرژی کارت‌های گرافیکی توسط Hugging Face استخراج شده است.

    OpenAI هنوز ارقامی را که برای این مطالعه لازم است، منتشر نکرده و ردپای انرژی سُرا باید از مدل‌های مشابه استنتاج شود. ساشا لوسیونی، یکی از پژوهشگران Hugging Face که این کار را انجام داد، خوشحال نیست از تخمین‌های مشابه به‌ویژه تخمینی که در بالا ذکر شد. او در مصاحبه‌ای با MIT Technology Review گفت: «باید از تلاش برای مهندسی معکوس اعداد بر پایه شایعات دست بکشیم» و بر این نکته تأکید کرد که باید شرکت‌هایی مثل OpenAI را به انتشار داده‌های دقیق ترغیب کنیم.

    به هر حال، روزنامه‌نگاران مختلف بر پایه داده‌های Hugging Face تخمین‌های متفاوتی ارائه داده‌اند. برای مثال، وال استریت جورنال تخمین زده است که مصرف بین ۲۰ تا ۱۰۰ وات‑ساعت باشد.

    CNET تخمین خود را به‌صورت مقایسه یک تلویزیون ۶۵ اینچی که به مدت ۳۷ دقیقه روشن است، تشبیه می‌کند. وال استریت جورنال تولید یک ویدیو سُرا را به پختن یک استیک از حالت خام تا نیم‌پز روی یک گریل برقی بیرون از خانه (چون به‌نظر می‌رسد چنین دستگاهی وجود دارد) مقایسه می‌کند.

    ارزش دارد چند نکته دربارهٔ مصرف انرژی این موضوع را واضح کنیم تا احساس شما را حتی بدتر کنیم. ابتدا، آنچه که من توضیح دادم صرف هزینهٔ انرژی در فرآیند استنتاج است که به‌عنوان اجرای مدل در پاسخ به یک درخواست (پرومپت) نیز شناخته می‌شود. آموزش واقعی مدل سُرا به مقدار نامعلومی از برق، البته قطعا عظیم، نیاز داشته است. مدل زبان بزرگ GPT‑4 تخمین زده می‌شود حدود ۵۰ گیگاوات‑ساعت انرژی مصرف کرده باشد — که به‌نقض گفته شده قادر به تأمین برق سانفرانسیس برای ۷۲ ساعت است. سُرا، به‌عنوان یک مدل ویدئویی، بیش از آن مقدار انرژی مصرف کرده، ولی چقدر بیشتر است نامشخص.

    اگر از زاویه‌ای خاص نگاه کنید، شما پیش از این که حتی یک ویدیو تولید کنید، سهمی از این هزینهٔ ناشناخته را‌به‌خاطر استفاده از مدل می‌پذیرید.

    دوم، جداسازی استنتاج از آموزش به‌عنوان یک جنبه مهم دیگری در تعیین میزان گناه‌پذیری زیست‌محیطی شناخته می‌شود (آیا هنوز برای درخواست‌تان پشیمان هستید؟). می‌توانید هزینه بالای انرژی را به‌عنوان چیزی در نظر بگیرید که already اتفاق افتاده است — همان‌طور که گاوی که در برگر شما است هفته‌ها پیش مرده و نمی‌توانید آن را با سفارش یک پتی «بیاند» (Beyond) پس از نشستن در رستوران احیاء کنید.

    از این منظر، اجرای هر مدل هوش مصنوعی مبتنی بر ابر شبیه سفارش «سورف اند تلف» است. «گاو» تمام داده‌های آموزشی ممکن است قبلاً مرده باشد، ولی «خرچنگ» درخواست خاص شما هنوز زنده است تا زمانی که درخواست خود را به «آشپزخانه» یعنی دیتاسنتر که استنتاج در آن انجام می‌شود، بفرستید.

    مقدار آبی که به‌تازگی مصرف کردید:

    متأسفانه قرار است دوباره تخمین بزنیم. مراکز داده برای خنک‌سازی مقادیر زیادی آب مصرف می‌کنند — یا به‌صورت حلقه بسته یا از طریق تبخیر. شما نمی‌دانید کدام مرکز داده یا چند مرکز داده در تولید آن ویدیوی دوست‌تان که به‌عنوان یک شرکت‌کنندهٔ American Idol در حال «قوزقوز» آهنگ «Camptown Races» بود، دخیل بوده‌اند.

    اما احتمالاً هنوز هم بیش از حدی است که برایتان راحت باشد. سام آلتمن، مدیرعامل OpenAI، می‌گوید یک درخواست متنی در ChatGPT حدود «یک‌پانزدهم قاشق چای‌خوری» آب مصرف می‌کند و CNET برآورد می‌کند که یک ویدیو ۲٬۰۰۰ برابر هزینهٔ انرژی یک درخواست متنی دارد. بنابراین، یک تخمین سریع می‌تواند حدود ۰٫۱۷ گالون (حدود ۲۲ اونس مایع)، یعنی کمی بیشتر از یک بطری پلاستیکی کوک باشد.

    و این اگر به حرف‌های آلتمن به‌صورت مستقیم اعتماد کنید، است. ممکن است این مقدار بیشتر باشد. علاوه بر این، همان ملاحظات درباره هزینهٔ آموزش نسبت به هزینهٔ استنتاج که برای مصرف انرژی مطرح شد، در اینجا نیز صدق می‌کند. به عبارت دیگر، استفاده از سُرا تصمیمی هوشمندانه از نظر مصرف آب نیست.

    احتمال کمی وجود دارد که کسی یک دیپ‌فیک واقعی و زشت از شما بسازد.

    تنظیمات حریم‌خصوصی Cameo سُرا قوی‌اند — به‌شرطی که از آن‌ها مطلع باشید و از آن‌ها استفاده کنید. تنظیمات تحت «چه کسی می‌تواند از این استفاده کند» به‌طور تقریبی تصویر شما را از تبدیل به اسباب‌بازی عمومی محافظت می‌کند، به‌شرطی که گزینه «همه» را انتخاب نکنید؛ این گزینه به این معناست که هر کسی می‌تواند ویدیوهای سُرا از شما بسازد.

    حتی اگر به‌اندازه‌ای بی‌احتیاط باشید که Cameo عمومی داشته باشید، در برگه «ترجیحات Cameo» کنترل‌های اضافی در اختیار دارید؛ مانند امکان توصیف به‌صورت کلامی اینکه در ویدیوها باید چگونه ظاهر شوید. می‌توانید هر چه می‌خواهید اینجا بنویسید، مثلاً «لاغر، متناسب و ورزشی» یا «همیشه دم‌کش می‌کنم». همچنین می‌توانید قوانینی تعیین کنید که چه کاری نباید در ویدیوهای شما نشان داده شود. به‌عنوان مثال، اگر غذای کشری (کوشر) می‌خورید، می‌توانید بگویید نباید در ویدیوها در حال خوردن بیکن نشان داده شوید.

    اما حتی اگر اجازه ندهید Cameo شما توسط دیگران استفاده شود، می‌توانید با داشتن امکان ایجاد موانع محافظتی هنگام ساخت ویدیوهای خود، آرامش خاطر پیدا کنید.

    اما موانع کلی محتوایی سُرا کامل نیستند. بر اساس کارت مدل OpenAI برای سُرا، اگر کسی به‌قدر کافی درخواست کند، یک ویدیو توهین‌آمیز می‌تواند از میان این موانع سر در بیاید.

    کارت، نرخ موفقیت فیلترهای محتوای مختلف را در بازهٔ ۹۵‑۹۸٪ نشان می‌دهد. اما اگر تنها شکست‌ها را محاسبه کنید، احتمال ۱٫۶٪ برای یک دیپ‌فیک جنسی، ۴٫۹٪ برای ویدیو حاوی خشونت و/یا خون‌ریزی، ۴٫۴۸٪ برای چیزی به نام «تسلط سیاسی مخرب» و ۳٫۱۸٪ برای افراط‌گرایی یا نفرت وجود دارد. این احتمالات از «هزاران درخواست مخالف» که از طریق هدف‌گیری «red‑team» جمع‌آوری شده‌اند، محاسبه شده‌اند — به عبارت دیگر، سعی در شکستن موانع با درخواست‌های نقض قوانین بوده‌اند.

    بنابراین احتمال اینکه کسی یک دیپ‌فیک جنسی یا خشونت‌آمیز از شما بسازد، کم است، اما OpenAI (احتمالاً با درایت) هرگز نمی‌گوید «هرگز».

    ممکن است کسی ویدیویی بسازد که در آن شما به مدفوع دست می‌زنید.

    در آزمون‌های من، فیلترهای محتوایی سُرا به‌طور کلی همان‌طور که تبلیغ می‌شد کار می‌کردند و من هرگز آنچه کارت مدل دربارهٔ شکست‌های آن می‌گوید را تأیید نکردم. من به‌دقت ۱۰۰ درخواست متفاوت برای فریب سُرا تا محتواهای جنسی تولید کند، ایجاد نکردم. اگر برای یک Cameo از خودتان، حالت برهنگی را درخواست کنید، پیام «تخلف محتوا» به‌جای ویدیو نمایش داده می‌شود.

    با این حال، برخی محتواهای احتمالی مشکل‌ساز به‌قدری ضعیف نظارت می‌شوند که کاملاً بدون فیلتر باقی می‌مانند. به‌طور خاص، سُرا ظاهراً نسبت به محتوای اسکلولوژیک (مربوط به مدفوع) بی‌توجه است و این نوع محتوا را بدون هیچ‌گونه محدودیتی تولید می‌کند، مادامی که دیگر سیاست‌های محتوا مانند موارد مربوط به جنسیت و برهنگی را نقض نکند.

    بنابراین بله، در آزمون‌هایم سُرا ویدیوهای Cameo از یک شخص که با مدفوع تعامل دارد تولید کرد، از جمله جمع‌آوری مدفوع از توالت با دست‌های برهنه. برای دلایل واضح، ویدیوها را اینجا قرار نمی‌دهم، اما می‌توانید خودتان این را تست کنید. این کار بدون هیچ‌گونه حقه یا مهندسی درخواست خاصی انجام شد.

    در تجربهٔ من، مدل‌های قبلی تولید تصویر هوش مصنوعی تدابیری برای جلوگیری از چنین مواردی داشته‌اند، از جمله نسخهٔ بینگ از ژنراتور تصویر OpenAI، DALL‑E، اما به‌نظر می‌رسد این فیلتر در برنامه سُرا غیرفعال شده باشد. فکر نمی‌کنم این حتماً رسوایی باشد، اما بسیار ناخوشایند است!

    Gizmodo از OpenAI خواست تا دربارهٔ این موضوع توضیح دهد و در صورت دریافت پاسخ، به‌روزرسانی خواهد شد.

    ویدیوی خنده‌دار شما ممکن است یک شایعهٔ ویروسی دیگران باشد.

    سُرا ۲ یک جهان وسیع و بی‌پایان از شایعات را گشوده است. شما، مصرف‌کننده‌ای تیزبین و آگاه به اینترنت، هرگز باور نمی‌کنید که ویدیوی ویروسی زیر می‌تواند واقعی باشد. این ویدیو تصویری به‌ظاهر خودجوش نشان می‌دهد که به‌نظر می‌رسد از بیرون کاخ سفید فیلم‌برداری شده باشد. در صدایی که شبیه یک مکالمه تلفنی شنیده شده به‌نظر می‌رسد، دونالد ترامپ تولیدشده توسط هوش مصنوعی به یک طرف ناشناخته می‌گوید که اسناد اپستین را منتشر نکنند و فریاد می‌زند: «فقط نگذارید بیرون بیایند. اگر من سقوط کنم، همه‌تان را هم با خود می‌برم.»

    این پست را در اینستاگرام ببینید

    پست به اشتراک گذاشته‌شده توسط Preserving Black History (@preservinghistory)

    با نگاه به نظرات اینستاگرام، به نظر می‌رسید برخی افراد این را واقعی می‌پندارند.

    سازندهٔ ویدیوی ویروسی هرگز ادعا نکرد که واقعی است و به Snopes، که تأیید کرد این ویدیو توسط سُرا ساخته شده است، گفت که این ویدیو «به‌تمامی توسط هوش مصنوعی تولید شده» و «صرفاً برای آزمایش هنری و تبیین اجتماعی» ساخته شده است. این داستانی محتمل است؛ واضح بود که برای جلب توجه و دیده شدن در شبکه‌های اجتماعی ساخته شده است.

    اما اگر ویدیوهای خود را به‌صورت عمومی در سُرا به‌اشتراک بگذارید، دیگر کاربران می‌توانند آن‌ها را دانلود کنند و هر کاری که می‌خواهند با آن انجام دهند — از جمله انتشار آن‌ها در سایر شبکه‌های اجتماعی و تظاهر به واقعی بودن. OpenAI به‌صورت آگاهانه سُرا را به‌محلی تبدیل کرده است که کاربران می‌توانند به‌صورت بی‌پایان در آن غوطه‌ور شوند. یک‌بار محتوا را در چنین مکانیتی قرار دادید، دیگر زمینه (کانتکست) اهمیت ندارد و شما راهی برای کنترل اتفاقات بعدی آن ندارید.

  • کارکنان آمازون هشدار می‌دهند دربارهٔ رویکرد «تمام هزینه‌ها توجیه‌شده» شرکت در توسعهٔ هوش مصنوعی

    دفتر مرکزی آمازون در محله South Lake Union شهر سیتل، ایالت واشینگتن، ایالات متحده آمریکا؛ سه‌شنبه ۲۸ اکتبر ۲۰۲۵
    عکس: David Ryder; Getty Images

    بیش از هزار کارمند آمازون به‌صورت ناشناس یک نامهٔ باز امضا کرده‌اند که هشدار می‌دهد رویکرد ادعایی «تمام هزینه‌ها توجیه‌شده، سرعت نور در توسعهٔ هوش مصنوعی» می‌تواند «آسیب شگرفی به دموکراسی، مشاغل ما و زمین وارد کند»، گروه داخلی حمایت‌کننده روز چهارشنبه اعلام کرد.

    چهار عضو کارمندان آمازون برای عدالت آب‌وهوایی به WIRED گفتند که ماه گذشته از کارمندان خواستند نامه را امضا کنند. پس از دستیابی به هدف اولیه، این گروه روز چهارشنبه عناوین شغلی کارمندان امضاکننده را منتشر کرد و اعلام کرد که بیش از ۲۴۰۰ حامی از سازمان‌های دیگر، از جمله Google و Apple، نیز به این حرکت پیوسته‌اند.

    حمایت‌کنندگان داخلی آمازون شامل مهندسان ارشد، رهبران ارشد محصول، مدیران بازاریابی و پرسنل انبار در بخش‌های مختلف شرکت می‌شوند. یک مدیر ارشد مهندسی با بیش از بیست سال سابقه در آمازون می‌گوید که برای این‌که بر این باورند مسابقهٔ ساخت هوش مصنوعی برتر که به‌صورت مصنوعی ایجاد شده، به مدیران اجازه داده است تا کارگران و محیط زیست را زیر پا بگذارند، امضا کرده‌اند.

    یک کارمند می‌گوید: «نسل فعلی هوش مصنوعی تقریباً شبیه دارویی شده که شرکت‌هایی نظیر آمازون به‌طور وسواسی به آن وابسته‌اند، از آن برای توجیه اخراج افراد استفاده می‌کنند و صرفه‌جویی‌های حاصل را برای تأمین هزینهٔ مراکز دادهٔ محصولاتی که هیچ‌کس هزینهٔ آن را نمی‌پردازد، به کار می‌برند». این کارمند، همانند دیگران در این روایت، درخواست کرد نام خود را ناشناس نگه دارد زیرا از انتقام‌گیری کارفرماها می‌ترسد.

    آمازون، همراه با سایر شرکت‌های بزرگ فناوری، در حال سرمایه‌گذاری میلیاردها دلار برای ساخت مراکز دادهٔ جدید به‌منظور آموزش و اجرای سیستم‌های هوش مصنوعی مولد است. این شامل ابزارهایی می‌شود که به کارمندان در نوشتن کد کمک می‌کنند و سرویس‌های رو به مصرف‌کننده‌ای مانند چت‌بات خرید آمازون، Rufus، است. دلایل پیگیری هوش مصنوعی توسط آمازون به وضوح قابل‌مشاهده است. ماه گذشته، اندی جاسی، مدیرعامل آمازون، اعلام کرد که Rufus در مسیر افزایش فروش آمازون به‌صورت سالانه ۱۰ میلیارد دلار قرار دارد. او افزود: «این سرویس به‌طور مستمر بهتر می‌شود».

    سیستم‌های هوش مصنوعی به مقدار قابل‌توجهی انرژی نیاز دارند؛ به‌نقطه‌ای که شرکت‌های برق را مجبور کرده است تا برای پشتیبانی از رشد مراکز داده، به نیروگاه‌های زغال‌سنگ و سایر منابع گازهای کربنی‑ساز مراجعه کنند. این نامهٔ باز می‌خواهد آمازون منابع سوخت کربنی در مراکز دادهٔ خود را رها کند، فناوری‌های هوش مصنوعی خود را از استفاده برای نظارت و اخراج جمعی منع کند و از اجبار کارمندان به استفاده از هوش مصنوعی در کار خود صرف‌نظر نماید. «ما، کارمندان امضاکنندهٔ آمازون، نگرانی‌های جدی نسبت به این گسترش تهاجمی در زمان رشد جهانی استبداد و سال‌های حیاتی ما برای معکوس کردن بحران آب‌وهوایی داریم»، نامه اعلام می‌کند.

    سخنگوی آمازون، Brad Glasser می‌گوید که شرکت هنوز به هدف خود برای دستیابی به صفر خالص انتشار کربن تا سال ۲۰۴۰ متعهد است. او می‌گوید: «ما می‌دانیم پیشرفت همواره خطی نخواهد بود، اما همچنان تمرکز خود را بر ارائه خدمات بهتر، سریع‌تر و با انتشار کمتر به مشتریان‌مان حفظ می‌کنیم»، که بیان‌های پیشین شرکت را تکرار می‌کند. Glasser به نگرانی‌های کارمندان دربارهٔ ابزارهای داخلی هوش مصنوعی یا کاربردهای خارج از سازمانی این فناوری اشاره‌ای نکرد.

    این نامه نمونه‌ای نادر از فعالیت کارمندان فناوری در سالی است که توسط بازگشت دونالد ترامپ به قدرت به‌هم‌خورد. دولت او قوانین کار، سیاست‌های آب‌وهوایی و مقررات هوش مصنوعی را از‌پشت‌صندل برداشته است. این اقدامات برخی کارمندان را در بیان انتقادات نسبت به رفتارهای غیراخلاقی کارفرمایان خود ناآرام کرده است. همچنین بسیاری دربارهٔ امنیت شغلی خود نگران‌اند، چرا که خودکارسازی تهدیدی برای مشاغل ورودی مهندسی نرم‌افزار و بازاریابی به‌نظر می‌رسد.

    چندین سازمان در سراسر جهان سعی کرده‌اند برای کند کردن توسعهٔ هوش مصنوعی فشار وارد کنند. در سال ۲۰۲۳، صدها دانشمند برجسته از بزرگ‌ترین شرکت‌های هوش مصنوعی درخواست کردند تا برای شش ماه کار بر روی این فناوری را متوقف کنند و ضررهای فاجعه‌آمیزی که ممکن است به‌وجود بیاید، ارزیابی نمایند. این کمپین‌ها موفقیت کمی کسب کرده‌اند و شرکت‌ها همچنان به‌سرعت مدل‌های جدید، قدرتمندتر هوش مصنوعی را عرضه می‌کنند.

    اما با وجود محیط سیاسی مشکل‌ساز، اعضای گروه عدالت آب‌وهوایی در آمازون می‌گویند احساس می‌کردند باید به‌جنگ با خطرات احتمالی هوش مصنوعی بپردازند. استراتژی آن‌ها تا حدی این است که کمتر به نگرانی‌های طولانی‌مدت دربارهٔ هوش مصنوعی پیشرفته‌تری که از انسان‌ها برتر است، تمرکز کنند و به پیامدهایی که بلافاصله باید با آن‌ها مواجه شوند، بیشتر بپردازند. اعضا می‌گویند که مخالف هوش مصنوعی نیستند؛ در واقع نسبت به این فناوری خوش‌بینند، اما می‌خواهند شرکت‌ها رویکردی اندیشمندانه‌تر نسبت به نحوه استفاده از آن اتخاذ کنند.

    «موضوع فقط این نیست که اگر موفق به توسعهٔ هوش برتر (سوپراینتلیجنس) شوند چه اتفاقی می‌افتد»، یکی از کارمندان با تجربهٔ ده ساله در بخش سرگرمی‌های آمازون می‌گوید. «ما می‌خواهیم بگوییم: هزینه‌هایی که الآن می‌پردازیم توجیه‌پذیر نیستند. ما در چند سال باقی‌مانده برای جلوگیری از گرم‌شدن فاجعه‌بار هستیم».

    کارمندان می‌گویند جمع‌آوری حمایت برای این نامهٔ باز نسبت به سال‌های پیش دشوارتر بوده، چون آمازون به‌تدریج توانایی کارمندان برای درخواست امضای دیگران را محدود کرده است. سازماندهندگان به WIRED می‌گویند که اکثر امضاکنندگان این نامه جدید از طریق ارتباط با همکاران بیرون از محیط کار به دست آمده‌اند.

    Orin Starn، انسانی‌شناس دانشگاه دوک که دو سال به‌صورت مخفی به‌عنوان کارگر انبار آمازون کار کرد، می‌گوید زمان برای به‌چالش کشیدن این غول رسیده است. او می‌گوید: «بسیاری از مردم از سرافرازی‌های بی‌حد و حصر میلیاردرها و از شرکتی که صرفاً به‌صورت نمایشی به مسائل تغییر آب‌وهوایی، هوش مصنوعی، حقوق مهاجران و زندگی کارگران خود می‌پردازد، خسته شده‌اند».

    کارخانه زباله

    دو کارمند آمازون می‌گویند مدیران با کم‌اهمیت نشان دادن مشکلات ابزارهای داخلی هوش مصنوعی شرکت، واقعیت عدم رضایت کارگران از این ابزارها را نادیده می‌گیرند.

    به‌گفتهٔ یک مهندس توسعه نرم‌افزار در بخش محاسبات ابری آمازون، برخی مهندسان تحت فشار هستند تا با استفاده از هوش مصنوعی بهره‌وری خود را دو برابر کنند وگرنه خطر از دست دادن شغل را دارند. اما این مهندس می‌گوید ابزارهای آمازون برای نوشتن کد و مستندات فنی کافی نیستند تا این هدفهای بلندپروازانه را محقق سازند. یک کارمند دیگر خروجی‌های هوش مصنوعی را «زباله» می‌نامد.

    این نامهٔ باز خواستار ایجاد «گروه‌های کاری هوش مصنوعی اخلاقی» در آمازون است که شامل کارگران پایه می‌شود؛ این گروه‌ها می‌توانند در نحوه استفاده از فناوری‌های نوظهور در وظایف شغلی خود نظراتی داشته باشند. همچنین می‌خواهند در مورد چگونگی استفاده از هوش مصنوعی برای خودکارسازی بخش‌هایی از نقش‌های خود تصمیم‌گیری کنند. ماه گذشته، پس از اعلام آمازون مبنی بر قطع تقریباً ۱۴٬۰۰۰ شغل برای بهتر پاسخ‌گویی به نیازهای عصر هوش مصنوعی، موجی از کارگران شروع به امضای این نامه کردند. تا سپتامبر، آمازون حدود ۱٫۵۸ میلیون نفر را مشغول به کار داشت که نسبت به اوج بیش از ۱٫۶ میلیون نفر در پایان سال ۲۰۲۱ کاهش یافته است.

    این گروه عدالت آب‌وهوایی عمداً هدف خود را پیش از هیجان خریدهای جمعهٔ سیاه به‌دست آوردن آستانهٔ امضاهای خود تنظیم کرد تا هزینهٔ فناوری‌ای را که پشت یکی از بزرگ‌ترین پلتفرم‌های خرید آنلاین جهان است، به‌خاطر بسپارد. این گروه بر این باور است که می‌تواند تأثیرگذار باشد؛ زیرا اتحادیه‌های کارگری، از جمله در حوزه‌های پرستاری، دولتی و آموزشی، موفق شده‌اند در تعیین نحوه استفاده از هوش مصنوعی در حوزه‌های خود صدا داشته باشند.

    نگرانی‌های آب‌وهوایی

    گروه کارمندان آمازون، که در سال ۲۰۱۸ تشکیل شد، اعتراف می‌کند که با برگزاری مجموعه‌ای از اعتراضی‌ها، پیشنهادات سهام‌داران و دادخواست‌ها، از جمله یکی در سال ۲۰۱۹ که بیش از ۸٬۷۰۰ امضای کارمند جمع‌آوری کرد، بر تعهدات زیست‌محیطی شرکت تأثیر گذاشته است.

    Glasser، سخنگوی آمازون، می‌گوید که اهداف و پروژه‌های آب‌وهوایی سال‌ها پیش از ظهور این گروه حمایت‌کننده در دست بوده‌اند. با این حال، چیزی که همه آن را می‌پذیرند، مقیاس چالش‌های پیشرو است. فعالان اشاره می‌کنند که انتشار گازهای گلخانه‌ای آمازون از سال ۲۰۱۹ حدود ۳۵ درصد افزایش یافته است و آن‌ها خواستار تدوین یک برنامهٔ دقیق جدید برای رسیدن به هدف صفر خالص انتشار تا سال ۲۰۴۰ هستند.

    فعالان می‌گویند آنچه اخیراً از آمازون دریافت کرده‌اند الهام‌بخش نیست. یکی از کارمندان می‌گوید که چند هفته پیش، در جلسهٔ سراسری شرکت، یک مدیر اجرایی اعلام کرد که تقاضای مراکز داده تا سال ۲۰۲۷ ده‌برابر خواهد شد. سپس این مدیر استراتژی‌ای جدید برای کاهش مصرف آب در این مراکز به میزان ۹ درصد معرفی کرد. کارگر می‌گوید: «این قطره‌ای در دریا است». او افزود: «مایلم دربارهٔ بخش انرژی ده‌برابری و منبع تأمین آن بیشتر بحث کنیم».

    Glaser، سخنگوی آمازون، می‌گوید: «آمازون پیشاپیش متعهد به تأمین پایدارتر عملیات خود و سرمایه‌گذاری در انرژی بدون کربن است».

  • مشاور سیاسی که تماس‌های روباتیک هوش مصنوعی ارسال کرد، می‌گوید به همان‌طور که دادگاه حکم داده است، به رأی‌دهندگان پول نمی‌پردازد

    توسط رایان مانچینی

    فایل – در این عکس آرشیوی تاریخ ۱۱ آگوست ۲۰۱۹، مردی در نیواورلئان از تلفن همراهش استفاده می‌کند. کمیسیون فدرال ارتباطات جریمه‌ای به‌مقدار ۶ میلیون دلار علیه مشاور سیاسی که تماس‌های روباتیک تولیدشده توسط هوش مصنوعی و شبیه‌سازی صدای جو بایدن را به رأی‌دهندگان پیش از مرحله مقدماتی نیوهام‌شپیر ارسال کرده بود، صادر کرد. استیو کرمر نیز با دو دوجین اتهام جنایی در نیوهام‌شپیر مواجه است. کرمر اقرار کرده است که پیام ارسالی به هزاران رای‌دهنده را سازماندهی کرده است. (عکس AP/جنی کین، فایل)

    یک مشاور سیاسی دموکرات روز سه‌شنبه اعلام کرد که پس از پذیرش استفاده از تماس‌های روباتیک تولیدشده توسط هوش مصنوعی که صدای رئیس‌جمهور پیشین جو بایدن را در انتخابات مقدماتی ۲۰۲۴ تقلید می‌کرد، به هیچ‌یک از سه رأی‌دهنده مبلغ ۲۲,۵۰۰ دلار که توسط دادگاه مقرر شده بود، پرداخت نخواهد کرد.

    استیو کرمر به خبرگزاری آسوشییتد پرس گفت که پیش از این تبرئه شده است و در روز جمعه به حکم دادگاه پاسخی نخواهد داد. هیئت منصفه در ماه جولای کرمر را از اتهامات سرکوب رای‌دهندگان و جعل هویت یک نامزد تبرئه کرد.

    او افزود که این دعوای جدید صرفاً یک مانور تبلیغاتی بود.

    این حکم دادگاهی از یک دعوای حقوقی که توسط اتحادیه زنان رای‌دهنده مطرح شد، ناشی شد. علاوه بر این‌که به او دستور داد تا به هر یک از این سه رأی‌دهنده مبلغ ۷,۵۰۰ دلار پرداخت کند، او را از انجام این گونه رفتارها در سرتاسر کشور منع کرد.

    «آقای کرمر به‌طور مستمر قانون و حقوق رای‌دهندگان را نادیده می‌گیرد؛ برنامه او برای سرپیچی از حکم دادگاه این الگو را ادامه می‌دهد و بر اهمیت دستور موقت و غرامت تأکید می‌کند»، کورتنی هوستتلر از سازمان آزادی بیان برای مردم، که به اتحادیه زنان رای‌دهنده کمک حقوقی کرده بود، به آسوشییتد پرس گفت.

    اگر کرمر پرداخت نکند، خواهان‌ها درخواست اقدامات بیشتری خواهند کرد، هوستتلر افزود.

    کمیسیون فدرال ارتباطات (FCC) نیز جریمه‌ای به‌مقدار ۶ میلیون دلار علیه کرمر وضع کرد که او هنوز پرداخت نکرده است، طبق گزارش آسوشییتد پرس. پس از بروز رسوایی تماس‌های روباتیک، FCC استفاده از تماس‌های روباتیک مبتنی بر هوش مصنوعی را ممنوع کرد.

    در ماه می ۲۰۲۴، دادستان کل نیوهام‌شپیر کرمر را به سیزده اتهام جدی سرکوب رای‌دهندگان و سیزده اتهام جزئی جعل هویت یک نامزد متهم کرد.

    تماس روباتیکی که با صدای بایدن انجام شد، از رای‌دهندگان خواست تا در انتخابات مقدماتی نیوهام‌شپیر رأی ندهند و به جای آن در ماه نوامبر رأی دهند.

    این تماس اولین استفاده شناخته‌شده از تکنولوژی دیپ‌فیک در سیاست ایالات متحده بود و موجی از درخواست‌ها برای تنظیم استفاده از هوش مصنوعی در انتخابات به‌وجود آورد.

    صدای جعلی بایدن در این تماس هزاران رای‌دهندهٔ مرحلهٔ مقدماتی نیوهام‌شپیر را تشویق کرد تا در خانه بمانند و «رای خود را حفظ کنند».

    کرمر در کارزار ریاست‌جمهوری نماینده دین فیلیپس (دموکرات مینه‌سوتا) که گزینه‌ای کم‌احتمال بود، مشغول به کار بود. او پیش از این گفته بود که تیم فیلیپس با طرح تماس روباتیک او ارتباطی ندارند و از آن بی‌اطلاع بوده‌اند.

  • چگونه با مادربزرگ دربارهٔ ChatGPT صحبت کنیم

    تصویر یک زن سالخورده که لوگوی OpenAI در عینک او منعکس شده است.

    تصویر: Allie Carl / Axios

    کارشناسان آداب و رسوم توصیه می‌کنند که در میز شام تعطیلات دربارهٔ سیاست و مذهب صحبت نشود، اما دلیل خوبی برای صحبت کردن دربارهٔ هوش مصنوعی وجود دارد، به‌ویژه با بستگان مسن.

    چرا مهم است: افراد سالمند هدف اصلی کلاهبرداری‌ها هستند و هوش مصنوعی به‌طوری آسان و ارزان‌قیمت‌تری می‌تواند متونی، صدا و ویدئوی جعلی متقاعدکننده‌ای تولید کند که خود را به‌عنوان بستگان در وضعیت اضطراری نشان می‌دهند.

    آمار: بزرگسالان سالمند در یک‌سوم موارد، محتوای آنلاین را اشتباه تشخیص می‌دهند، طبق یک مطالعهٔ اخیر توسط شرکت مراقبت‌های بهداشتی در منزل The CareSide و پژوهشگران دانشگاه هاروارد و دانشگاه مینه‌سوتا.

    • در یک آزمون کوتاه، سالمندان شرکت‌کننده حدود یک‌سوم زمان‌ها محتواهای واقعی را جعلی و یا محتواهای جعلی را واقعی می‌نامیدند، حتی اگر نسبت به توانایی خود در تشخیص تفاوت اطمینان داشته باشند.

    راهنمای مختصر برای کمک به بستگان (و خودتان) در عبور از دنیای آنلاین که مرزهای بین آثار انسانی و ماشینی در هم می‌آمیزد.

    درک چگونگی کار مدل‌های زبانی بزرگ (LLM) (و اینکه چه کار نمی‌کنند)

    نگاه کلی: برای درک یا کمک به دیگران در درک هوش مصنوعی، نیازی به داشتن دکترای یادگیری ماشین ندارید.

    • مدل‌های زبانی بزرگ (LLM) که چت‌بات‌ها را تقویت می‌کنند، جادو نیستند؛ آن‌ها ماشین‌های پیش‌بینی هستند که کلمه (یا پیکسل یا فریم ویدئویی) بعدی محتمل‌ترین را حدس می‌زنند.
    • ربات‌ها نیز هوشمند هستند؛ دوستانه، شوخ‌طبع و می‌توانند همدلی را شبیه‌سازی کنند. و اگرچه در عدم هماهنگی خودکار با دید کاربر پیشرفت می‌کنند، اما هنوز برای گفتن چیزی که می‌خواهید بشنوید، پاداش می‌گیرند.
    • به گفتهٔ پژوهشگر هاروارد، فِرد هیدینگ، حذف حس شرمندگی از عدم درک چگونگی کار این همه چیز مهم است، به‌ویژه اگر عزیزتان قربانی یک کلاهبرداری شده باشد.

    در مورد آن صحبت کنید

    نمونه‌ای از این مسأله: اطمینان حاصل کنید که بستگان شما از کلاهبرداری‌های تلفنی و پیامکی آگاهند. در مورد این‌که یک تماس یا پیام مشکوک می‌تواند چگونه به نظر برسد توضیح دهید: «نوه‌ای در دردسر»، بانکی که طلب پرداخت فوری دارد، یا مراقبی که درخواست کارت‌های هدیه اضطراری می‌کند.

    • به پدربزرگ و مادربزرگ بگویید که همیشه می‌توانید تماس را قطع کنید و با شماره‌ای که می‌شناسند بازگردید، یا پیش از ارسال پول، در پیام گروه خانوادگی بررسی کنید.
    • یک «کلمهٔ ایمن» خانوادگی تدوین کنید تا به‌سادگی هویت یک بستگان را در تماس یا پیام تأیید کنید. «این می‌تواند به‌عنوان یک پل نرم برای گفتگو دربارهٔ خطرات هوش مصنوعی به‌طور کلی با مادربزرگ‌ها باشد»، سارا دولی، بنیانگذار AI‑Empowered Mom، به Axios گفت.

    آموزش “نشانه‌های” هوش مصنوعی

    بین خطوط: تولیدکنندگان متن، تصویر و ویدئو به‌تدریج واقع‌گرایانه‌تر می‌شوند، اما هنوز راه‌هایی برای تشخیص محتوای هوش مصنوعی وجود دارد.

    • اگر چیزی را کمی نامناسب یا مشکوک ببینید, «حس درون‌تان باید بگوید که جزئیات را دقیق‌تر بررسی کنید»، می‌گوید جِرمی کاراسکو، متخصص افشای هوش مصنوعی و مؤسس Showtools.ai در یوتیوب و تیک‌تاک.
    • اگر ویدئو شبیه ضبط دوربین امنیتی یا دوربین بدنی باشد، این شاخصی است. تولیدکنندگان ویدئوی هوش مصنوعی در ساخت صحنه‌های واقع‌گرایانهٔ دوربین‌های نظارتی مهارت دارند، چون ما به این ویدئوها که کمی «grainy» به‌نظر می‌رسند عادت داریم.

    بدانید که چت‌بات‌ها اغلب با اطمینان اشتباه می‌کنند

    چک واقعیت: امروزه اکثر مردم می‌دانند که هوش مصنوعی همیشه باید صحت‌سنجی شود. مدل‌های زبانی ممکن است هالوسینیشن داشته باشند یا اطلاعات ساختگی ارائه دهند.

    • چت‌بات‌ها همیشه با اعتماد به‌نفس صحبت می‌کنند. پاسخ‌هایشان حتی هوشمندترین کاربران را می‌تواند فریب دهد.
    • ویدئوها به‌ویژه ما را آموزش می‌دهند تا به‌سرعت و به‌صورت غریزی واکنش نشان دهیم، بدون اینکه سؤالاتی که معمولاً می‌پرسیم، بپرسیم. «دقت و آگاهی مهم‌ترین مهارت‌هایی هستند که باید بازسازی شوند، به‌ویژه برای سالمندانی که در دنیایی بزرگ شدند که عکس‌ها و ویدئوها بودند شواهد»، روبِرتا اشمید، سردبیر NewsGuard، به Axios گفت.
    • با افراد سالمند بنشینید و از چت‌بات مورد علاقهٔ آن‌ها سؤالی بپرسید که عزیزتان به‌خوبی می‌داند. ببینید آیا می‌توانند اشکالات پاسخ‌های آن را پیدا کنند.

    به‌عمق بروید: ساده‌ترین راهنمای استفاده از چت‌بات‌ها.