دسته: هوش مصنوعی

  • کارکنان آمازون هشدار می‌دهند دربارهٔ رویکرد «تمام هزینه‌ها توجیه‌شده» شرکت در توسعهٔ هوش مصنوعی

    دفتر مرکزی آمازون در محله South Lake Union شهر سیتل، ایالت واشینگتن، ایالات متحده آمریکا؛ سه‌شنبه ۲۸ اکتبر ۲۰۲۵
    عکس: David Ryder; Getty Images

    بیش از هزار کارمند آمازون به‌صورت ناشناس یک نامهٔ باز امضا کرده‌اند که هشدار می‌دهد رویکرد ادعایی «تمام هزینه‌ها توجیه‌شده، سرعت نور در توسعهٔ هوش مصنوعی» می‌تواند «آسیب شگرفی به دموکراسی، مشاغل ما و زمین وارد کند»، گروه داخلی حمایت‌کننده روز چهارشنبه اعلام کرد.

    چهار عضو کارمندان آمازون برای عدالت آب‌وهوایی به WIRED گفتند که ماه گذشته از کارمندان خواستند نامه را امضا کنند. پس از دستیابی به هدف اولیه، این گروه روز چهارشنبه عناوین شغلی کارمندان امضاکننده را منتشر کرد و اعلام کرد که بیش از ۲۴۰۰ حامی از سازمان‌های دیگر، از جمله Google و Apple، نیز به این حرکت پیوسته‌اند.

    حمایت‌کنندگان داخلی آمازون شامل مهندسان ارشد، رهبران ارشد محصول، مدیران بازاریابی و پرسنل انبار در بخش‌های مختلف شرکت می‌شوند. یک مدیر ارشد مهندسی با بیش از بیست سال سابقه در آمازون می‌گوید که برای این‌که بر این باورند مسابقهٔ ساخت هوش مصنوعی برتر که به‌صورت مصنوعی ایجاد شده، به مدیران اجازه داده است تا کارگران و محیط زیست را زیر پا بگذارند، امضا کرده‌اند.

    یک کارمند می‌گوید: «نسل فعلی هوش مصنوعی تقریباً شبیه دارویی شده که شرکت‌هایی نظیر آمازون به‌طور وسواسی به آن وابسته‌اند، از آن برای توجیه اخراج افراد استفاده می‌کنند و صرفه‌جویی‌های حاصل را برای تأمین هزینهٔ مراکز دادهٔ محصولاتی که هیچ‌کس هزینهٔ آن را نمی‌پردازد، به کار می‌برند». این کارمند، همانند دیگران در این روایت، درخواست کرد نام خود را ناشناس نگه دارد زیرا از انتقام‌گیری کارفرماها می‌ترسد.

    آمازون، همراه با سایر شرکت‌های بزرگ فناوری، در حال سرمایه‌گذاری میلیاردها دلار برای ساخت مراکز دادهٔ جدید به‌منظور آموزش و اجرای سیستم‌های هوش مصنوعی مولد است. این شامل ابزارهایی می‌شود که به کارمندان در نوشتن کد کمک می‌کنند و سرویس‌های رو به مصرف‌کننده‌ای مانند چت‌بات خرید آمازون، Rufus، است. دلایل پیگیری هوش مصنوعی توسط آمازون به وضوح قابل‌مشاهده است. ماه گذشته، اندی جاسی، مدیرعامل آمازون، اعلام کرد که Rufus در مسیر افزایش فروش آمازون به‌صورت سالانه ۱۰ میلیارد دلار قرار دارد. او افزود: «این سرویس به‌طور مستمر بهتر می‌شود».

    سیستم‌های هوش مصنوعی به مقدار قابل‌توجهی انرژی نیاز دارند؛ به‌نقطه‌ای که شرکت‌های برق را مجبور کرده است تا برای پشتیبانی از رشد مراکز داده، به نیروگاه‌های زغال‌سنگ و سایر منابع گازهای کربنی‑ساز مراجعه کنند. این نامهٔ باز می‌خواهد آمازون منابع سوخت کربنی در مراکز دادهٔ خود را رها کند، فناوری‌های هوش مصنوعی خود را از استفاده برای نظارت و اخراج جمعی منع کند و از اجبار کارمندان به استفاده از هوش مصنوعی در کار خود صرف‌نظر نماید. «ما، کارمندان امضاکنندهٔ آمازون، نگرانی‌های جدی نسبت به این گسترش تهاجمی در زمان رشد جهانی استبداد و سال‌های حیاتی ما برای معکوس کردن بحران آب‌وهوایی داریم»، نامه اعلام می‌کند.

    سخنگوی آمازون، Brad Glasser می‌گوید که شرکت هنوز به هدف خود برای دستیابی به صفر خالص انتشار کربن تا سال ۲۰۴۰ متعهد است. او می‌گوید: «ما می‌دانیم پیشرفت همواره خطی نخواهد بود، اما همچنان تمرکز خود را بر ارائه خدمات بهتر، سریع‌تر و با انتشار کمتر به مشتریان‌مان حفظ می‌کنیم»، که بیان‌های پیشین شرکت را تکرار می‌کند. Glasser به نگرانی‌های کارمندان دربارهٔ ابزارهای داخلی هوش مصنوعی یا کاربردهای خارج از سازمانی این فناوری اشاره‌ای نکرد.

    این نامه نمونه‌ای نادر از فعالیت کارمندان فناوری در سالی است که توسط بازگشت دونالد ترامپ به قدرت به‌هم‌خورد. دولت او قوانین کار، سیاست‌های آب‌وهوایی و مقررات هوش مصنوعی را از‌پشت‌صندل برداشته است. این اقدامات برخی کارمندان را در بیان انتقادات نسبت به رفتارهای غیراخلاقی کارفرمایان خود ناآرام کرده است. همچنین بسیاری دربارهٔ امنیت شغلی خود نگران‌اند، چرا که خودکارسازی تهدیدی برای مشاغل ورودی مهندسی نرم‌افزار و بازاریابی به‌نظر می‌رسد.

    چندین سازمان در سراسر جهان سعی کرده‌اند برای کند کردن توسعهٔ هوش مصنوعی فشار وارد کنند. در سال ۲۰۲۳، صدها دانشمند برجسته از بزرگ‌ترین شرکت‌های هوش مصنوعی درخواست کردند تا برای شش ماه کار بر روی این فناوری را متوقف کنند و ضررهای فاجعه‌آمیزی که ممکن است به‌وجود بیاید، ارزیابی نمایند. این کمپین‌ها موفقیت کمی کسب کرده‌اند و شرکت‌ها همچنان به‌سرعت مدل‌های جدید، قدرتمندتر هوش مصنوعی را عرضه می‌کنند.

    اما با وجود محیط سیاسی مشکل‌ساز، اعضای گروه عدالت آب‌وهوایی در آمازون می‌گویند احساس می‌کردند باید به‌جنگ با خطرات احتمالی هوش مصنوعی بپردازند. استراتژی آن‌ها تا حدی این است که کمتر به نگرانی‌های طولانی‌مدت دربارهٔ هوش مصنوعی پیشرفته‌تری که از انسان‌ها برتر است، تمرکز کنند و به پیامدهایی که بلافاصله باید با آن‌ها مواجه شوند، بیشتر بپردازند. اعضا می‌گویند که مخالف هوش مصنوعی نیستند؛ در واقع نسبت به این فناوری خوش‌بینند، اما می‌خواهند شرکت‌ها رویکردی اندیشمندانه‌تر نسبت به نحوه استفاده از آن اتخاذ کنند.

    «موضوع فقط این نیست که اگر موفق به توسعهٔ هوش برتر (سوپراینتلیجنس) شوند چه اتفاقی می‌افتد»، یکی از کارمندان با تجربهٔ ده ساله در بخش سرگرمی‌های آمازون می‌گوید. «ما می‌خواهیم بگوییم: هزینه‌هایی که الآن می‌پردازیم توجیه‌پذیر نیستند. ما در چند سال باقی‌مانده برای جلوگیری از گرم‌شدن فاجعه‌بار هستیم».

    کارمندان می‌گویند جمع‌آوری حمایت برای این نامهٔ باز نسبت به سال‌های پیش دشوارتر بوده، چون آمازون به‌تدریج توانایی کارمندان برای درخواست امضای دیگران را محدود کرده است. سازماندهندگان به WIRED می‌گویند که اکثر امضاکنندگان این نامه جدید از طریق ارتباط با همکاران بیرون از محیط کار به دست آمده‌اند.

    Orin Starn، انسانی‌شناس دانشگاه دوک که دو سال به‌صورت مخفی به‌عنوان کارگر انبار آمازون کار کرد، می‌گوید زمان برای به‌چالش کشیدن این غول رسیده است. او می‌گوید: «بسیاری از مردم از سرافرازی‌های بی‌حد و حصر میلیاردرها و از شرکتی که صرفاً به‌صورت نمایشی به مسائل تغییر آب‌وهوایی، هوش مصنوعی، حقوق مهاجران و زندگی کارگران خود می‌پردازد، خسته شده‌اند».

    کارخانه زباله

    دو کارمند آمازون می‌گویند مدیران با کم‌اهمیت نشان دادن مشکلات ابزارهای داخلی هوش مصنوعی شرکت، واقعیت عدم رضایت کارگران از این ابزارها را نادیده می‌گیرند.

    به‌گفتهٔ یک مهندس توسعه نرم‌افزار در بخش محاسبات ابری آمازون، برخی مهندسان تحت فشار هستند تا با استفاده از هوش مصنوعی بهره‌وری خود را دو برابر کنند وگرنه خطر از دست دادن شغل را دارند. اما این مهندس می‌گوید ابزارهای آمازون برای نوشتن کد و مستندات فنی کافی نیستند تا این هدفهای بلندپروازانه را محقق سازند. یک کارمند دیگر خروجی‌های هوش مصنوعی را «زباله» می‌نامد.

    این نامهٔ باز خواستار ایجاد «گروه‌های کاری هوش مصنوعی اخلاقی» در آمازون است که شامل کارگران پایه می‌شود؛ این گروه‌ها می‌توانند در نحوه استفاده از فناوری‌های نوظهور در وظایف شغلی خود نظراتی داشته باشند. همچنین می‌خواهند در مورد چگونگی استفاده از هوش مصنوعی برای خودکارسازی بخش‌هایی از نقش‌های خود تصمیم‌گیری کنند. ماه گذشته، پس از اعلام آمازون مبنی بر قطع تقریباً ۱۴٬۰۰۰ شغل برای بهتر پاسخ‌گویی به نیازهای عصر هوش مصنوعی، موجی از کارگران شروع به امضای این نامه کردند. تا سپتامبر، آمازون حدود ۱٫۵۸ میلیون نفر را مشغول به کار داشت که نسبت به اوج بیش از ۱٫۶ میلیون نفر در پایان سال ۲۰۲۱ کاهش یافته است.

    این گروه عدالت آب‌وهوایی عمداً هدف خود را پیش از هیجان خریدهای جمعهٔ سیاه به‌دست آوردن آستانهٔ امضاهای خود تنظیم کرد تا هزینهٔ فناوری‌ای را که پشت یکی از بزرگ‌ترین پلتفرم‌های خرید آنلاین جهان است، به‌خاطر بسپارد. این گروه بر این باور است که می‌تواند تأثیرگذار باشد؛ زیرا اتحادیه‌های کارگری، از جمله در حوزه‌های پرستاری، دولتی و آموزشی، موفق شده‌اند در تعیین نحوه استفاده از هوش مصنوعی در حوزه‌های خود صدا داشته باشند.

    نگرانی‌های آب‌وهوایی

    گروه کارمندان آمازون، که در سال ۲۰۱۸ تشکیل شد، اعتراف می‌کند که با برگزاری مجموعه‌ای از اعتراضی‌ها، پیشنهادات سهام‌داران و دادخواست‌ها، از جمله یکی در سال ۲۰۱۹ که بیش از ۸٬۷۰۰ امضای کارمند جمع‌آوری کرد، بر تعهدات زیست‌محیطی شرکت تأثیر گذاشته است.

    Glasser، سخنگوی آمازون، می‌گوید که اهداف و پروژه‌های آب‌وهوایی سال‌ها پیش از ظهور این گروه حمایت‌کننده در دست بوده‌اند. با این حال، چیزی که همه آن را می‌پذیرند، مقیاس چالش‌های پیشرو است. فعالان اشاره می‌کنند که انتشار گازهای گلخانه‌ای آمازون از سال ۲۰۱۹ حدود ۳۵ درصد افزایش یافته است و آن‌ها خواستار تدوین یک برنامهٔ دقیق جدید برای رسیدن به هدف صفر خالص انتشار تا سال ۲۰۴۰ هستند.

    فعالان می‌گویند آنچه اخیراً از آمازون دریافت کرده‌اند الهام‌بخش نیست. یکی از کارمندان می‌گوید که چند هفته پیش، در جلسهٔ سراسری شرکت، یک مدیر اجرایی اعلام کرد که تقاضای مراکز داده تا سال ۲۰۲۷ ده‌برابر خواهد شد. سپس این مدیر استراتژی‌ای جدید برای کاهش مصرف آب در این مراکز به میزان ۹ درصد معرفی کرد. کارگر می‌گوید: «این قطره‌ای در دریا است». او افزود: «مایلم دربارهٔ بخش انرژی ده‌برابری و منبع تأمین آن بیشتر بحث کنیم».

    Glaser، سخنگوی آمازون، می‌گوید: «آمازون پیشاپیش متعهد به تأمین پایدارتر عملیات خود و سرمایه‌گذاری در انرژی بدون کربن است».

  • مشاور سیاسی که تماس‌های روباتیک هوش مصنوعی ارسال کرد، می‌گوید به همان‌طور که دادگاه حکم داده است، به رأی‌دهندگان پول نمی‌پردازد

    توسط رایان مانچینی

    فایل – در این عکس آرشیوی تاریخ ۱۱ آگوست ۲۰۱۹، مردی در نیواورلئان از تلفن همراهش استفاده می‌کند. کمیسیون فدرال ارتباطات جریمه‌ای به‌مقدار ۶ میلیون دلار علیه مشاور سیاسی که تماس‌های روباتیک تولیدشده توسط هوش مصنوعی و شبیه‌سازی صدای جو بایدن را به رأی‌دهندگان پیش از مرحله مقدماتی نیوهام‌شپیر ارسال کرده بود، صادر کرد. استیو کرمر نیز با دو دوجین اتهام جنایی در نیوهام‌شپیر مواجه است. کرمر اقرار کرده است که پیام ارسالی به هزاران رای‌دهنده را سازماندهی کرده است. (عکس AP/جنی کین، فایل)

    یک مشاور سیاسی دموکرات روز سه‌شنبه اعلام کرد که پس از پذیرش استفاده از تماس‌های روباتیک تولیدشده توسط هوش مصنوعی که صدای رئیس‌جمهور پیشین جو بایدن را در انتخابات مقدماتی ۲۰۲۴ تقلید می‌کرد، به هیچ‌یک از سه رأی‌دهنده مبلغ ۲۲,۵۰۰ دلار که توسط دادگاه مقرر شده بود، پرداخت نخواهد کرد.

    استیو کرمر به خبرگزاری آسوشییتد پرس گفت که پیش از این تبرئه شده است و در روز جمعه به حکم دادگاه پاسخی نخواهد داد. هیئت منصفه در ماه جولای کرمر را از اتهامات سرکوب رای‌دهندگان و جعل هویت یک نامزد تبرئه کرد.

    او افزود که این دعوای جدید صرفاً یک مانور تبلیغاتی بود.

    این حکم دادگاهی از یک دعوای حقوقی که توسط اتحادیه زنان رای‌دهنده مطرح شد، ناشی شد. علاوه بر این‌که به او دستور داد تا به هر یک از این سه رأی‌دهنده مبلغ ۷,۵۰۰ دلار پرداخت کند، او را از انجام این گونه رفتارها در سرتاسر کشور منع کرد.

    «آقای کرمر به‌طور مستمر قانون و حقوق رای‌دهندگان را نادیده می‌گیرد؛ برنامه او برای سرپیچی از حکم دادگاه این الگو را ادامه می‌دهد و بر اهمیت دستور موقت و غرامت تأکید می‌کند»، کورتنی هوستتلر از سازمان آزادی بیان برای مردم، که به اتحادیه زنان رای‌دهنده کمک حقوقی کرده بود، به آسوشییتد پرس گفت.

    اگر کرمر پرداخت نکند، خواهان‌ها درخواست اقدامات بیشتری خواهند کرد، هوستتلر افزود.

    کمیسیون فدرال ارتباطات (FCC) نیز جریمه‌ای به‌مقدار ۶ میلیون دلار علیه کرمر وضع کرد که او هنوز پرداخت نکرده است، طبق گزارش آسوشییتد پرس. پس از بروز رسوایی تماس‌های روباتیک، FCC استفاده از تماس‌های روباتیک مبتنی بر هوش مصنوعی را ممنوع کرد.

    در ماه می ۲۰۲۴، دادستان کل نیوهام‌شپیر کرمر را به سیزده اتهام جدی سرکوب رای‌دهندگان و سیزده اتهام جزئی جعل هویت یک نامزد متهم کرد.

    تماس روباتیکی که با صدای بایدن انجام شد، از رای‌دهندگان خواست تا در انتخابات مقدماتی نیوهام‌شپیر رأی ندهند و به جای آن در ماه نوامبر رأی دهند.

    این تماس اولین استفاده شناخته‌شده از تکنولوژی دیپ‌فیک در سیاست ایالات متحده بود و موجی از درخواست‌ها برای تنظیم استفاده از هوش مصنوعی در انتخابات به‌وجود آورد.

    صدای جعلی بایدن در این تماس هزاران رای‌دهندهٔ مرحلهٔ مقدماتی نیوهام‌شپیر را تشویق کرد تا در خانه بمانند و «رای خود را حفظ کنند».

    کرمر در کارزار ریاست‌جمهوری نماینده دین فیلیپس (دموکرات مینه‌سوتا) که گزینه‌ای کم‌احتمال بود، مشغول به کار بود. او پیش از این گفته بود که تیم فیلیپس با طرح تماس روباتیک او ارتباطی ندارند و از آن بی‌اطلاع بوده‌اند.

  • چگونه با مادربزرگ دربارهٔ ChatGPT صحبت کنیم

    تصویر یک زن سالخورده که لوگوی OpenAI در عینک او منعکس شده است.

    تصویر: Allie Carl / Axios

    کارشناسان آداب و رسوم توصیه می‌کنند که در میز شام تعطیلات دربارهٔ سیاست و مذهب صحبت نشود، اما دلیل خوبی برای صحبت کردن دربارهٔ هوش مصنوعی وجود دارد، به‌ویژه با بستگان مسن.

    چرا مهم است: افراد سالمند هدف اصلی کلاهبرداری‌ها هستند و هوش مصنوعی به‌طوری آسان و ارزان‌قیمت‌تری می‌تواند متونی، صدا و ویدئوی جعلی متقاعدکننده‌ای تولید کند که خود را به‌عنوان بستگان در وضعیت اضطراری نشان می‌دهند.

    آمار: بزرگسالان سالمند در یک‌سوم موارد، محتوای آنلاین را اشتباه تشخیص می‌دهند، طبق یک مطالعهٔ اخیر توسط شرکت مراقبت‌های بهداشتی در منزل The CareSide و پژوهشگران دانشگاه هاروارد و دانشگاه مینه‌سوتا.

    • در یک آزمون کوتاه، سالمندان شرکت‌کننده حدود یک‌سوم زمان‌ها محتواهای واقعی را جعلی و یا محتواهای جعلی را واقعی می‌نامیدند، حتی اگر نسبت به توانایی خود در تشخیص تفاوت اطمینان داشته باشند.

    راهنمای مختصر برای کمک به بستگان (و خودتان) در عبور از دنیای آنلاین که مرزهای بین آثار انسانی و ماشینی در هم می‌آمیزد.

    درک چگونگی کار مدل‌های زبانی بزرگ (LLM) (و اینکه چه کار نمی‌کنند)

    نگاه کلی: برای درک یا کمک به دیگران در درک هوش مصنوعی، نیازی به داشتن دکترای یادگیری ماشین ندارید.

    • مدل‌های زبانی بزرگ (LLM) که چت‌بات‌ها را تقویت می‌کنند، جادو نیستند؛ آن‌ها ماشین‌های پیش‌بینی هستند که کلمه (یا پیکسل یا فریم ویدئویی) بعدی محتمل‌ترین را حدس می‌زنند.
    • ربات‌ها نیز هوشمند هستند؛ دوستانه، شوخ‌طبع و می‌توانند همدلی را شبیه‌سازی کنند. و اگرچه در عدم هماهنگی خودکار با دید کاربر پیشرفت می‌کنند، اما هنوز برای گفتن چیزی که می‌خواهید بشنوید، پاداش می‌گیرند.
    • به گفتهٔ پژوهشگر هاروارد، فِرد هیدینگ، حذف حس شرمندگی از عدم درک چگونگی کار این همه چیز مهم است، به‌ویژه اگر عزیزتان قربانی یک کلاهبرداری شده باشد.

    در مورد آن صحبت کنید

    نمونه‌ای از این مسأله: اطمینان حاصل کنید که بستگان شما از کلاهبرداری‌های تلفنی و پیامکی آگاهند. در مورد این‌که یک تماس یا پیام مشکوک می‌تواند چگونه به نظر برسد توضیح دهید: «نوه‌ای در دردسر»، بانکی که طلب پرداخت فوری دارد، یا مراقبی که درخواست کارت‌های هدیه اضطراری می‌کند.

    • به پدربزرگ و مادربزرگ بگویید که همیشه می‌توانید تماس را قطع کنید و با شماره‌ای که می‌شناسند بازگردید، یا پیش از ارسال پول، در پیام گروه خانوادگی بررسی کنید.
    • یک «کلمهٔ ایمن» خانوادگی تدوین کنید تا به‌سادگی هویت یک بستگان را در تماس یا پیام تأیید کنید. «این می‌تواند به‌عنوان یک پل نرم برای گفتگو دربارهٔ خطرات هوش مصنوعی به‌طور کلی با مادربزرگ‌ها باشد»، سارا دولی، بنیانگذار AI‑Empowered Mom، به Axios گفت.

    آموزش “نشانه‌های” هوش مصنوعی

    بین خطوط: تولیدکنندگان متن، تصویر و ویدئو به‌تدریج واقع‌گرایانه‌تر می‌شوند، اما هنوز راه‌هایی برای تشخیص محتوای هوش مصنوعی وجود دارد.

    • اگر چیزی را کمی نامناسب یا مشکوک ببینید, «حس درون‌تان باید بگوید که جزئیات را دقیق‌تر بررسی کنید»، می‌گوید جِرمی کاراسکو، متخصص افشای هوش مصنوعی و مؤسس Showtools.ai در یوتیوب و تیک‌تاک.
    • اگر ویدئو شبیه ضبط دوربین امنیتی یا دوربین بدنی باشد، این شاخصی است. تولیدکنندگان ویدئوی هوش مصنوعی در ساخت صحنه‌های واقع‌گرایانهٔ دوربین‌های نظارتی مهارت دارند، چون ما به این ویدئوها که کمی «grainy» به‌نظر می‌رسند عادت داریم.

    بدانید که چت‌بات‌ها اغلب با اطمینان اشتباه می‌کنند

    چک واقعیت: امروزه اکثر مردم می‌دانند که هوش مصنوعی همیشه باید صحت‌سنجی شود. مدل‌های زبانی ممکن است هالوسینیشن داشته باشند یا اطلاعات ساختگی ارائه دهند.

    • چت‌بات‌ها همیشه با اعتماد به‌نفس صحبت می‌کنند. پاسخ‌هایشان حتی هوشمندترین کاربران را می‌تواند فریب دهد.
    • ویدئوها به‌ویژه ما را آموزش می‌دهند تا به‌سرعت و به‌صورت غریزی واکنش نشان دهیم، بدون اینکه سؤالاتی که معمولاً می‌پرسیم، بپرسیم. «دقت و آگاهی مهم‌ترین مهارت‌هایی هستند که باید بازسازی شوند، به‌ویژه برای سالمندانی که در دنیایی بزرگ شدند که عکس‌ها و ویدئوها بودند شواهد»، روبِرتا اشمید، سردبیر NewsGuard، به Axios گفت.
    • با افراد سالمند بنشینید و از چت‌بات مورد علاقهٔ آن‌ها سؤالی بپرسید که عزیزتان به‌خوبی می‌داند. ببینید آیا می‌توانند اشکالات پاسخ‌های آن را پیدا کنند.

    به‌عمق بروید: ساده‌ترین راهنمای استفاده از چت‌بات‌ها.

  • آیا این هوش مصنوعی است — یا سقوط هواپیما؟

    در عصر هوش مصنوعی، یکی از برجسته‌ترین بازرسان فدرال حوادث، دربارهٔ تأثیر احتمالی این فناوری بر عموم مردم پس از وقوع فجایع نگران است.

    تصویری شامل پست X از یک تصویر مشکوک تولیدشده توسط هوش مصنوعی از سقوط هواپیما.

    تصویری شامل پست X که دیگر در دسترس نیست، از یک تصویر مشکوک به‌دست‌آمده توسط هوش مصنوعی از سقوط هواپیمای ژانویه در واشینگتن. | تصویر توسط بیل کوچمن/POLITICO (منبع تصویر از X)

    توسط سام اوگوزالک

    حدود ۱۱ ساعت پس از بزرگ‌ترین فاجعه هوایی کشور در بیش از دو دهه، یک کاربر X تصویر دراماتیکی از نجات‌بخشانی که بر فراز بقایای سقوط در رودخانهٔ پوتاماک می‌رفتند، به همراه نورهای اضطراری که آسمان شب را روشن می‌کردند، منتشر کرد.

    اما این واقعی نبود.

    این تصویر که پس از سقوط مرگبار ژانویه بین یک جت منطقه‌ای و هلیکوپتر بلک‌هاک ارتش، بیش از ۲۱٬۰۰۰ بازدید دریافت کرد، با عکس‌های بدنهٔ خراب شده‌ای که پس از فاجعهٔ ۲۹ ژانویه گرفته شده‌اند — یا مشاهدات افسران پلیس واشنگتن که به صحنه واکنش نشان دادند — که توسط سخنگوی ادارهٔ پلیس، تام لینچ، بیان شد، مطابقت ندارد.

    یک بررسی خبرگزاری به‌سرعت این تصویر را به‌عنوان جعل شناسایی کرد — احتمالاً با استفاده از هوش مصنوعی، بر پایهٔ «DeepFake‑o‑meter» توسعه‌یافته توسط دانشگاه بوفالو. سه ابزار تشخیص هوش مصنوعی که توسط POLITICO به کار رفته‌اند نیز آن را به‌عنوان محتملاً تولید شده توسط هوش مصنوعی علامت‌گذاری کردند. این پست دیگر در دسترس نیست؛ X می‌گوید حساب کاربری معلق شده است.

    اما این تصویر یک مورد منزوی در فضای آنلاین نیست. بررسی POLITICO شواهدی یافت که محتوای تولیدشده توسط هوش مصنوعی به‌صورت روال در پی فجایع حمل‌ونقل در حال ظاهر شدن است، از جمله پس از سقوط هواپیمای باری UPS که در اوایل این ماه ۱۴ نفر را کشته بود. پست‌های مرتبط با حوادث هوایی که در این داستان برجسته شده‌اند، از کاربران بودند که به درخواست‌های نظرسنجی برای اظهار نظر پاسخ ندادند.

    پدیدهٔ رو به رشد این امر متخصصانی مانند جنیفر هومندی، برترین بازرس حوادث حمل‌ونقل کشور، را نگران می‌کند.

    «من بسیار نگرانم که با استفاده از هوش مصنوعی، واقعاً می‌تواند درک عمومی و مسافران را تحت تأثیر قرار دهد»، جنیفر هومندی، رئیس هیئت ملی ایمنی حمل‌ونقل (NTSB)، در یک انجمن خلبانان خطوط هوایی (ALPA) در سپتامبر گفت. NTSB در حال پیگیری تحقیقی یک‌ساله دربارهٔ علل فاجعهٔ ژانویه در واشنگتن است که منجر به مرگ ۶۷ نفر شد.

    مشاور ایمنی هوانوردی جف گوزتی تأیید کرد و گفت که انتشار محتوای ایجادشده توسط هوش مصنوعی به‌سرعت پس از یک سقوط می‌تواند گسترش اطلاعات نادرست را افزایش داده و «یکپارچگی تحقیق واقعی را زیر سؤال ببرد».

    بدترین سناریو این است که «به‌دلیل حواس‌پرتی همه، پیشگیری از حادثهٔ بعدی به‌تأخیر افتد»، گفت گوزتی، که پیشتر مقامات بلندپایه‌ای در NTSB و اداره فدرال هوانوردی (FAA) بود.

    اما او پاسخی ساده برای اینکه FAA چگونه می‌تواند به محتوای مبتنی بر هوش مصنوعی در شبکه‌های اجتماعی واکنش نشان دهد نداشت و گفت که این امر نیاز به راه‌حلی «کل‌دولت» دارد.

    در بیانیه‌ای، این سازمان هوانوردی بیان کرد که «کارزارهای اطلاعات نادرست می‌توانند خطرات ایمنی را افزایش داده و اعتماد عمومی را تضعیف کنند»، و افزود که از «تمام روش‌ها و پلت‌فرم‌های موجود برای ارائه به‌روزرسانی‌های دقیق و لحظه‌ای به مردم» استفاده می‌نماید.

    ‘متن بی‌معنی’

    اما تقلب‌ها همچنان ادامه دارند.

    استاد علوم کامپیوتر و مهندسی دانشگاه بوفالو، سی‌وئی لیو، به ضبط ۹۱۱ ادعایی از سقوط پل فرانسس اسکات کی در سال گذشته در بالتیمور که پس از فاجعه به‌سرعت در شبکه‌های اجتماعی پخش شد و ادعا می‌شد از یک راننده بود که خودروش پس از سقوط در آب در حال غرق شدن بود، اشاره کرد. او گفت ممکن است این صدا توسط هوش مصنوعی ساخته شده باشد — با یک «نشانه واضح» یعنی «قالب آرام گفت‌وگو که با اضطراری بودن وضعیت سازگار نیست».

    به‌تازگی، POLITICO ویدئویی که به‌نظر می‌رسید توسط هوش مصنوعی تولید شده، در TikTok از سقوط یک هواپیمای باربری UPS در لویی‌ویل، کنتاکی، و کنفرانس خبری بعدی NTSB دربارهٔ حادثه اوایل نوامبر یافت. دو ابزار تشخیص هوش مصنوعی که توسط POLITICO به‌کار رفته‌اند، این محتوا را به‌عنوان احتمالاً ساخته‌شده توسط هوش مصنوعی علامت‌گذاری کردند.

    تماشا: گفت‌وگو

    هنگامی که این ویدئو که شامل تصاویری با وضوح بالا از نمای زیرین هواپیمای سوختگی هنگام پرواز است، برای وی ارسال شد، سخنگوی NTSB، پیتر نادسون، اشاره کرد که این ویدئو بخشی از جلسه مطبوعاتی برگزار شده توسط هیئت ایمنی را نشان می‌دهد، اما در نهایت مطمئن نبود که آیا آن بخش با هوش مصنوعی ساخته شده است یا خیر.

    عکس رئیس هیئت ملی ایمنی حمل‌ونقل، جنیفر هومندی.

    رئیس هیئت ملی ایمنی حمل‌ونقل، جنیفر هومندی، در یک نشست هیئت در ماه ژوئیه. او در حال هشدار دادن دربارهٔ جعلی‌های فاجعه‌ای است. | Rod Lamkey Jr./AP

    اما طبق گفتهٔ لیو، این ویدئو از چندین کلیپ ۴ تا ۵ ثانیه‌ای تولیدشده توسط هوش مصنوعی «به‌هم پیوسته» و همراه با روایت متن‑به‑صدا مصنوعی تشکیل شده است.

    «محتوا شامل بسیاری از آثار آشکار هوش مصنوعی است، از جمله جابجایی‌های آتش که با حوادث واقعی ناسازگار است، اشیاء به‌صورت ناگهانی ظاهر می‌شوند، عناصر پس‌زمینه ثابت یا ناسازگار، علامت‌گذاری نادرست هواپیما، صحنه‌های جغرافیایی نادرست، و جزئیات توهمی مانند چراغ‌های تقلبی پلیس و متن بی‌معنی روی جعبه‌سیاه»، لیو گفت.

    او به‌عنوان مثال اشاره کرد که یک هواپیما در ویدئو در میانهٔ هوا ثابت ماند، در حالی که عزاداران نزدیک به یک نرده جمع می‌شدند، و در حین کنفرانس خبری NTSB، مردی در پس‌زمینه «تغییر غیرطبیعی دست را نشان میداد؛ انگشتان و مچ دست او به‌سرعت شکل می‌گیرند».

    نویسنده‌ای که نام کاربری‌اش «pulsenewsreels» است، به درخواست برای نظرآفرینی پاسخی نداد، هرچند توضیح حساب کاربری می‌گوید: «بر پایهٔ حقایقی که در زمان تهیهٔ این ویدئوها می‌دانستیم».

    ‘این واقعی نیست’

    حتی NTSB نیز می‌تواند فریب بخورد.

    هومندی، در حال سخنرانی در انجمن ALPA، به یاد آورد که پس از سقوط هواپیمای ایر اینڈیا در ماه ژوئن در احمدآباد، هند، که ۲۶۰ نفر کشته شد، «کسی از واحدهای عملیاتی ما … به من نزدیک شد و گفت: «آیا ویدئوی ایر اینڈیا را دیدی؟» من هم گفتم: «ای خدای من، چه ویدئویی؟» … او به من نشان داد و من گفتم: «این واقعی نیست».

    «مردم به این مطالب باور می‌کنند»، هومندی گفت.

    POLITICO چندین مثال از محتوای ظاهراً تولیدشده توسط هوش مصنوعی مرتبط با حادثه ایر اینڈیا پیدا کرد.

    به‌عنوان مثال، یک ویدئوی در TikTok آن‌قدر واقعی بود که حتی سه ابزار بررسی هوش مصنوعی موجود آنلاین در ارزیابی اینکه آیا توسط ماشین ساخته شده است یا نه، نظرات متفاوتی ارائه دادند (یکی گفت احتمالاً بله؛ دو دیگری مخالفت کردند). اما این تصویر با عکس‌های واقعی فاجعه که توسط سرویس خبری بین‌المللی معتبر ریتورز منتشر شده بود، مطابقت ندارد.

    نویسنده‌ای که با نام «drsun0715» شناخته می‌شود، به درخواست برای نظرآفرینی پاسخی نداد و TikTok نیز پاسخی نداد. این ویدئو هم‌اکنون در دسترس نیست.

    در مورد سقوط ژانویه نزدیک فرودگاه ملی واشنگتن رونالد ریگان، ابزارهای تشخیص هوش مصنوعی تنها نشانه‌ای نبودند که نشان دهند تصویر ادعایی واقعی نیست. لیو از دانشگاه بوفالو همچنین به «چند نکتهٔ عجیب» در آن اشاره کرد؛ از جمله «اشکال انسانی مبهم»، شخصی با نسبت سر به بدن که طبیعی به نظر نمی‌رسد و «بازتاب نور آبی مرموز» بر سطح آب.

    هنگامی که تصویر نمایش داده شد، سخنگوی NTSB، اریک وایس، افزود که شیشهٔ جلویی هواپیما شبیه شیشهٔ یک مک‌دونل‑داگلاس DC‑10 به نظر می‌رسید؛ یک جت بسیار بزرگ‌تر از بومباردیِر CRJ‑700 که در برخورد حضور داشت.

    کاربری که تصویر را به اشتراک گذاشت و با نام «254Debug» شناخته می‌شود، به درخواست برای نظرآفرینی پاسخی نداد. X نیز پاسخی نداد، هرچند حساب کاربری این فرد در حال حاضر معلق شده است. دلیل این مسأله واضح نیست.

    پست دیگر قابل مشاهده نیست.

  • هوش مصنوعی در راه است تا داستان شبانهٔ کودک‌تان را به‌دست بگیرد

    هوش مصنوعی به‌تدریج تهدیدی واقعی و جدی برای ادبیات کودکان — و یادگیری کودکان — ایجاد می‌کند.

    دختری نوزاد نشسته و با کتابی ساخته‌شده از پیکسل‌های خراب بازی می‌کند.

    تصویر از Mother Jones؛ Getty؛ Unsplash

    امروز صبح همان‌طور که هر روز صبح آغاز می‌کنم، کتابی را برای دخترم می‌خوانم. کتاب امروز، «Abuela» اثر آرتر دوروس بود که توسط الیسا کلون تصویر شده است. «Abuela» داستان شیرینی درباره دختری است که تصور می‌کند او و مادربزرگش به آسمان می‌پرند و در شهر نیویورک پرواز می‌کنند. دوروس به‌طرز ظریف واژگان و عبارات اسپانیایی را در سراسر متن می‌بافد و اغلب به خوانندگان اجازه می‌دهد معنی آن‌ها را خود کشف کنند، به‌جای ترجمه مستقیم. وقتی روزالبارا، نوهٔ دوزبانه، کشف می‌کند می‌تواند پرواز کند، به مادربزرگش می‌گوید: «Ven, Abuela. بیا، ابوالا». مادربزرگ اسپانیایی‌زبان‌اش به‌سادگی پاسخ می‌دهد: «Sí, quiero volar». استفادهٔ زبانی آن‌ها به شخصیت‌شان اشاره دارد — امری که بسیاری از نویسندگانی که برای بزرگسالان می‌نویسند، انجام نمی‌دهند.

    «Abuela» یکی از کتاب‌های مورد علاقهٔ دوران کودکی‌ام بود و اکنون یکی از کتاب‌های مورد علاقهٔ دو‑ساله‌ام نیز است. (بله، ما نسخهٔ کهنه‌ام را می‌خوانیم.) او از ایدهٔ مادربزرگی که پرواز می‌کند خوشش می‌آید؛ او از یادگیری تکه‌هایی از آنچه او «Fanish» می‌نامد لذت می‌برد؛ او از صحنه‌ای که روزالبارا و ابوالا سوار هواپیما می‌شوند خوشش می‌آید، اگرچه نگران این است که صداهای هواپیما ممکن است بسیار بلند باشد. از همه مهم‌تر، او تصاویر گرم اما پرخندهٔ کلون را دوست دارد که زندگی شهری را با جزئیات تقریباً نقطه‌نگاری به تصویر می‌کشند. هر صفحه موارد بی‌شماری برای او فراهم می‌کند تا به‌دنبالشان بگردد و برای ما نیز موضوعات بسیاری برای بحث می‌سازد. (سگ‌ها کجا هستند؟ «tío» روزالبارا چه می‌فروشد؟ چرا وقتی هواپیماها صدا می‌کنند ترسناک می‌شود؟) من احتمالاً حدود ۲۰۰ بار «Abuela» را از زمانی که در طول تابستان از والدینم برداشتم، خوانده‌ام و هیچ دو بار خواندن مشابه هم نیستند.

    هر روز صبح را با کتابی به‌قابلیتی همانند «Abuela» شروع نمی‌کنم. گاهی دخترم کتاب‌هایی را انتخاب می‌کند که دوست دارم نخوانیم: کتاب‌هایی که به‌عنوان هدیه به‌خانه‌مان رسیده‌اند یا در انبوهی از کتاب‌های هدیه‌داده‌شده وجود دارند که هنوز از بین نیاورده‌ام. این کتاب‌ها دارای هنرهای رندر شدهٔ کامپیوتری رنگارنگ و ناهنجار هستند. برخی متونشان شعرهای کودکانه است و بقیه قافیه‌های بی‌معنی دارند که به‌نظر نمی‌رسد داستانی بسازند. یک یا دو کتاب به‌موضوع تعطیلات یهودی می‌پردازند و چند کتاب دیگر سوغاتی‌های گردشگری هستند

  • درامای پیش از Renegades در Destiny 2: شایعات Destiny 3 و اتهامات هوش مصنوعی

    Renegades 2
    Destiny 2 – Bungie

    Bungie به‌تازگی مقدار زیادی زمان را صرف توضیح گسترش پیش‌روِ Renegades برای Destiny 2 کرد که قرار است هفتهٔ آینده، در ۲ دسامبر، منتشر شود. یک استریم، یک Vidoc و یک تریلر به نمایش گذاشته شد و واکنش‌ها عموماً مثبت بوده‌اند؛ این گسترش که به‌ شدت تحت تأثیر استار وارز است و به‌صورت مشترک با لوکاس‌فیلم تولید شده است. اما اکنون دو خبر جداگانه جامعه را شگفت‌زده کرده‌اند.

    اولین خبر گزارشی از چند افشاگر Bungie است که می‌گویند Destiny 3 در «توسعهٔ بسیار اولیه» قرار دارد. این برای جامعه خبری تازه است، چرا که پیش‌بینی نمی‌شد چنین طرحی در دستور کار باشد و حتی اگر در پیش‌روی باشد، چندین سال طول خواهد کشید.

    دومین خبر یک اتهام است، عمدتاً از طرف @MGecko117، که می‌گوید Bungie برای خلق هنر مفهومی تازه منتشر شده از Dredgen Bael، شخصیت اصلی گسترش Renegades، از هوش مصنوعی استفاده کرده است. Gecko حدود یک دوجین قطعه از این هنر را بررسی می‌کند و معتقد است که قطعاً توسط هوش مصنوعی ساخته شده‌اند؛ پست‌های او به تنهایی نیم‌ میلیون بازدید در توییتر کسب کرده‌اند و تعداد بیشتری بازدید از توییت‌های نقل‌شده دربارهٔ این موضوع به دست آمده است.

    طرح مفهومی Destiny
    طرح مفهومی Destiny – Bungie

    نظرات من به این صورت است:

    Destiny 3 – اگر حتی حداقل در Bungie مورد بحث قرار گیرد، تعجب‌آور خواهد بود، چرا که «توسعهٔ بسیار اولیه» می‌تواند چنین معنی را داشته باشد. سؤال این است که آیا عناوین فعلی Bungie به‌ اندازهٔ کافی موفق خواهند شد تا این امکان فراهم شود یا خیر.

    انتشار پیش‌روِ Marathon برای Bungie اهمیت بالایی دارد؛ اگر این پروژه با شکست مواجه شود، سرنوشت کل استودیو به خطر می‌افتد. در غیر این صورت، فضای بیشتری برای آینده فراهم می‌شود.

    Destiny 2 خود، چه گسترش استار وارز محکمی داشته باشد یا نه، علائمی از توانایی بازگرداندن تعداد بازیکنان نشان نمی‌دهد و جامعه به‌ طور عمده این‌نظر است که تنها راه‌حلی برای احیای این فرنچایز، یک دنباله است. البته، ساخت یک دنباله واقعی برای بازی‌ای مانند Destiny تقریباً پنج سال زمان می‌برد و شاید بیش از پنج سال طول بکشد؛ اندیشیدن به چنین آینده‌ای دور برای Bungie در حال حاضر صرفاً نظری است. انتظار نداریم Bungie در این باره نظری بدهد.

    Bael
    Destiny 2 – Bungie

    اتهامات هوش مصنوعی – صادقانه بگویم، این ادعا را قبول ندارم. این یک هنر مفهومی اولیه است و اگر یک دهه Destiny را دنبال کرده باشید، می‌دانید که بسیاری از آثار مفهومی به این سبک وجود دارد. فقط در آن زمان، مردم این‌چنین اتهامات هوش مصنوعی را با سرعت هزار مایلی پخش نمی‌کردند، در حالی که این هر روز شاهد اتهام‌زنی‌های مشابه به هنرمندان توانمند، حتی مشهور، به‌ دلیل استفاده از هوش مصنوعی هستیم.

    در مورد هنر مفهومی، هیچ‌یک از این جزئیات «مانند هوش مصنوعی» به‌نظر نمی‌رسد که غیرعادی باشند. برای مثال، یک لایت‌سِیبر بدون دسته از دست Bael بیرون آمده است. به‌نظر می‌رسد که این صرفاً یک اثبات مفهوم باشد که کسی یک تصویر PNG از تیغ لایت‌سِیبر را بر روی آن قرار داده تا ببینند چگونه به‌نظر می‌رسد. هوش مصنوعی می‌تواند به‌ طور قانع‌کننده‌ای شخصی را که لایت‌سِیبر در دست دارد نشان دهد. چندین توضیح ممکن است وجود داشته باشد؛ از روش‌های قدیمی مانند فوتوبَشینگ گرفته تا در بدترین حالت، نوعی ارتقاء توسط هوش مصنوعی که با هوش مصنوعی مولد (genAI) تفاوت دارد.

    با این حال، این موضوع کمکی نمی‌کند که Bungie در طول سال‌ها تقریباً نیم دوجین پرونده تقلب را تجربه کرده باشد و جدیدترین آن با Marathon بوده است؛ به همین دلیل بخش هنر این شرکت در حال حاضر اعتماد خیلی کمی دارد. با این‌وجود، تقلب و هوش مصنوعی مولد (genAI) دو نوع رسوایی متفاوت هستند. من فکر نمی‌کنم این اتفاق در اینجا رخ داده باشد، اما بیانیه قطعی از سوی Bungie می‌تواند کمک‌کننده باشد. تصور نمی‌کنم Bungie بخواهد در روزی که تعدادی ویدیو و مقاله مرتبط با Renegades منتشر می‌شود، این‌چنین بیانیه‌ای بدهد؛ اما بهتر است هم‌اکنون به این موضوع رسیدگی شود.

    آیا امروز بدون رسوایی‌های بیشتر می‌گریم؟ خوب، ساعت هم‌اکنون ۹ صبح است، پس شاید ببینیم.

  • آیا آزمایش DNA انجام داده‌اید؟ این چت‌بات درباره نتایج شما صحبت خواهد کرد.

    الکس کاتلار، بنیان‌گذار Bystro AI، در دفاتر استارتاپ در بوستون.
    الکس کاتلار، بنیان‌گذار Bystro AI، در دفاتر استارتاپ در بوستون. دیوید ال راین/ کارکنان Boston Globe / دیوید ال راین/ کارکنان Boston Globe

    آزمون‌های ژنتیکی ارسال‌شده توسط میلیون‌ها نفر برای ردیابی پیشینهٔ خانوادگی می‌توانند به مردم کمک کنند تا زندگی سالم‌تری داشته باشند. این همان پیشنهادی است که Bystro AI، یک استارتاپ بوستونی، با به‌کارگیری هوش مصنوعی برای استخراج درس‌های حیاتی زندگی از DNA افراد ارائه می‌دهد.

    Bystro که در سال ۲۰۲۱ تأسیس شد، ثبت‌نام کاربران برای چت‌بات هوش مصنوعی جدید خود را آغاز کرده است. افراد می‌توانند نتایج آزمون ژنتیکی خود را به آن بدهند و سپس دربارهٔ بهینه‌سازی رژیم غذایی، بهترین نوع ورزش یا احتمال ابتلا به بیماری‌های جدی مانند بیماری کلیوی یا آلزایمر سؤال کنند.

    «من فکر می‌کنم که در افراد تمایل نهفته‌ای برای داشتن کنترل بر سلامت خود وجود دارد»، الکس کاتلار، بنیان‌گذار شرکت، گفت: «و تا حد امکان می‌خواهم آن‌ها را توانمند کنم تا این کار را انجام دهند.»

    Bystro از یک سامانه هوش مصنوعی استفاده می‌کند که بر پایهٔ مقادیر وسیعی از پژوهش‌های ژنتیک و سلامت انسانی آموزش دیده است. این نسخه به صورت تجاری عرضه می‌شود تا به پزشکان و پژوهشگران کمک کند به‌سرعت داده‌های ژنتیکی مهم را برای استفاده در تحقیق و درمان بیماران استخراج کنند. شرکت انتظار دارد برای نسخهٔ حرفه‌ای بین $200 و $300 در ماه هزینه دریافت کند و همچنین برای کاربران دانشگاهی و شرکتی مجوزهایی ارائه دهد.

    اما Bystro همچنین قصد دارد نسخهٔ مصرف‌کننده‌ای با هزینهٔ $10 در ماه ارائه دهد، که برای افرادی است که اطلاعات ژنومیک خود را از سرویس‌هایی که ژنوم انسانی را تجزیه و تحلیل می‌کنند و به مردم کمک می‌کنند تا تاریخچهٔ خانوادگی خود را پیگیری کنند، مانند Ancestry یا ۲۳اندمی، خریداری کرده‌اند.

    برخی از دانشمندانی که به مطالعهٔ ژنتیک و بیماری می‌پردازند، شک کردند که چنین خدمتی برای مصرف‌کنندگان مفید باشد. آن‌ها استدلال می‌کردند که ژنتیک نقش نسبتاً کمی در اکثر بیماری‌های پزشکی دارد، در حالی که محیط و سبک زندگی مهم‌تر هستند. لینزِی فارر، استاد ژنتیک در دانشگاه بوستون، گفت که «پروفایل‌های ژنتیکی اکثر افراد خطر ابتلا به بیماری‌های شایع بزرگسالی و سالمندی را به مقدار کسرهایی معمولاً کمتر از ۵۰٪ افزایش می‌دهند. نه ۱۰۰٪.»

    یک نگرانی دیگر ممکن است حریم شخصی باشد. کاتلار می‌داند که DNA یک فرد از شخصی‌ترین اطلاعات است. او گفت Bystro سامانهٔ هوش مصنوعی خود را بر پایهٔ پژوهش‌های علمی آموزش می‌دهد، نه بر روی اطلاعات ژنتیکی کاربران. «ما نیازی نداریم که از داده‌های افراد یاد بگیریم»، او افزود. «داده‌ها به مدت زمانی که کاربر می‌خواهد از آن استفاده کند باقی می‌مانند، اما ما کاری با آن انجام نمی‌دهیم.»

    کاتلار معتقد است که افراد نگران سلامت خود حق دارند به تمام اطلاعاتی که می‌توانند دست یابند، دسترسی داشته باشند.

    یک اسکرین‌شات از پاسخ چت‌بات هوش مصنوعی Bystro به سؤال ارزیابی خطر ابتلا به بیماری کلیوی برای یک شخص، با استفاده از DNA شخص ناشناخته به عنوان آزمایش.
    یک اسکرین‌شات از پاسخ چت‌بات هوش مصنوعی Bystro به سؤال ارزیابی خطر ابتلا به بیماری کلیوی برای یک شخص، با استفاده از DNA شخص ناشناخته به عنوان آزمایش.

    او در مارس ۱۹۸۶ در اوکراین (هنوز بخشی از اتحاد جماهیر شوروی) متولد شد؛ یک ماه پس از آن انفجار رآکتور هسته‌ای در چرنوبیل رخ داد. کاتلار و خانواده‌اش با وجود مخفی‌کردن مقیاس فاجعه توسط دولت، از ناحیهٔ رادیواکتیو فرار کردند. «ما تنها چون بچه‌های ثروتمندان شوروی در حال فرار بودند، فهمیدیم که باید فرار کنیم»، کاتلار گفت.

    پس از سال‌ها آزار و اذیت ضد‌یهودی، کاتلار و مادرش در سال ۱۹۹۱ به ایالات متحده مهاجرت کردند؛ او در آن زمان پنج ساله بود. در این میان خانواده با مشکلات سلامتی متعددی روبرو شد، از جمله سرطان خون، سرطان ریه، سرطان مری و کم‌کاری تیروئید. خود کاتلار نیز برای ترمیم غضروف‌های نازک شانه‌هایش به چندین عمل جراحی نیاز داشت.

    کاتلار وارد برنامهٔ مهندسی زیست‌پزشکی دانشگاه بوستون شد، اما پس از آن به مدیریت کسب‌وکار تغییر مسیر داد؛ در همین حین عشق او به پزشکی هرگز از بین نرفت. «من روزانه ۱۲ ساعت PubMed (پایگاه دادهٔ آنلاین پزشکی) را می‌خواندم تا بفهمم چه مشکلی دارم و چطور می‌توانم خانواده‌ام را از آنچه در جریان است محافظت کنم.»

    در دانشگاه ایموری آتلانتا، کاتلار دکترای ژنتیک را با تمرکز بر توسعه ابزارهایی که به افراد امکان استخراج اطلاعات مفید از حجم وسیعی از داده‌های ژنتیکی را می‌دهد، به‌دست آورد. ظهور سامانه‌هایی مانند ChatGPT گزینهٔ قدرتمند جدیدی فراهم کرد — هوش مصنوعی‌ای که می‌تواند گفتار عادی انسان را درک کند و به زبانی پاسخ دهد که افراد عادی بتوانند آن را درک کنند.

    ایموری به دست آوردن هدیهٔ یک میلیون دلاری از یک خیرکن ناشناس برای راه‌اندازی Bystro کمک کرد. این نام هیچ ارتباطی با رستوران‌های صمیمی ندارد؛ در زبان روسی به معنای «سریع» است.

    کاربر Bystro می‌تواند بپرسد که آیا ویژگی‌های ژنتیکی خاصی دارند که ممکن است در آینده منجر به مشکلات سلامتی شوند. برای مثال، بسیاری از افراد آفریقایی‌تبار ژنی دارند که در برابر بیماری‌های انگل‌زا محافظت می‌کند، اما احتمال ابتلا به بیماری کلیوی را به‌طور چشمگیری افزایش می‌دهد.

    یا کاربر می‌تواند بپرسد که آیا یک مشکل پزشکی موجود ممکن است علت ژنتیکی داشته باشد. به‌عنوان مثال، کسی که به‌طور مکرر دچار سوءهاضمه است می‌تواند بفهمد که به‌صورت ژنتیکی مستعد عدم تحمل لاکتوز است.

    اما ساموئل اسکارپینو، مدیر هوش مصنوعی و علوم زیستی در مؤسسهٔ AI تجربی دانشگاه نورث‌ایسترن، گفت که عوامل محیطی برای اکثر افراد نقش بسیار بزرگ‌تری نسبت به ژنتیک دارند. «حتی اگر سیگنالی از کد ژنتیکی به‌دست آید، احتمالاً توسط انتخاب‌های سبک زندگی یا مکان تولد شما به‌مراتب تحت‌ سوال خواهد بود»، اسکارپینو افزود. «تمام این عوامل متنوع تأثیر بسیار بزرگ‌تری خواهند داشت.»

    با این حال، نظرسنجی‌ای توسط مرکز پزشکی دانشگاه تگزاس ساؤت‌وسترن تخمین می‌زند که ۴۰٪ از ساکنان ایالات متحده نوعی آزمایش ژنتیکی را انجام داده‌اند. کاتلار معتقد است که بسیاری از آن‌ها خوشحالانه برای یک چت‌بات DNA ثبت‌نام خواهند کرد.

    «با Bystro، هر کسی که ژنوم و یک سؤال داشته باشد می‌تواند گفت‌وگویی با زیست‌شناسی خود آغاز کند»، او گفت.

  • تبلیغ هوش مصنوعی مولد EA هم‌اکنون شامل طرح جلد می‌شود

    برای نمایش NHL 26 نسخهٔ لوکس از ابزارهای هوش مصنوعی استفاده شد

    AIEANHL ۲۶

    تصویر جلد نسخهٔ لوکس NHL 26، خانوادهٔ تاکچاک را نشان می‌دهد
    الکترونیک آرتس

    نسخهٔ لوکس NHL 26 خانوادهٔ تاکچاک را بر روی جلد به نمایش می‌گذارد. متیو تاکچاک از تیم پانترز و برادی تاکچاک از تیم سناتورز در کنار پدرشان، پیشروی افسانه‌ای کیت تاکچاک، زیر نورهای روشن روی یک یخ‌پست مه‌آلود به تصویر کشیده شده‌اند. آنچه EA تا پیش از این فاش نکرده بود این است که برای ساخت اثر تبلیغاتی نسخهٔ صد دلاری، از ابزارهای هوش مصنوعی مولد بهره برده است.

    شرکت این دستاورد را در یک ارائه داخلی اخیر به تیم تجربه بازیکنان خود، طبق مدارکی که Kotaku بررسی کرده، برجسته کرد. در بخشی که توسط سرپرست طولانی‌مدت بازاریابی ورزشی EA، پاول مار، رهبری می‌شد، به کارکنان توضیح داده شد که شرکت چگونه از ابزارهای هوش مصنوعی مانند GPT و Comfy UI در فرآیند تولید طرح جلد استفاده کرده است.

    دو مانع اصلی برای این مفهوم وجود داشت: کیت تاکچاک دیگر پیر شده بود و هر دو پسرش در پلی‌آف‌ها مشغول بودند و برای عکاسی سنتی در دسترس نبودند. استفاده از تعویض سر به روش «کلاسیک» با فتوشاپ رد شد؛ بنابراین EA، با کسب اجازه از خانواده، روی هوش مصنوعی مولد برای جوان‌سازی کیت و بازآفرینی پسرانش تکیه کرد. در حالی که تمام این کارها تحت نظارت و بررسی خلاقان انسانی انجام شد، درصدی از نتایج نهایی که به‌صورت کامل توسط هوش مصنوعی تولید شده است نامشخص است.

    «هوش مصنوعی برای تولید نمونه‌های استیلی‌شده در مرحلهٔ اکتشاف استفاده شد»، بخشی از یک اسلاید ارائه می‌خواند. این اسلاید توضیح می‌دهد که تیم مار از کتابخانه‌ای از تصاویر و حالات برای هر ورزشکار استفاده کرده تا هوش مصنوعی را با ظاهر آن‌ها آموزش دهد. همچنین از تصاویر مرجع «از حال و گذشته» برای آموزش مدلی به‌منظور جوان‌سازی کیت و تولید «کیت در اوج فرم» بهره گرفته شد. یک مرحلهٔ نهایی هوش مصنوعی برای یکسان‌سازی نورپردازی بین مدل‌های مختلف به کار رفت و سپس برای تکمیل نهایی به فتوشاپ بازگشت.

    طرح جلد نسخهٔ لوکس NHL 26 جدیدترین نمونه‌ای است از اینکه چگونه شرکت‌های بازی‌ساز حتی در حالی که بازیکنانشان در برابر هرگونه حضور هوش مصنوعی معترض هستند، از این فناوری بهره می‌برند. به‌ویژه EA در حال دویدن برای پذیرش این فناوری است. بیش از یک سال پیش، آندرو ویلسون، مدیرعامل شرکت، به‌صراحت استفاده از هوش مصنوعی توسط EA را برای کمک به خلق هزاران چهره مورد نیاز برای بازگشت نسخهٔ پرفروش College Football تحسین کرد.

    «اگر هوش مصنوعی را به خود رها کنید، کار شما استثنایی نخواهد شد»

    اما برخی از کارمندان در خط مقدم با فناوری مخالف هستند؛ چند نفر به‌تازگی به Business Insider گفتند که هوش مصنوعی کدهای برنامه‌نویسی با خطا تولید می‌کند، پاسخ‌های توهمی و بی‌فایده می‌دهد یا روی رویه‌های کاری خودشان آموزشی می‌گیرد که می‌تواند امنیت شغلشان را به خطر بیندازد.

    «ما هوش مصنوعی را به‌عنوان شتاب‌دهنده‌ای قدرتمند برای خلاقیت، نوآوری و ارتباط با بازیکن می‌بینیم»، ویلسون در گزارش نتایج مالی ماه مه به سرمایه‌گذاران گفت. «در تمام تیم‌های‌مان، ما در حال سرمایه‌گذاری در جریان‌ها و قابلیت‌های جدید برای ادغام هوش مصنوعی به‌منظور بهبود نحوه ساخت، مقیاس‌پذیری و شخصی‌سازی تجارب هستیم؛ از جهان‌های پویا داخل بازی تا ارائه شبیه‌سازی‌های اصیل از ورزشکاران و تیم‌ها در مقیاس‌های شگفت‌انگیز. توسعه‌دهندگان ما از هوش مصنوعی برای گسترش مرزهای ممکن در طراحی، انیمیشن و روایت‌گری استفاده می‌کنند که به ما کمک می‌کند بازی‌پذیری عمیق‌تر و جذاب‌تری ارائه دهیم.»

    این به‌طور عملی چه معنایی دارد؟ ارائه مار سرنخی کوچک می‌دهد. در «یادگیری‌های کلیدی» از تجربهٔ پوشش جلد نسخهٔ لوکس NHL 26، او به سایر کارمندان توصیه می‌کند که مشاورهٔ حقوقی دریافت کنند اما استفاده از هوش مصنوعی را از همان ابتدا آغاز کنند، چون مدل‌ها ممکن است زمان‌بر برای آموزش باشند. همچنین سعی می‌کند تمایزی مبهم بین این که هوش مصنوعی تمام کارها را انجام می‌دهد و این که انسان‌ها هنوز در کنترل فرایند خلاقانه هستند، حفظ کند.

    «از هوش مصنوعی برای گسترش جاه‌طلبی خود استفاده کنید»، یکی از اسلایدهای ارائه می‌خواند. «اگر هوش مصنوعی را به تنهایی رها کنید، کار شما استثنایی نخواهد شد». در زیر این جملهٔ پرمعنا، اسکرین‌شاتی از سرخطی که تخفیف هوش مصنوعی اخیر کوکاکولا را «چشم‌پوشی بی‌نظم» توصیف می‌کرد، نشان داده شده است. این حس به‌نظر می‌رسد که ابزارهای هوش مصنوعی بهترین کارایی را دارند زمانی که هیچ‌کس نتواند تشخیص دهد که اصلاً از آن‌ها استفاده شده است.

    دنیای جدید شجاعانهٔ هوش مصنوعی برای فروش بسته‌های کارت

    شرکت EA هم‌اکنون در فرآیند فروش به عربستان سعودی و دیگر کشورها به‌عنوان بخشی از خرید مالی ۵۵ میلیارد دلاری است. بر اساس گزارش The Financial Times، سرمایه‌گذاری‌های بزرگ بر هوش مصنوعی یکی از راه‌هایی است که انتظار می‌رود شرکت برای پرداخت بدهی‌های خود در آینده از آن استفاده کند. برخی از کارمندان نگران این هستند که این موضوع می‌تواند به کاهش نیروها و تجربهٔ ضعیف‌تری برای بازیکنان منجر شود.

    بخش دیگری از ارائه داخلی به استفاده از ابزارهای هوش مصنوعی خدمات مشتری برای ارائهٔ کمک درون‌بازی به بازیکنان اشاره داشت. به‌عنوان مثال، اگر بازیکن در گذر جدید College Football دچار مشکل شود، یک چت‌بات می‌تواند لینک‌های راهنمای آنلاین یا ویدئوهای کوتاه آموزشی را نمایش دهد. اما یک نمونهٔ نظری برای کاربردهای ممکن این فناوری، گزینهٔ سوم را نیز نشان می‌دهد: خرید بسته‌های کارت.

    «یا این بسته می‌تواند به‌سرعت‌تری به شما در پیشرفت کمک کند»، این پیشنهاد در یک اسلاید ارائه روی صفحه نمایان شد. روبات ادامه می‌دهد: «در آن کوارتر‑بک‌ها و گیرنده‌های با آمار دقت سطح بالایی وجود دارد – عالی برای تقویت مسیرها و پرتاب‌های کوتاه». شواهدی وجود ندارد که EA در حال حاضر در نظر داشته باشد چنین ویژگی‌ای را در بازی‌های واقعی خود پیاده‌سازی کند، اما این تصویر واضحاً توضیح می‌دهد چرا بسیاری از بازیکنان به‌صورت واکنشی با هوش مصنوعی مخالف هستند.

    EA از بیان نظرات خودداری کرد.

    به‌روزرسانی 11/26/25 12:08 p.m. ET: EA تأیید کرد که خانوادهٔ تاکچاک اجازهٔ استفاده از هوش مصنوعی را داده‌اند.

  • شرکت Anthropic Opus 4.5 را با ادغام‌های جدید برای کروم و اکسل عرضه کرد

    دوشنبه، شرکت Anthropic Opus 4.5، آخرین نسخه از مدل پرچم‌دار خود را اعلام کرد. این آخرین مدلی است که از سری مدل‌های 4.5 شرکت منتشر می‌شود؛ پس از عرضه Sonnet 4.5 در ماه سپتامبر و Haiku 4.5 در ماه اکتبر.

    همان‌طور که انتظار می‌رفت، نسخه جدید Opus عملکرد پیشرفته‌ای در مجموعه‌ای از معیارهای ارزیابی دارد؛ از جمله معیارهای کدنویسی (SWE-Bench و Terminal-bench)، استفاده از ابزارها (tau2-bench و MCP Atlas) و حل مسایل عمومی (ARC-AGI 2، GPQA Diamond).

    قابل‌توجه است که Opus 4.5 اولین مدلی است که در بنچمارک معتبر SWE-Bench (تأیید شده) بالای 80٪ نمره کسب کرده است.

    شرکت Anthropic همچنین بر توانایی‌های استفاده از کامپیوتر و کار با صفحات‌گسترده توسط Opus تأکید کرد و برای نشان دادن عملکرد مدل در این زمینه‌ها، مجموعه‌ای از محصولات همزمان را راه‌اندازی کرد. به‌همراه Opus 4.5، Anthropic محصول «Claude برای کروم» و «Claude برای اکسل»—که پیش از این در مرحلهٔ آزمایشی بودند—را به‌صورت گسترده‌تر در دسترس قرار می‌دهد. افزونهٔ کروم برای تمام کاربران Max در دسترس خواهد شد؛ در حالی که مدل مخصوص اکسل برای کاربران Max، تیم و سازمان‌های بزرگ (Enterprise) فراهم خواهد شد.

    Opus 4.5 همچنین شامل بهبودهای حافظه برای عملیات با زمینه طولانی است؛ که این امر نیازمند تغییرات اساسی در نحوه مدیریت حافظهٔ مدل بوده است.

    Dianne Na Penn، سرپرست مدیریت محصول پژوهشی در Anthropic، به TechCrunch گفت: «بهبودهایی در کیفیت زمینه طولانی عمومی در حین آموزش Opus 4.5 اعمال کرده‌ایم، اما پنجره‌های زمینه به‌تنهایی کافی نخواهند بود. دانستن جزئیات درست برای به‌خاطره سپردن، به‌مقدار داشتن پنجرهٔ زمینهٔ طولانی، اهمیت بسیار دارد.»

    این تغییرات همچنین امکان ویژگی «چت بی‌پایان» را که کاربران پرداختی Claude منتظر آن بودند، فراهم کرد. این قابلیت باعث می‌شود که گفت‌وگوها هنگام پر شدن پنجرهٔ زمینه، بدون وقفه ادامه یابند؛ در عوض، مدل حافظهٔ زمینه را فشرده‌سازی می‌کند بدون اینکه کاربر را از این موضوع مطلع کند.

    بسیاری از این به‌روزرسانی‌ها با نگرشی به موارد استفادهٔ عامل‌محور انجام شده‌اند؛ به‌ویژه سناریوهایی که در آن Opus به‌عنوان عامل اصلی، گروهی از زیرعامل‌های مبتنی بر Haiku را هدایت می‌کند. مدیریت این وظایف نیازمند کنترل قوی بر حافظهٔ کاری است؛ جایی که بهبودهای حافظه‌ای که پن توصیف کرده، به‌خوبی ارزش خود را نشان می‌دهند.

    پن می‌گوید: «در این مرحله، اصولی همچون حافظه واقعاً اهمیت می‌یابند، زیرا Claude باید قادر باشد تا کدهای بزرگ و مستندات گسترده را مرور کند و همچنین بدانند چه زمانی باید به‌عقب‌گرد رفته و موضوعی را دوباره بررسی کند.»

    Opus 4.5 با رقابت شدیدی از سوی مدل‌های پیشرو که به‌تازگی عرضه شده‌اند، مواجه خواهد شد؛ به‌ویژه GPT 5.1 شرکت OpenAI (منتشر شده در 12 نوامبر) و Gemini 3 شرکت گوگل (منتشر شده در 18 نوامبر).

    موضوعات: هوش مصنوعی، Anthropic، Claude، پنجره‌های زمینه، اکسل، TC

  • سرویس پخش علمی Curiosity Stream در حال حاضر یک شرکت مجوزدهی هوش مصنوعی است

    دارندهٔ Curiosity Stream بیشتر محتوا را برای شرکت‌های هوش مصنوعی در اختیار دارد تا برای مشترکین.

    همه ما به روش‌های معمول سرویس‌های پخش برای کسب درآمد بیشتر آشنا هستیم: جذب مشترکین بیشتر، افزایش هزینهٔ الاشتراک‌ها و فروش تبلیغات. اما سرویس پخش علمی Curiosity Stream مسیر جدیدی را در پیش می‌گیرد که می‌تواند نحوه بقا و استراتژی شرکت‌های پخش، به‌ویژه گزینه‌های خاص، را بازنگری کند.

    تصویر صفحه نمایش و لوگوی Curiosity Stream

    جان هندریکس، بنیان‌گذار کانال Discovery، Curiosity Stream را در سال ۲۰۱۵ راه‌اندازی کرد. هزینه این سرویس پخش سالانه ۴۰ دلار است و شامل تبلیغات نمی‌شود.

    کسب‌وکار پخش به‌گونه‌ای گسترش یافته که شامل کانال تلویزیونی Curiosity Channel نیز می‌شود. CuriosityStream Inc. از طریق برنامه‌های اصیل و برنامه آموزشی Curiosity University نیز درآمد دارد. این شرکت پس از تقریباً یک دهه فعالیت، برای اولین بار در سه‌ماهه اول مالی سال ۲۰۲۵ سود خالص مثبت ثبت کرد.

    با تمرکز بر علم، تاریخ، پژوهش و آموزش، Curiosity Stream همواره بازیکن کوچکی نسبت به سایر سرویس‌های پخش خواهد بود. تا مارس ۲۰۲۳، این سرویس ۲۳ میلیون مشترک داشت که در مقایسه با ۳۰۱٫۶ میلیون کاربر Netflix (تا ژانویه ۲۰۲۵) تعداد اندکی بود.

    با این حال، در بازاری بسیار رقابتی، درآمد Curiosity Stream در گزارش مالی سه‌ماهه سوم ۲۰۲۵ که این ماه اعلام شد، ۴۱ درصد نسبت به سال گذشته افزایش یافت. این رشد عمدتاً به‌علت اعطای مجوز برنامه‌های اصیل Curiosity Stream برای آموزش مدل‌های زبان بزرگ (LLMها) بود.

    «با نگاه به اعداد سال جاری، درآمد حاصل از مجوزدهی تا سپتامبر ۲۳٫۴ میلیون دلار بوده است، که … این رقم پیش از نصف درآمد کسب‌وکار اشتراکی ما در تمام سال ۲۰۲۴ است»، فیلیپ هیدن، مدیر مالی Curiosity Stream، در تماس تلفنی با سرمایه‌گذاران این ماه گفت.

    تا به امروز، Curiosity Stream ۱۸ پروژه مرتبط با هوش مصنوعی را که شامل «دارایی‌های ویدئویی، صوتی و کدی» می‌شود، با نه شریک تکمیل کرده است؛ این موضوع در بیانیه‌ای در اکتبر اعلام شد.

    شرکت پیش‌بینی می‌کند تا سال ۲۰۲۷، درآمد حاصل از قراردادهای مجوزدهی مالکیت فکری با شرکت‌های هوش مصنوعی، بیش از درآمد حاصل از اشتراک‌ها باشد؛ «احتمالاً زودتر»، مدیرعامل کلینت استینچ‌کامب در تماس مالی گفت.

    به‌عبارت دیگر، Curiosity Stream که پیش از این به‌عنوان یک شرکت پخش شناخته می‌شد، اکنون به‌طور کامل وارد حوزهٔ مجوزدهی هوش مصنوعی شده است. این یک کار جانبی نیست؛ بلکه یکی از ستون‌های کلیدی این شرکت پخش (در کنار اشتراک‌های پخش و تبلیغات) است که امید دارد رشد چندسالهٔ خود را تقویت کند.

    در سخنرانی خود در رویداد «آیندهٔ ویدئو» برگزار شده توسط Parks Associates در این هفته، تحلیل‌گر شرکت Needham، لورا مارتین، اشاره کرد که Curiosity Stream ۳۰۰٬۰۰۰ ساعت از محتوای خود و همچنین ۱٫۷ میلیون ساعت محتوای شخص ثالث را به‌صورت مجوز می‌دهد. او افزود که درآمد حاصل از مجوزدهی هوش مصنوعی با این اشخاص ثالث به‌اشتراک‌گذاشته می‌شود.

    در واقع، Curiosity Stream محتوای بیشتری را به فراسازان (hyperscalers) و توسعه‌دهندگان هوش مصنوعی می‌فروشد تا به مخاطبان پخش. کتابخانهٔ این شرکت شامل ۲ میلیون ساعت محتواست، اما «بیشتر بخش عمدهٔ این محتوا برای مجوزدهی هوش مصنوعی است»، استینچ‌کامب گفت.

    «ما حجم حقوق خود را در پلتفرم‌های سنتی افزایش می‌دهیم، اما بیشترین بخش آن برای مجوزدهی هوش مصنوعی است»، او افزود.

    راهی نوین برای پیشرفت

    موفقیت Curiosity Stream در مجوزدهی محتوا به شرکت‌های هوش مصنوعی می‌تواند توجه سایر شرکت‌های پخش را جلب کند که به‌دنبال منابع درآمدی جدید برای تأمین مالی محتوای جدید، فناوری، بازاریابی، نیروی کار و سایر ابتکارات هستند و قصد دارند رضایت سرمایه‌گذاران را جلب کنند. در رویداد این هفته، مارتین هشدار داد که سایر شرکت‌های متمرکز بر محتوا، همان‌گونه که Curiosity Stream عمل کرده، باید مسیرهای درآمدی جدیدی پیدا کنند، وگرنه «به‌دست رقبای خود از بازار خارج خواهند شد».

    با ارائه برنامه‌های اصلی و ارتباطات با دارندگان مالکیت فکری، استینچ‌کامب بر این باور است که این فرصت در حال رشد است.

    «در سال ۲۰۲۷، احتمالاً حتی زودتر، با دسترسی بیشتر به مدل‌های منبع باز، ممکن است صدها و حتی هزاران شرکت نیاز به ویدئو برای تنظیم دقیق مدل‌های خاص برای اهداف مصرف‌کننده و سازمانی داشته باشند»، او گفت.

    با این حال، فرض کردن اینکه مجوزدهی محتوا به شرکت‌های هوش مصنوعی یک کسب‌وکار بلندمدت است، ریسک‌پذیری محسوب می‌شود. در این مرحلهٔ اولیهٔ هوش مصنوعی مولد، هنوز مشخص نیست که فراسازان تا چه میزان و برای چه مدت زمانی مایل به پرداخت به شرکت‌های محتوا هستند. دعاوی جاری نیز می‌توانند روی نحوهٔ برخورد شرکت‌ها با مالکیت فکری که توسط مدل‌های زبان بزرگ استفاده می‌شود تأثیر بگذارند. همانند سازمان‌های دیگر که به‌تازگی به مجوزدهی محتوا به شرکت‌های هوش مصنوعی روی آورده‌اند، از جمله مالک Ars Technica، Conde Nast، مجوزدهی مالکیت فکری می‌تواند همانند یک نجات‌بخش باشد که همزمان آنچه که به زودی ممکن است به رقبای ما تبدیل شود، تغذیه می‌کند.

    اما در وضعیت فعلی، هر سرویس پخش احتمالاً نمی‌تواند سال‌های آینده را بگذارد. مشتریان سرویس‌های پخش به‌طور فزاینده‌ای از دشواری یافتن محتوا برای تماشا شکایت می‌کنند. مردم از داشتن چندین اشتراک پخش خسته شده‌اند و تقاضا برای کاهش تکه‌تکه شدن محتوا بسیار قوی است.

    به همین دلیل، انتظار می‌رود ادغام‌ها و خریدهای بیشتری میان شرکت‌های پخش صورت گیرد. بنابراین، از جهات مختلف، به‌نظر می‌رسد این زمان حساس برای شرکت‌های پخش است تا به‌سرعت ارزش‌اندازی کنند. مجوزدهی مالکیت فکری به شرکت‌های هوش مصنوعی که به‌دنبال داده‌اند و سرمایه‌دار هستند می‌تواند بلافاصله کمک‌کننده باشد. اما پیامدهای بلندمدت هنوز دشوار به‌دست آوردن هستند.

    از سمت خود، Curiosity Stream همچنان به‌دنبال گسترش کسب‌وکار اشتراک و تبلیغات خود است. و مدیران می‌خواهند نشان دهند که دربارهٔ قراردادهای هوش مصنوعی به‌صورت بلندمدت فکر می‌کنند. به گفتهٔ استینچ‌کامب:

    «ما همچنین فرصت واقعی برای مجوزدهی فراتر از صرفاً حق آموزش می‌بینیم. اعطای حقوق افزایشی مانند حق نمایش، حق تحول، حق اقتباس، یا حتی برخی حقوق مشتق که ممکن است هنوز نام‌گذاری نشده باشند، می‌تواند مورد توجه باشد. منظور من این است که ما در حال ایجاد روابط بلندمدت هستیم و متعهدیم اطمینان حاصل کنیم که در تمام این توافق‌نامه‌ها، فقط یک بار کار نکنیم.»