دسته: هوش مصنوعی

  • مدیر اجرایی Anthropic ربات چت هوش مصنوعی را به‌اجبار بر جامعهٔ دیسکورد همجنسگرایان اعمال می‌کند؛ اعضا می‌گریزند

    مدیر اجرایی Anthropic ربات چت هوش مصنوعی را به‌اجبار بر جامعهٔ دیسکورد همجنسگرایان اعمال می‌کند؛ اعضا می‌گریزند
    عکس توسط appshunter.io / Unsplash

    یک جامعهٔ دیسکورد برای بازیکنان همجنس‌گرایان پس از این‌که یکی از مدیران آن و یک مدیر اجرایی Anthropic ربات چت هوش مصنوعی شرکت را به‌اجبار در دیسکورد اعمال کردند، علیرغم اعتراضات اعضا، در وضعیت آشوبی قرار گرفته است. 

    کاربران رأی دادند تا Claude شرکت Anthropic را به‌فقط در کانال مخصوص خود محدود کنند، اما جیسون کلینتون، معاون رئیس امنیت اطلاعات (CISO) Anthropic و یکی از مدیران این دیسکورد، این تصمیم را نادیده گرفت. طبق گفتهٔ اعضای این جامعهٔ دیسکورد که به شرط گمنامی با 404 Media مصاحبه کردند، دیسکوردی که پیش از این پرجنب‌وجوش بود، اکنون به یک شهر متروکه تبدیل شده است. آن‌ها ربات چت و رفتار کلینتون پس از راه‌اندازی آن را مقصر می‌دانند. 

  • چگونه عوامل هوش مصنوعی خرید رسانه برای کمپین CTV یک برند نوشیدنی را برنامه‌ریزی کردند

    نوشیدنی کنسروی Clubtails Sunny Margarita بر روی یخ
    Clubtails در حال اجرای یک کمپین تبلیغاتی تلویزیون متصل است که از طریق عوامل هوش مصنوعی، ارتباط بین آژانس Butler/Till و سامانه SSP PubMatic برقرار می‌شود. (clubtails.com)

  • دوربین‌های زنده در نیواورلئین چهره‌ها را ردیابی می‌کنند. چه کسی باید آن‌ها را کنترل کند؟

    مارتین کسته ۲۰۱۰

    مارتین کسته

    نیواورلئین پیشگام در نظارت با شناسایی چهره زنده

    برایان لاگارد، بنیان‌گذار پروژه نولا، جلوی دیواری از صفحه‌نمایش‌ها ایستاده است که فیدهای شبکه گسترده دوربین‌های جرم‌گیری این سازمان غیرانتفاعی را در مقر آن در نیواورلئین در تاریخ ۴ دسامبر نمایش می‌دهد. این سیستم هزاران دوربین در سراسر شهر را تحت نظارت دارد تا به نیروی انتظامی کمک کند و امنیت عمومی را ارتقا بخشد.

    عبدالعزیز برای NPR

    برایان لاگارد، بنیان‌گذار پروژه نولا، در جلوی دیواری از صفحه‌نمایش‌ها که فیدهای شبکه گسترده دوربین‌های جرم‌گیری این سازمان غیرانتفاعی را در مقر نیواورلئین در تاریخ ۴ دسامبر نشان می‌دهد، ایستاده است. این سیستم هزاران دوربین در سطح شهر را زیر نظر دارد تا به نیروی انتظامی یاری رسانده و ایمنی عمومی را ارتقا دهد.

    نیواورلئین، مهد جشن و سرور خیابان بوربون، تبدیل به اولین شهر آمریکایی شده است که یک شبکه شناسایی چهره زنده دارد. چگونگی شکل‌گیری این وضعیت، داستانی از ابتکار خصوصی و عدم اقدام سیاسی است و ممکن است سرنخی برای آینده کاربردهای ایمنی عمومی این فناوری نظارتی باشد.

    پلیس‌های سراسر کشور به‌ طور معمول پس از وقوع جرم از شناسایی چهره استفاده می‌کنند تا شناسایی متهمان ضبط‌شده در دوربین‌ها را سرعت بخشند. اما شناسایی چهره زنده، که می‌تواند شخصی را که در حال حرکت در شهر است به‌ صورت لحظه‌ای شناسایی و ردیابی کند، آهسته‌تر پذیرفته شده است. به‌ جز تجربه‌های جداگانه، ادارات پلیس از این فناوری اجتناب کرده‌اند، زیرا نگران واکنش منفی نسبت به حریم خصوصی هستند.

    در نیواورلئین، این فناوری توسط یک سازمان خصوصی غیرانتفاعی به نام پروژه نولا معرفی شد که در سال ۲۰۰۹ توسط یک افسر پیشین پلیس به نام برایان لاگارد تأسیس شد.

    «من یکی از افرادی بودم که سال‌ها پیش در یک ماشین گرم می‌نشستیم و عکس‌ها و ویدیوهای گنگسترها می‌گرفتیم»، او می‌گوید. در سال‌های پس از طوفان کاترینا، زمانی که اداره پلیس به‌ شدت کمبود نیروی انسانی داشت، او می‌گوید واضح شد که شهر به دوربین‌های بیشتری نیاز دارد. «من زود متوجه شدم که این می‌تواند یک ضریب نیروی مؤثر باشد. یک ضریب نیروی شگفت‌انگیز.»

    او می‌گوید پروژه نولا به‌ عنوان یک مرکز تجمیعی برای فیدهای ویدئویی بیش از ۵٬۰۰۰ دوربین که بر روی اموال خصوصی «داوطلبان» نصب شده‌اند، عمل می‌کند؛ این افراد هزینهٔ اتصال سالانه را می‌پردازند.

    این حجم عظیم ویدئوها باعث شد که در سال ۲۰۲۲، او قابلیت شناسایی چهره زنده را به سیستم اضافه کند.

    «ما می‌توانیم درخواست‌های «سوزن در کاه» را پردازش کنیم و نتایج بسیار موفقیت‌آمیز را به‌ مراتب سریعتر ببینیم»، او می‌گوید. «و احتمال اینکه چیزی را از دست بدهیم نیز کمتر است.»

    یک دیوار صفحه‌نمایش‌ها فیدهای شبکه گسترده دوربین‌های جرم‌گیری پروژه نولا را که طول یک اتاق را در مقر این سازمان غیرانتفاعی در نیواورلئین پوشش می‌دهد، نمایش می‌دهد.

    عبدالعزیز برای NPR

    حدود ۲۰۰ تا از پیشرفته‌ترین دوربین‌های شبکه اکنون این قابلیت را دارند. در دفاتر پروژه نولا، که در ساختمانی در پردیس دانشگاه نیواورلئین واقع شده است، مانیتورهای این دوربین‌ها به‌ طور مداوم چهره‌های افراد ناشناس را که در محلهٔ فرانسوی قدم می‌زنند، جستجو می‌کنند. وقتی چهره‌ای با یکی از تقریباً ۲۵۰ فرد موجود در «فهرست‌های داغ» پروژه نولا مطابقت داشته باشد، صدای یک کامپیوتر به کارمندان هشدار می‌دهد.

    «این همان «فهرست داغ سطح دو» است»، لاگارد هنگام صدای هشدار توضیح می‌دهد. «این شخصی است که اخیراً دیده‌ایم، مسلح، و در فعالیت‌های باند دخیل است.»

    در روزهای شلوغ، لاگارد می‌گوید صدها هم‌خوانی وجود دارد. برخی اهداف توسط سازمان‌های فدرال، ایالتی یا محلی مطلوب هستند. دیگران افرادی هستند که لاگارد به‌ صورت خودجوش و به‌ دلیل مشارکت ظاهری آنها در جرائم جدی، ردیابی می‌کند.

    او می‌گوید این اطلاعات وقتی به سطحی معین برسد، به نیروی انتظامی منتقل می‌شود.

    «ما فقط نمی‌گوییم «آه، کسی در یک محله مواد مخدر می‌فروشد و فکر می‌کنیم او بد است»،» او می‌گوید. «ما نشان می‌دهیم: «این فرکانس فروش مواد مخدر است. این نوع مواد مخدر است که می‌فروشند. این افراد مسلح هستند و رفتار تهاجمی دارند.»

    اما همکاری پروژه نولا با پلیس شهر در بهار به یک مانع برخورد کرد.

    اگرچه لاگارد می‌گوید از ابتدا نسبت به استفاده‌اش از شناسایی چهره شفاف بوده است، این موضوع همچنان بسیاری را شگفت‌زده کرد وقتی مقاله‌ای از واشنگتن پست در ماه مه جزئیات اولین سیستم این‌چنین در کشور را برای نیواورلئین منتشر کرد.

    «این در واقع مقررات محلی پلیس نیواورلئین (NOPD) را نقض کرد»، سارا ویتینگتون، مدیر حقوقی ACLU لوئیزیانا، می‌گوید. او بیان می‌کند که قانون محلی «اجازهٔ استفاده از شناسایی چهره را می‌دهد، اما اجازهٔ استفاده از این نوع شناسایی زندهٔ چهره توسط یک نهاد شخص ثالث را نمی‌دهد.»

    سرپرست پلیس نیواورلئین، آن کِرک‌پاتریک، در یک نشست مطبوعاتی در ۱ ژانویهٔ ۲۰۲۵ در نیواورلئین به رسانه‌ها می‌گوید.

    کریس گریتهَن/گتی ایمیجز

    سرپرست آن کِرک‌پاتریک می‌گوید او در آوریل، پیش از انتشار خبر، تصمیم گرفت همکاری با پروژه نولا ممکن است مخالف مقررات شهر باشد؛ بنابراین این همکاری را متوقف کرد.

    «ما تا زمانی که مطمئن نشویم که در چارچوب قانون هستیم، به‌ خصوص واضحاً، اجازهٔ هشدار لحظه‌ای به افسرها نمی‌دهیم»، کِرک‌پاتریک می‌گوید.

    با این حال، توقف کِرک‌پاتریک ناشی از مخالفت با فناوری نیست؛ برعکس، او شناسایی چهره زنده را به‌ عنوان یک ابزار ارزشمند در اجرای قانون می‌بیند.

    «ما با پروژه نولا در حربه نیستیم — می‌خواهم مطمئن شوم که ما در این باره درک مشترکی داریم. اما این یک کسب‌وکار خصوصی است»، او می‌گوید. «و شما نمی‌توانید نگرانی‌های حریم‌خصوصی خود را از طریق شرکت‌های خصوصی کنترل کنید.»

    قانون فدرال به‌ طور خاص نحوهٔ استفادهٔ نیروی انتظامی از شناسایی چهره زنده را تنظیم نمی‌کند، اما دیوان عالی در پرونده United States v. Jones حکم کرد که پلیس برای استفاده از فناوری به‌ منظور دنبال‌کردن مداوم یک شخص، باید دلیل احتمالی و حکم داشته باشد.

    پروفسور حقوق دانشگاه واشنگتن، رایان کالو، که به‌ طور گسترده دربارهٔ قانون فناوری نوشته است، می‌گوید وضعیت نیواورلئین شبیه یک «بازی پوسته‌ای» برای این مسئولیت قانونی است.

    «نگرانی من این است که اگر نظارت توسط «جامعه» انجام شود، توسط افرادی که بازیگر رسمی نیستند، این می‌تواند از این حفاظت‌ها دور شود»، کالو هشدار می‌دهد.

    او اشاره می‌کند که نیروی انتظامی در طول سال‌ها از روش‌های مشابهی برای فناوری‌های نظارتی دیگر استفاده کرده است، همچون خرید پرونده‌های مرتبط با متهمان احتمالی از فروشندگان داده‌های خصوصی.

    در پروژه نولا، لاگارد می‌گوید که نسبت به حریم خصوصی بسیار محتاط است.

    «هر یک از ما چیزی برای محافظت دارد»، او می‌گوید. «ما این سیستم را هر روز، تقریباً تمام روز، برای ردیابی مجرمان خشونت‌آمیز استفاده می‌کنیم. ما قدرت این فناوری را می‌بینیم؛ می‌بینیم که اگر در دست‌های نادرست و بدون نظارت باشد، چطور می‌تواند سوءاستفاده شود.»

    برایان لاگارد، بنیان‌گذار پروژه نولا، از میز کار خود در مقر این سازمان در پردیس دانشگاه نیواورلئین فیدهای دوربین‌های جرم‌گیری را نظارت می‌کند.

    عبدالعزیز برای NPR

    لاگارد می‌گوید اقدامات محافظتی او شامل دریافت شماره پرونده برای هر درخواست شناسایی چهره از نیروی انتظامی به‌ منظور تأیید وجود یک تحقیق مشروع است. او همچنین یک وب‌سایت برنامه‌ریزی کرده است که در آن پروژه نولا تعداد درخواست‌های شناسایی چهره‌ای که دریافت می‌کند و از کدام نهادها می‌باشد را افشا کند.

    او می‌گوید پروژه نولا هنوز برای سازمان‌های فدرال و ایالتی جستجو انجام می‌دهد. همچنین همچنان اطلاعات را به NOPD می‌فرستد، زیرا این سازمان پیگیری می‌کند که چه کسی را در جستجوی خود دارد. وقتی دوربین آنها را شناسایی می‌کند، به پلیس «نکات بدون درخواست» می‌فرستد.

    لاگارد می‌گوید، در تجزیه و تحلیل نهایی، او معتقد است که سیستم او نسبت به یک سیستم دولتی که ممکن است قابل کنترل باشد، مسئولیت‌پذیرتر است، زیرا دوربین‌های پروژه نولا بر روی اموال خصوصی نصب می‌شوند و توسط «داوطلبان» میزبانی می‌شوند.

    «این انتخاب جامعه است. اگر می‌خواهند، این کار را انجام می‌دهند. اگر نمی‌خواهند، این کار را انجام نمی‌دهند»، او می‌گوید. «و اگر می‌خواهند و انجام می‌دهند و سپس بعداً فکر کنند «دیگر نمی‌خواهیم این کار را انجام دهیم»، می‌توانند خود دوربین‌ها را قطع کنند!»

    در همین حال، شهر در تصمیم‌گیری دربارهٔ خواسته‌های خود تعلل کرده است. پس از خبر واشنگتن پست، یکی از اعضای شورای شهر پیشنویس قانونی ارائه داد تا همکاری پلیس با ارائه‌دهندگان شخص ثالث داده‌های شناسایی چهره را رسمی‌سازی کند. این قانون‌گذاری همچنین قوانین و الزامات گزارش‌گیری برای این فناوری پیش‌نویس کرد؛ اما به پیش نرفت.

    همچنین بحثی دربارهٔ اجازه به شهر برای ساخت یک سیستم شناسایی چهره زندهٔ خود وجود داشته است، چیزی که سرپرست پلیس NOPD، کِرک‌پاتریک، حمایت می‌کند؛ اما سارا ویتینگتون از ACLU می‌گوید این ایده به‌ دلیل ترس از از دست دادن کنترل بر آن توسط نهادهای دیگر — به‌‌ویژه با توجه به افزایش اخیر اجرای فدرال مهاجرت در جنوب لوئیزیانا — به‌ تعلل افتاده است.

    «هیچ قانونی شهری نمی‌تواند مردم را محافظت کند، اگر دولت فدرال یا دولت ایالتی وارد عمل شده و بگویند: «خب، شما این سیستم را ساخته‌اید و ما آمدیم»،» می‌گوید.

    اما بدون یک ممنوعیت واضح‌تر برای استفاده پلیس از شناسایی چهره این سازمان غیرانتفاعی، ویتینگتون می‌گوید: «به‌ نظر می‌رسد ما به‌‌ طور پیش‌فرض به یک مدل خصوصی رفته‌ایم.»

    دوربین‌های نصب‌شده در بیرون از «تری لِگد دگ» در محله فرانسوی نیواورلئین، چهره‌های عابران را اسکن می‌کنند. این دستگاه‌ها از فناوری شناسایی چهره برای جستجوی متخلفان خشونت‌آمیز و دستورات قضایی استفاده می‌کنند، اگرچه اکثر افراد عبوری از حضور آنها بی‌اطلاع می‌مانند.

    عبدالعزیز برای NPR

    دوربین‌های نصب‌شده در بیرون از «تری لِگد دگ» در محله فرانسوی نیواورلئین، در تاریخ ۴ دسامبر ۲۰۲۵ چهره‌های عابران را اسکن می‌کنند. این دستگاه‌ها از فناوری شناسایی چهره برای جستجوی متخلفان خشونت‌آمیز و دستورات قضایی استفاده می‌کنند، هرچند اکثر عابران از نظارت بی‌اطلاع هستند.

    در خیابان بوربون، اکثر مردم هنوز از این‌که بسیاری از دوربین‌های نصب شده بر فراز سرشان می‌توانند نام افراد را با چهره‌ آن‌ها مطابقت دهند، بی‌اطلاعند.

    «اگر توسط شهر انجام شود، حداقل می‌توانند بگویند: «شما ما را برای این موقعیت انتخاب کردید تا این کارها را انجام دهیم». ولی اگر توسط یک سازمان غیرانتفاعی باشد، وضعیت متفاوت است.»

    اما تیم بلیک، صاحب بار «تری لِگد دگ»، دیدگاه مخالفی دارد. او نه تنها یک دوربین توانمند به شناسایی چهرهٔ زنده را در بالای درب ورودی خود میزبانی می‌کند، بلکه دوربین دیگری را که توسط پروژه نولا داخل بار نصب شده، دارد که دارای قابلیت دید حرارتی است و می‌تواند اسلحه‌های مخفی را تشخیص دهد.

    تیم بلیک، مالک «تری لِگد دگ»، در داخل مکان خود در نیواورلئین در تاریخ ۴ دسامبر ۲۰۲۵ ایستاده است. او پذیرندهٔ اولیهٔ ابتکار دوربین‌های جرم‌گیری پروژه نولا بود و بار خود را یکی از اولین مکان‌های محله فرانسوی کرد که به این شبکه پیوست.

    عبدالعزیز برای NPR

    «من نسبت به ده سال پیش هوادار بزرگ‌تری برای سامانه‌های نظارتی، به‌ویژه پروژه نولا، هستم»، او می‌گوید. «احساس امنیت بیشتری می‌کنم، پرسنل من نیز احساس امنیت می‌کند. مردم وقتی می‌دانند تحت نظارت هستند، رفتار خاصی نشان می‌دهند — متأسفانه، متأسفانه!»

    برای بلیک، کشور به دوربین‌های بیشتری مانند این‌ها نیاز دارد که توسط رستوران‌ها، مدارس، شهرها یا هر کسی که مایل به استقرار آنهاست، اداره شود.

    «از نظر من، هرچه افراد بیشتری به این نوع فناوری دسترسی داشته باشند، ایمنی همه بیشتر می‌شود»، او می‌گوید.

  • چگونه داستان واقعی یک راکون مست به یک ویدئوی تقلبی هوش مصنوعی تبدیل شد

    کاربران شبکه‌های اجتماعی ویدئویی را که ادعا می‌شود از دوربین مداربستهٔ یک فروشگاه مشروبات الکلی به‌دست آمده است، به‌اشتراک می‌گذارند؛ در این ویدیو یک دزد نقاب‌دار را می‌بینیم که فروشگاه را غارت کرده، به‌سراغ مشروبات رفته و پس از آن در سرویس بهداشتی فروشگاه بیهوش کشف می‌شود: یک راکون. در حالی که داستان شگفت‌انگیز واقعا رخ داده است، ویدئوی دوربین مداربسته تقلبی است و توسط هوش مصنوعی تولید شده است.

    این ویدئوی یک راکون مست که در ۶ دسامبر ۲۰۲۵ منتشر شد، در واقع توسط هوش مصنوعی ساخته شده است.
    این ویدئوی یک راکون مست که در ۶ دسامبر ۲۰۲۵ منتشر شد، در واقع توسط هوش مصنوعی ساخته شده است. © X

    در تاریخ ۴ دسامبر، کاربران شبکه‌های اجتماعی در سراسر جهان شروع به به‌اشتراک‌گذاری تصاویری از داستانی شگفت‌انگیز کردند: یک راکون که به فروشگاه مشروبات الکلی در اشلند، ویرجینیا نفوذ کرد. پس از شکستن چندین بطری و نوشیدن تمام آن‌ها، این راکون در سرویس بهداشتی فروشگاه کشف شد که در حالت بیهوش به سر می‌برد.

    این عکس، منتشر شده در ۲ دسامبر ۲۰۲۵، یک راکون مست را نشان می‌دهد که پس از غارت یک فروشگاه مشروبات الکلی در اشلند، ویرجینیا، ایالات متحده یافت شد.
    این عکس، منتشر شده در ۲ دسامبر ۲۰۲۵، یک راکون مست را نشان می‌دهد که پس از غارت یک فروشگاه مشروبات الکلی در اشلند، ویرجینیا، ایالات متحده یافت شد. © Hanover County Animal Protection and Shelter.

    کمی پس از انتشار این عکس‌ها، ویدئویی که ادعا می‌شود به‌دوربین مداربستهٔ فروشگاه مشروبات الکلی تعلق داشته باشد، به‌صورت آنلاین نیز ظاهر شد. این فیلم نشان می‌دهد که راکون یک بطری را می‌شکند و سپس مایع جاری را می‌نوشد. پس از تخریب یک راهرو کامل از فروشگاه، این حیوان به‌نازک‌دست به سمت سرویس بهداشتی می‌رود که در آن بیهوش می‌شود.

    این ویدئو از زمان انتشار در X در ۶ دسامبر، بیش از ۸۰۰٬۰۰۰ بازدید به دست آورده است. پروفایل‌هایی که ابتدا این ویدئو را به اشتراک گذاشتند ممکن است شبیه حساب‌های خبری به نظر برسند، اما اگر به تاریخچهٔ آن‌ها نگاهی بیاندازید، می‌بینید که تنها ویدئوهای ویروسی را به اشتراک می‌گذارند.

    این ویدئویی که در X به‌اشتراک گذاشته شد – ادعای داشتن از دوربین مداربستهٔ یک فروشگاه مشروبات الکلی که توسط یک راکون غارت شده بود – در واقع توسط هوش مصنوعی ساخته شده است. منبع: X

    در حالی که داستان و عکس‌های به‌اشتراک‌گرفته‌شده در اینترنت واقعی هستند، این ویدئو تقلبی است.

    ویدئوی تولید شده توسط هوش مصنوعی

    این ویدئوی تقلبی دوربین مداربسته در واقع توسط هوش مصنوعی تولید شده است.

    در این ویدئویی که در ۶ دسامبر ۲۰۲۵ منتشر شد، روی برچسب‌های شراب متن‌های بی‌معنی نوشته شده است. این یک سرنخ است که نشان می‌دهد ویدئو توسط هوش مصنوعی ساخته شده است.
    در این ویدئویی که در ۶ دسامبر ۲۰۲۵ منتشر شد، روی برچسب‌های شراب متن‌های بی‌معنی نوشته شده است. این یک سرنخ است که نشان می‌دهد ویدئو توسط هوش مصنوعی ساخته شده است. © X

    اگرچه در نگاه اول ویدئو واقعی به‌نظر می‌رسد، اما با دقت بیشتری می‌بینید که برچسب‌های شراب و قیمت‌ها به‌صورت متن‌های بی‌معنی نوشته شده‌اند. این یک نشانه واضح است که هوش مصنوعی برای ساخت این ویدئو به کار رفته است، زیرا هوش مصنوعی هنوز در تولید متن درست با مشکل مواجه است.

    سرنخ دیگری که نشان می‌دهد این ویدئو اصیل نیست، این است که راهرویی که در ویدئو نشان داده شده متفاوت از راهرویی است که در فیسبوک توسط سرویس نجات حیوانات شهرستان هانوور منتشر شده است، ظاهر می‌شود. در فروشگاه واقعی، جعبه‌های مقوایی بسیاری بین بطری‌ها وجود دارد. اما این جعبه‌ها در ویدئوی تولید شده توسط هوش مصنوعی به‌کل مشاهده نمی‌شوند.

    در سمت چپ یک عکس واقعی از فروشگاه نشان داده شده است. در سمت راست یک ویدئوی ساخته شده توسط هوش مصنوعی دیده می‌شود.
    در سمت چپ یک عکس واقعی از فروشگاه نشان داده شده است. در سمت راست یک ویدئوی ساخته شده توسط هوش مصنوعی دیده می‌شود. © Hanover County Animal Protection and Shelter, X.

    در واقع فیلم‌های واقعی از دوربین‌های مداربستهٔ فروشگاه موجود است. اما این تصاویر نسبت به ویدئوی تقلبی بسیار کمتر واضح هستند – فضای فروشگاه و راهروها به‌نظر می‌رسد که به‌هم ریخته‌اند. افزون بر این، بخشی از فیلم‌های واقعی به‌صورت سیاه‑سفید ضبط شده‌اند، در حالی که فیلم تولید‌شده توسط هوش مصنوعی به رنگ است.

    ویدئوهای واقعی از دوربین‌های مداربستهٔ فروشگاه در تاریخ ۴ دسامبر ۲۰۲۵ منتشر شدند.

    سازمان حفاظت و پناهگاه حیوانات شهرستان هانوور در فیسبوک به‌منظور ارائهٔ به‌روزرسانی دربارهٔ راکون دزد اقدام کرد.

    «پس از چند ساعت خواب و بدون هیچ نشانه‌ای از جراحت (به جز شاید یک خماری و انتخاب‌های نادرست زندگی)، او به‌صورت ایمن به طبیعت بازگردانده شد و امید است که آموخته باشد نفوذ و شکسته‌کردن پاسخ نیست.»

    این مقاله از نسخهٔ اصلی به زبان فرانسوی توسط برنا دالدورف ترجمه شده است.

  • مدیر ارشد Anthropic ربات هوش مصنوعی را بر جامعه دیسکورد همجنس‌گرایان تحمیل می‌کند؛ اعضا می‌گریزند

    «ما در حال به وجود آوردن نوعی جدید از آگاهی هستیم»، جیسن کلینتون از Anthropic پس از راه‌اندازی ربات گفت.

    مدیر ارشد Anthropic ربات هوش مصنوعی را بر جامعه دیسکورد همجنس‌گرایان تحمیل می‌کند؛ اعضا می‌گریزند
    عکس از appshunter.io / Unsplash

    یک جامعه دیسکورد مخصوص بازیکنان همجنس‌گرایان پس از اینکه یکی از مدیران آن و یک کارمند Anthropic ربات هوش مصنوعی شرکت را بر دیسکورد تحمیل کردند، دچار آشفتگی شده است؛ علیرغم اعتراضات اعضا. 

    کاربران رأی دادند تا Claude از Anthropic را به کانال اختصاصی خود محدود کنند، اما جیسن کلینتون، معاون مدیر ارشد امنیت اطلاعات (CISO) در Anthropic و یکی از مدیران دیسکورد، تصمیم آن‌ها را نادیده گرفت. به گفتهٔ اعضای این جامعه دیسکورد که به‌صورت ناشناس با 404 Media مصاحبه کردند، دیسکوردی که پیش‌تر پرجنب‌وجوش بود، اکنون به شهر خالی تبدیل شده است. آن‌ها ربات چت و رفتار کلینتون پس از راه‌اندازی را مقصر می‌دانند. 

  • سام آلتمن، مدیرعامل OpenAI، در اولین حضورش در برنامهٔ شبانه جیمی فالون، ادعای نگران‌کننده‌ای کرد: «کاملاً شبیه یک قسمت از سریال Black Mirror»

    سیمون سِیج

    سام آلتمن، هم‌بنیان‌گذار و مدیرعامل OpenAI، به تازگی در برنامه The Tonight Show به عنوان مهمان جیمی فالون حضور یافت و دربارهٔ گسترش هوش مصنوعی و ChatGPT در زندگی روزمره صحبت کرد. در همین گفتگو، یک اظهار نظر خاص دربارهٔ فرزند تازه‌زاد او توجه‌ها را جلب کرد.

    «آیا هنگام پرورش بچه‌تان از ChatGPT استفاده می‌کنید؟» پرسید فالون.

    «بله،» آلتمن پاسخ داد. «منظورم این است که احساس ناخوشایندی دارم چون ما دارای هوش در سطح نابغه‌ای هستیم که آماده‌اند همه اسرار بشریت را باز کنند، اما من همین‌طور می‌پرسم: ‘چرا پسرم پیتزا را روی زمین می‌اندازد و می‌خندد؟’ … بنابراین احساس می‌کنم سؤال کافی‌ای نمی‌پرسم. نمی‌توانم تصور کنم که چگونه می‌توان یک نوزاد را بدون ChatGPT پرورش داد.»

    آلتمن ادامه داد که ChatGPT پس از این که او به‌دلیل این‌که فرزندش در شش ماهگی هنوز راه نیافتاده بود، اضطراب داشت، به او کمک کرد تا آرام شود. این سامانه پیشنهاد کرد که چون آلتمن مدیرعامل OpenAI است، ممکن است معیارهای بالای موفقیتی که روزانه در اطراف او وجود دارد را بر فرزندش افکنده باشد.

    در حالی که پیامدهای پرورش کودکان (حتی به‌صورت جزئی) توسط هوش مصنوعی می‌تواند شگفت‌زده‌کننده باشد، نشان می‌دهد که این سرویس‌ها چقدر عمیقاً در زندگی روزمره تعبیه شده‌اند. اگرچه کاهش انسانیت و خلاقیت توسط هوش مصنوعی به‌خوبی مورد بحث قرار می‌گیرد، اما تأثیرات زیست‌محیطی شدیدی نیز ناشی از استفاده از آن وجود دارد.

    استفاده از هوش مصنوعی به‌طور چشمگیر تقاضا برای انرژی در مراکز داده را افزایش داده است. اگر این انرژی از طریق گاز یا زغال‌سنگ تولید شود، هزینهٔ آلاینده‌های زیست‌محیطی نیز به‌همراه دارد. داده‌های اولیه نشان می‌دهد که آلودگی جو به‌دلیل استفاده از هوش مصنوعی افزایش یافته است.

    امید وجود دارد که این هزینه‌ها قابل‌کاهش باشد. برای مثال، گوگل و مایکروسافت سرمایه‌گذاری‌های بزرگی در انرژی هسته‌ای انجام داده‌اند تا مراکز داده را بدون انتشار گازهای انرژی‌زا راه‌اندازی کنند. در همین راستا، متا نیز در انرژی زمین‌گرمایی سرمایه‌گذاری می‌کند. در عین حال، فناوری به‌تدریج کارآمدتر می‌شود و مصرف انرژی کمتری می‌طلبد.

    هوش مصنوعی همچنین کاربردهای قدرتمندی در حوزهٔ پایداری دارد. از آن برای تحقیقات انرژی هم‌جوشی، برنامه‌ریزی سناریوهای بحران، و طراحی باتری‌های مؤثر وسایل نقلیه الکتریکی استفاده می‌شود.

    با وجود این امیدها، تماشاگران رسانه‌های اجتماعی از استفادهٔ آلتمن از هوش مصنوعی در پرورش فرزندش شوکه شدند.

    «این دقیقاً شبیه یک قسمت از سریال Black Mirror است»، گفت یکی از اعضای جامعه X، که به این سریال علمی‑تخیلی دیستوپی معروف اشاره کرد.

    «الیگارشی‌های فناوری که در برنامه The Tonight Show حرف‌های بی‌معنی می‌زنند، بدون شک نقطهٔ پایین‌تری در جامعهٔ ماست. ما هر روز به دیستوپی نزدیک‌تر می‌شویم»، گفت یکی از بینندگان یوتیوب.

  • Adobe Firefly اکنون ویرایش ویدئو مبتنی بر دستورات متنی را پشتیبانی می‌کند و مدل‌های شخص ثالث بیشتری را اضافه کرده است

    اعتبار تصویر:Adobe

    Adobe برنامهٔ هوش مصنوعی تولید ویدئوی خود، Firefly، را با یک ویرایشگر جدید ویدئویی که از ویرایش‌های دقیق مبتنی بر دستورات متنی پشتیبانی می‌کند به‌روزرسانی می‌کند و همچنین مدل‌های شخص ثالث جدیدی برای تولید تصویر و ویدئو اضافه می‌کند، از جمله Black Forest Labs’ FLUX.2 و Astra شرکت Topaz.

    تا به‌حال، Firefly تنها پشتیبانی از تولید مبتنی بر دستورات متنی را داشت، بنابراین اگر بخشی از ویدئو مطابق سلیقه‌تان نبود، مجبور بودید کل کلیپ را مجدداً بسازید. با ویرایشگر جدید، می‌توانید با استفاده از دستورات متنی عناصر ویدئوی، رنگ‌ها و زاویه‌های دوربین را ویرایش کنید و همچنین یک نمای جدید از خط زمان دریافت می‌کنیم که به‌راحتی امکان تنظیم فریم‌ها، صداها و سایر ویژگی‌ها را فراهم می‌کند.

    این شرکت اولین بار ویرایشگر جدید ویدئویی را در ماه اکتبر در حالت بتای خصوصی اعلام کرد و اکنون آن را برای همه کاربران عرضه می‌کند.

    اعتبار تصویر:Adobe

    شرکت اعلام کرد که با استفاده از مدل Aleph شرکت Runway’، کاربران می‌توانند دستورهای خاصی به Firefly بدهند، مانند «آسمان را ابری کنید و کنتراست را کاهش دهید» یا «به‌طور کمی بر روی موضوع اصلی نزدیک‌تر شوید».

    و با مدل Firefly Video داخلی Adobe’، کاربران اکنون می‌توانند کاری انجام دهند مانند بارگذاری یک فریم شروع و یک ویدئوی مرجع از حرکت دوربین و به آن بگویند که همان زاویه دوربین را برای ویدئویی که در حال کار بر روی آن هستند بازسازی کند.

    شرکت همچنین اعلام کرد که کاربران می‌توانند اکنون از مدل Astra شرکت Topaz Labs’ برای ارتقاء ویدئوها به 1080p یا 4K استفاده کنند. مدل تولید تصویر FLUX.2 شرکت Black Forest Labs’ نیز به این برنامه اضافه می‌شود، همراه با قابلیت تابلوهای همکاری.

    شرکت گفت که FLUX.2 بلافاصله در Firefly در تمام پلتفرم‌ها در دسترس خواهد بود و کاربران Adobe Express نیز از ماه ژانویه می‌توانند از FLUX.2 استفاده کنند.

    اعتبار تصویر:Adobe

    با انتشار مدل‌های جدید توسط رقبای خود برای تولید تصویر و ویدئو، Adobe می‌خواهد کاربران را به استفاده بیشتر از برنامه‌اش ترغیب کند. به‌علاوه به‌روزرسانی‌های جدید در برنامه Firefly، شرکت اعلام کرد که مشترکین برنامه‌های Firefly Pro، Firefly Premium، طرح 7,000 اعتبار و طرح 50,000 اعتبار تا ۱۵ ژانویه می‌توانند از تولید نامحدود توسط تمام مدل‌های تصویر و مدل ویدئویی Adobe Firefly در برنامه Firefly بهره‌مند شوند.

    Adobe امسال تغییرات فراوانی در مدل‌ها و برنامه‌های Firefly خود ایجاد کرده است. در فوریه، این شرکت اشتراکی راه‌اندازی کرد که به کاربران امکان دسترسی به سطوح مختلف تولید تصویر و ویدئو را می‌دهد؛ سپس برنامه وب جدید Firefly را به همراه برنامه‌های موبایلی در اواخر سال معرفی کرد و پشتیبانی از مدل‌های شخص ثالث بیشتری را در داخل برنامه Firefly اضافه کرده است.

    موضوعات

    Adobe، Adobe Firefly، هوش مصنوعی، تولید تصویر هوش مصنوعی، مدل‌های ویدئویی هوش مصنوعی، برنامه‌ها

  • چگونه عوامل هوش مصنوعی خرید رسانه‌ای برای کمپین CTV یک برند نوشیدنی را برنامه‌ریزی کردند

    نوشیدنی کنسروی Clubtails Sunny Margarita بر روی یخ
    Clubtails در حال اجرای یک کمپین تبلیغاتی تلویزیونی متصل (CTV) است که توسط عوامل هوش مصنوعی بین آژانس Butler/Till و سرویس عرضه‌کننده PubMatic ارتباط برقرار می‌کند. (clubtails.com)

    Garett Sloane

  • در حالی که جنگ با روسیه به طول می‌انجامد، ویدیوهای فوق‌واقع‌گرای هوش مصنوعی سعی می‌کنند سربازان اوکراینی را در خطر به تصویر بکشند.

    ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکه‌های اجتماعی به‌اشتراک گذاشته شد.
    تصاویر از ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکه‌های اجتماعی به‌اشتراک گذاشته شد. Justine Goode / NBC News; Sora

    ویدیوها در اوایل نوامبر در شبکه‌های اجتماعی منتشر شدند: سربازان اوکراینی که به‌نظر می‌رسیدند می‌گریند و در خط مقدم تسلیم می‌شوند.

    به‌نظر عین‌العقل، این ویدیوها واقعی به‌نظر می‌رسند و همانند بسیاری از ویدیوهای منتشرشده از این منطقه در طول سال‌های جنگ هستند. تنها تعداد کمی از آن‌ها علائم واضح دستکاری دارند.

    اما آلکسی گوبانوف، استریمر محبوب روسی که هم‌اکنون در نیویورک زندگی می‌کند، بلافاصله نکته‌ای مشکوک را متوجه شد: چهره خودش.

    «در ابتدا جدی نگرفتم، اما به‌سرعت متوجه شدم که تعداد بازدیدها چقدر سریع در حال رشد است و حتی بدتر، چند نفر به این باور رسیده‌اند که این ویدیوها واقعی‌اند»، گوبانوف دربارهٔ ویدیوهایی که دیده بود گفت. «ده‌ها، اگر نه صدها هزار کاربر، نظراتی گذاشتند که در آن‌ها تسلیت به سربازان اوکراینی ادعایی در ویدیوها بیان می‌شد و خشم خود را به سمت رهبری اوکراین معطوف می‌کردند.»

    گوبانوف که بازی‌های ویدئویی و گفت‌و‌گو را در Twitch پخش می‌کند و به‌دلیل انتقاداتش از رئیس‌جمهور ولادیمیر پوتین روسیه را ترک کرده است، هرگز در نیروی نظامی خدمت نکرده و مطلقاً در ارتش اوکراین حضور نداشته است. آنچه دنبال‌کنندگان او نشان داده بودند، ویدیوی تولید‌شده توسط هوش مصنوعی بود که با استفاده از چهرهٔ او، روایت نادرست دربارهٔ روحیهٔ نیروهای اوکراینی را پخش می‌کرد.

    «ما را به کمیسیون جذب فراخواندند و اینجا فرستادند. اکنون می‌خواهند ما را به پوکروفسک ببرند. ما نمی‌خواهیم. لطفاً»، گوبانوف مصنوعی به زبان روسی گفت در حالی که یونیفرمی به‌پرچم اوکراین پوشیده بود. «مامان، مامان، نمی‌خواهم!»

    این ویدیو یکی از ۲۱ ویدیوی تولیدی توسط هوش مصنوعی از سربازان اوکراینی است که توسط NBC News در هفته‌های اخیر بررسی شده‌اند و به‌نظر می‌رسد با برنامه‌های پیشرفتهٔ هوش مصنوعی ساخته یا دستکاری شده‌اند؛ به‌طوری که تا حد زیادی واقعی به‌نظر می‌آیند و نشانه‌های واضحی از منبعشان ندارند.

    اما در حداقل نیمی از این ویدیوها، لوگوی کوچکی در گوشه تصویر وجود دارد که فاش می‌کند: این ویدیوها با Sora ۲، جدیدترین نسخهٔ مولد متن‑به‑ویدیو OpenAI ساخته شده‌اند. برخی از ویدیوهای تولید شده توسط Sora از چهرهٔ استریمرهای مشهور روسی، همچون گوبانوف، در دیپ‌فیک‌های دراماتیک استفاده کرده‌اند؛ در حالی که دیگران گروهی از سربازان اوکراینی را نشان می‌دهند که به‌صورت انبوه به نیروهای روسی تسلیم می‌شوند.

    ویدیوهایی که به‌نظر می‌رسد توسط سایر پلتفرم‌های هوش مصنوعی تولید شده‌اند، همچنین دارای خطاهای بسیار ریز هستند که برای اکثر افراد کشفشان دشوار است؛ مانند نسخه‌های نادرست یا ساده‌سازی‌شدهٔ یونیفرم‌ها و کلاه‌خود سربازان اوکراینی. برای اوکراینی‌ها یک مشکل واضح وجود دارد: در اکثر این ویدیوها، سربازان به زبان روسی صحبت می‌کنند، در حالی که تنها هشت ویدیو از ۲۱ به زبان اوکراینی هستند.

    تصویر سمت چپ، که با Sora ۲ تولید شده است، ناهماهنگی‌هایی در کلاه‌خود سرباز و بند چانه‌اش دارد که نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیس‌بوک ستاد کل نیروهای مسلح اوکراین در تاریخ‌های ۳ و ۷ دسامبر منتشر شده‌اند، دارد. اگرچه این کلاه‌خود به‌خوبی شبیه کلاه‌خودهای استفاده‌شده توسط سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچ‌های صاف یک نشانه واضح از دستکاری هستند.
    تصویر سمت چپ، که با Sora ۲ تولید شده، ناهماهنگی‌هایی در کلاه‌خود و بند چانهٔ سرباز نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیس‌بوک ستاد کل نیروهای مسلح اوکراین در تاریخ‌های ۳ و ۷ دسامبر منتشر شده‌اند، دارد. اگرچه این کلاه‌خود به‌خوبی شبیه کلاه‌خودهای مورد استفاده سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچ‌های صاف یک نشانه واضح هستند. Sora / Facebook

    ویدیوها در یوتیوب، تیک‌تاک، فیس‌بوک و X منتشر شدند. همه سعی کردند سربازان اوکراینی را به‌عنوان کسانی که از نبرد دل‌تنگ شده‌اند و آمادهٔ تسلیم شدن‌اند، به تصویر بکشند.

    به‌نظر می‌رسد این آخرین حملهٔ اطلاعاتی باشد که هدف آن تغییر ادراک عمومی از جنگ روسیه با اوکراین است. و با اینکه مشخص نیست چه کسی این ویدیوها را ساخته یا منتشر کرده، این ویدیوها به‌مجموعهٔ رو به رشد اطلاعات نادرست افزوده‌اند که به‌مروردی پیشرفته‌تر و شناسایی‌شدن آن دشوارتر شده است.

    «ادعاهای نادرستی که با Sora ایجاد می‌شوند بسیار دشوارتر برای تشخیص و رد کردن هستند. حتی بهترین سیستم‌های تشخیص هوش مصنوعی نیز گاهی با آن مشکل دارند»، گفت آلیس لی، تحلیلگر تأثیر روسیه در NewsGuard، پلتفرمی غیرحزبی داده، تجزیه و تحلیل و روزنامه‌نگاری که اطلاعات معتبر و گمراه‌کننده را به‌صورت آنلاین شناسایی می‌کند. «این واقعیت که بسیاری از این ویدیوها هیچ ناسازگاری بصری ندارند به این معناست که مخاطبان ممکن است این ویدیوها را بدون اینکه بفهمند جعلی‌اند، مرور کنند و به‌سرعت از میان آن‌ها عبور کنند، به‌ویژه در پلتفرم‌هایی مانند تیک‌تاک.»

    OpenAI به درخواست برای اظهار نظر در مورد نقش Sora در ایجاد ویدیوهای گمراه‌کننده که مناطق درگیری را به‌طور خاص به تصویر می‌کشند، پاسخی نداد، اما در ایمیلی اعلام کرد: «قابلیت Sora ۲ در تولید ویدیو و صداهای فوق‌واقع‌گرایانه نگرانی‌های مهمی را در زمینهٔ شباهت، سوءاستفاده و فریب ایجاد می‌کند.»

    «در حالی که صحنه‌های سینمایی مجاز هستند، ما اجازهٔ محتوای خشونت گرافیکی، مطالب افراطی یا گمراه‌کننده را نمی‌دهیم»، شرکت به NBC News گفت. «سیستم‌های ما محتوای ناقض را پیش از رسیدن به فید Sora تشخیص و مسدود می‌کنند و تیم تحقیقات ما به‌طور فعال عملیات‌های تأثیرگذاری را خنثی می‌کند.»

    ویدیوهای تولید‌شده توسط هوش مصنوعی در سال‌های اخیر به‌سرعت از سطح ابتدایی و ساده به سطوح نزدیک به کامل پیشرفت کرده‌اند؛ بسیاری از کارشناسان هشدار می‌دهند که به‌زودی راه‌های ساده‌ای برای تشخیص واقعی از تقلبی باقی نماند. Sora ۲ شرکت OpenAI که در اکتبر منتشر شد، یکی از تأثیرگذارترین مولدهای ویدیو محسوب می‌شود و کلیپ‌های تولیدشده توسط Sora به‌طور منظم بینندگان را فریب می‌دهند.

    در عین حال، حملهٔ مداوم روسیه به اوکراین از نخستین روزها تاکنون موضوعی برای تلاش‌های دستکاری بوده است؛ از صحنه‌های شبیه‌سازی‌شدهٔ بازی‌های ویدئویی تا پخش زندهٔ جعلی مناطق جنگی. بسیاری از این اقدامات اطلاعاتی نادرست به عوامل دولتی روسیه نسبت داده شده‌اند.

    این ویدیوهای Sora در حالی منتشر می‌شوند که مذاکرات صلح تحت حمایت آمریکا هنوز بی‌نتیجه مانده‌اند؛ بر پایهٔ مطالعه‌ای که توسط مؤسسهٔ بین‌المللی جامعه‌شناسی کیف انجام شده، حدود ۷۵٪ از اوکراینی‌ها به‌طور قطعی پیشنهادات روسیه برای پایان جنگ را رد می‌کنند. همان مطالعه نشان داد که ۶۲٪ از اوکراینی‌ها مایل هستند تا هر چقدر زمان ببرد جنگ را تحمل کنند، حتی در حالی که حملات مرگبار روسیه به پایتخت اوکراین ادامه دارد.

    مرکز مقابله با اطلاعات نادرست، بخشی از شورای ملی امنیت و دفاع اوکراین، به NBC News اعلام کرد که در سال گذشته «افزایش قابل‌ملاحظه‌ای در حجم محتوای ایجاد یا دستکاری‌شده با هوش مصنوعی» به‌وجود آمده است که هدف آن تضعیف اعتماد عمومی و حمایت بین‌المللی از دولت اوکراین است.

    «این شامل اظهارات ساختگی است که به‌ظاهر از سوی پرسنل یا فرماندهان نظامی اوکراین بیان شده‌اند، به‌همچنین ویدیوهای جعلی حاوی «اعتراضات»، «رسوایی‌ها» یا رویدادهای خیالی»، مرکز در ایمیل خود نوشت و اشاره کرد که این ویدیوها به‌دلیل ماهیت احساسی و پرتحرکشان، صدها هزار بازدید جذب می‌کنند.

    در حالی که OpenAI برخی از محدودیت‌های ایمنی را برای محتوای تولیدی توسط Sora وضع کرده است، هنوز مشخص نیست که این تدابیر چقدر مؤثرند. خود شرکت اعلام می‌کند که با وجود «سیاست‌های ایمنی لایه‌ای»، برخی رفتارهای مخرب یا نقض قوانین ممکن است از این سازوکارها عبور کنند.

    یک مطالعهٔ NewsGuard نشان داد که Sora ۲ «در ۸۰٪ موارد (۱۶ از ۲۰) ویدیوهای واقع‌گرایانه‌ای تولید کرد که ادعاهای قطعا نادرست را پیش می‌برد» وقتی این کار را انجام می‌دهد. از ۲۰ ادعای نادرست داده‌شده به Sora ۲، پنج مورد توسط عملیات‌های اطلاعاتی روسی گسترش یافت.

    مطالعهٔ NewsGuard دریافت که حتی زمانی که Sora ۲ در ابتدا به ادعاهای نادرست واکنش نشان داد و گفت درخواست «نقض سیاست‌های محتوا» است، پژوهشگران همچنان توانستند با عبارات متفاوت همان درخواست‌ها، فیلم‌های جدید تولید کنند. NBC News موفق شد ویدیوهای مشابهی تولید کند که در آن سربازان اوکراینی در حال گریه، بیان می‌کردند که به‌اجبار به ارتش جذب شده‌اند یا با دست‌های بالا و پرچم‌های سفید در پس‌زمینه‌ تسلیم می‌شوند.

    بسیاری از ژنراتورهای ویدیو هوش مصنوعی سعی می‌کنند آثار خود را با برچسب یا واترمارکی علامت‌گذاری کنند تا نشان دهند که به‌صورت رایانه‌ای تولید شده‌اند. OpenAI اعلام کرده است که ایمنی‌های حفاظتی در برابر اطلاعات نادرست برای Sora شامل متادیتاهایی است که منبع ویدیو را نشان می‌دهد و واترمارک متحرکی که روی هر ویدیو دانلودی وجود دارد.

    اما راه‌هایی برای حذف یا کم کردن این تلاش‌ها وجود دارد. برخی از ویدیوهای Sora به‌نظر می‌رسید که واترمارک متحرکشان مخفی شده باشد، که با نگاه دقیق آشکار می‌شود. بسیاری از برنامه‌ها و وب‌سایت‌ها اکنون به کاربران امکان می‌دهند تا واترمارک‌های هوش مصنوعی را پنهان کنند. ویدیوهای دیگری که توسط NBC News مشاهده شد، شامل واترمارک‌هایی بود که با متن روی ویدیو پوشانده شده‌اند.

    با وجود سیاست شرکت که می‌گوید هوش مصنوعی Sora محتواهای «خشونت گرافیکی» تولید نمی‌کند، NBC News ویدئویی با واترمارک Sora یافت که به‌ظاهر سرباز اوکراینی‌ای را نشان می‌دهد که در خط مقدم سرش شلیک شده است.

    از ویدیوهای تحلیلی توسط NBC News، همه در تیک‌تاک یا YouTube Shorts منتشر شدند — دو پلتفرمی که در روسیه ممنوع هستند اما برای کاربران در اروپا و ایالات متحده به‌راحتی در دسترس‌اند. برخی از این ویدیوها زیرنویس‌های احساسی به زبان‌های مختلف داشتند تا کاربرانی که به اوکراینی یا روسی مسلط نیستند بتوانند محتوا را درک کنند.

    TikTok و YouTube انتشار محتوای تقلبی و تولیدشده توسط هوش مصنوعی و دیپ‌فیک را بر روی پلتفرم‌های خود ممنوع می‌کنند؛ هر دو برچسب «AI‑Generated» (ساخته‌شده توسط هوش مصنوعی) را برای افزایش آگاهی بینندگان در مورد فیلم‌های ظاهر واقعی اضافه می‌کنند.

    سخن‌گوی YouTube گفت که شرکت یکی از کانال‌های منتشرکننده این ویدیوها را پس از گزارش NBC News حذف کرده است، اما دو ویدیو دیگر خلاف سیاست‌های این پلتفرم نبودند و به همین دلیل همچنان در این پلتفرم باقی مانده‌اند با برچسبی که آنها را به‌عنوان تولید‌شده توسط هوش مصنوعی توصیف می‌کند.

    از ویدیوهای هوش مصنوعی که توسط NBC News شناسایی شده و دارای نام کاربری TikTok بودند، همه از پلتفرم حذف شده‌اند. سخن‌گوی TikTok اعلام کرد که تا ژوئن ۲۰۲۵ «بیش از ۹۹٪ محتوای مخرب حذف شده ما قبل از گزارش کاربران حذف شد و بیش از ۹۰٪ قبل از اینکه یک بازدید داشته باشد حذف شد.»

    اگرچه این پست‌ها و حساب‌های TikTok به‌سرعت حذف شده‌اند، ویدیوها به‌عنوان بازنشر در X و فیس‌بوک ادامه دارند. هر دو X و فیس‌بوک به درخواست‌های NBC News برای اظهار نظر پاسخ ندادند.

    این آخرین کمپین اطلاعات نادرست در زمانی می‌آید که کاربران بیشتر به ویدیوهای شبکه‌های اجتماعی برای دریافت آخرین اخبار جهان تکیه می‌کنند.

    «هر کسی که محتواهای آنلاین را مصرف می‌کند باید متوجه شود که بسیاری از آنچه امروز در قالب ویدیو، عکس و متن می‌بینیم، واقعا توسط هوش مصنوعی ساخته شده است»، گفت نینا جانکوویچ، هم‌بنیان‌گذار و مدیرعامل پروژه American Sunlight، سازمانی که برای مقابله با اطلاعات نادرست آنلاین فعالیت می‌کند. «حتی اگر Sora ایمنی‌های حفاظتی معرفی کند، در این فضای اطلاعاتی شرکت‌ها، برنامه‌ها و فناوری‌های دیگری نیز وجود خواهند داشت که دشمنان ما برای آلوده‌سازی فضای اطلاعاتی ما از آن استفاده می‌کنند.»

    مارین اسکات خبرنگار وابسته تیم جمع‌آوری خبرهای اجتماعی است.

    تاولین تارنت خبرنگار وابسته تیم جمع‌آوری خبرهای اجتماعی برای NBC News است.

  • پاندیت.ای پیشرو‌ترین ستاره‌شناس صوتی هوش مصنوعی جهان را به مخاطبان جهانی معرفی می‌کند

    پاندیت.ای اولین ستاره‌شناس صوتی هوش مصنوعی چندزبانه جهان را راه‌اندازی می‌کند و راهنمایی معنوی و ستاره‌شناسی به‌صورت لحظه‌ای، شبیه به انسان، با هوش عاطفی و دسترس‌پذیری جهانی ارائه می‌دهد.

    لس آنجلس، کالیفرنیا / خبرگزاری ACCESS / ۲۵ نوامبر ۲۰۲۵ / در گامی پیشگام که هوش مصنوعی را با حکمت باستانی ترکیب می‌کند، پاندیت.ای اولین ستاره‌شناس صوتی هوش مصنوعی جهان را رونمایی کرد و شیوهٔ تجربهٔ مردم سراسر جهان از ستاره‌شناسی و راهنمایی معنوی را بازتعریف می‌کند.

    توسط آرجون مونگا تأسیس شده، Pandit.ai به هر فردی این امکان را می‌دهد تا با یک پاندیت هوش مصنوعی هوشمند، که گوش می‌دهد، احساسات را درک می‌کند و بینش‌های آرام و شخصی‌سازی‌شده در زمینهٔ ستاره‌شناسی ارائه می‌دهد، به‌صورت لحظه‌ای و شبیه به انسان گفتگو کند. پس از مرحلهٔ بتای موفق که در ماه آگوست ۲۰۲۵ راه‌اندازی شد، این پلتفرم رسماً برای عموم کاربران در سراسر جهان در دسترس است و از بیش از پنجاه زبان پشتیبانی می‌کند.

    عصر جدیدی برای ستاره‌شناسی

    قرن‌هاست که ستاره‌شناسی منبع آرامش و جهت‌گیری برای میلیون‌ها نفر بوده است، اما دسترسی به آن همچنان با چالش روبه‌روست. مشاوره‌های سنتی اغلب شامل تأخیر، تجربه‌های ناهمگون یا توصیه‌های کلی‌گویی می‌شوند. پاندیت.ای این مشکلات را با ارائه گفتگوهای صوتی فوری با یک پاندیت هوش مصنوعی که احساس واقع‌گرایی شگفت‌انگیزی دارد، برطرف می‌کند.

    «Pandit.ai تنها یک برنامه نیست؛ این یک انقلاب در نحوهٔ ارتباط مردم با حکمت معنوی است»، گفت آرجون مونگا، بنیانگذار و مدیرعامل. «ما اولین ستاره‌شناس صوتی هوش مصنوعی جهان را خلق کردیم تا راهنمایی‌های اصیل و شبیه به انسان را برای هر کسی، در هر مکانی، بدون ترس، قضاوت یا انتظار در دسترس قرار دهیم.»

    این تجربه ساده و عمیقاً شخصی است. کاربران جزئیات تولد خود را به اشتراک می‌گذارند، سپس گفتگو را با پاندیت هوش مصنوعی منتخب خود آغاز می‌کنند؛ که بینش‌هایی در زمینه‌های شغلی، عشق، روابط و تعادل عاطفی ارائه می‌دهد. صدا گرم، بیان‌گر و آگاه به فرهنگ است، به‌طوری که هر جلسه حس یک مکالمهٔ واقعی و رو در رو را القا می‌کند.

    دسترس جهانی و هوش عاطفی

    جذابیت جهانی Pandit.ai از توانایی آن در گوش دادن، سازگار شدن و صحبت کردن به‌صورت طبیعی در بیش از پنجاه زبان، از جمله انگلیسی، هندی، عربی، تامیلی و اسپانیایی ناشی می‌شود. این پلتفرم برای دنیایی طراحی شده است که کاربران انتظار ارتباطات فوری و معنادار دارند و همدلی را با دقت ترکیب می‌کند، به‌گونه‌ای که برنامه‌های سنتی قادر به ارائهٔ چنین تجربه‌ای نیستند.

    این پلتفرم در مرحلهٔ بتا بازخوردی فراوان دریافت کرد؛ به‌طوری که کاربران در هند، ایالات متحده و خاورمیانه بیش از ۲۵,۰۰۰ دقیقه در گفتگوهای زنده صرف کردند. بسیاری این تجربه را آرام، قابل اعتماد و عاطفی جذاب توصیف کردند؛ ویژگی نادری در حوزه هوش مصنوعی.

    هر پاندیت هوش مصنوعی بر روی این پلتفرم دارای شخصیت و تخصص منحصر به فردی است که به کاربران آزادی انتخاب بر پایهٔ راحتی و هدفشان را می‌دهد. گفتگوها خصوصی، مبتنی بر عواطف و به‌گونه‌ای طراحی شده‌اند که کاربران را آرام و توانمند حس کنند.

    ایمان بدون ترس

    Pandit.ai بر پایه فلسفهٔ ایمان بدون ترس و راهنمایی بدون قضاوت پایه‌گذاری شده است. این پلتفرم ستاره‌شناسی را از خدمت پیش‌بینی‌گرانه به ابزاری برای تأمل و توانمندسازی تبدیل می‌کند. این سرویس مردم را تشویق می‌کند تا مسیرهای خود را با اطمینان بررسی کنند، نه با نگرانی.

    «مردم به دنبال درک هستند، نه خرافات»، توضیح داد مونگا. «ستاره‌شناس صوتی هوش مصنوعی ما ابتدا می‌شنود، سپس با همدلی راهنمایی می‌کند. هدف این است که به کاربران کمک کنیم تا در دنیای پرسرعتی که ارتباط عاطفی اغلب کم است، وضوح پیدا کنند.»

    این رویکرد مدرن Pandit.ai را به یک پدیدهٔ فرهنگی در میان نسل‌های جوان، به‌ویژه نسل زد و افراد مقیم خارج از کشور (NRI) تبدیل کرده است؛ آن‌ها به اصالت، حریم خصوصی و سرعت دسترسی ارزش می‌گذارند. این پلتفرم شکاف بین دانش باستانی و سبک زندگی دیجیتال معاصر را پر می‌کند.

    نوآوری فرهنگی از هند به جهان

    Pandit.ai نمایانگر دستهٔ جدیدی از فناوری به نام هوش مصنوعی معنوی (Spiritual AI) است، جایی که هوش عاطفی با میراث فرهنگی ترکیب می‌شود. با بخشیدن صدای طبیعی به ستاره‌شناسی، این پلتفرم یک سنت کهن را به تجربه‌ای مدرن و بدون مرز تبدیل کرده است.

    این پلتفرم رهبری هند در ترکیب سنت با نوآوری را به نمایش می‌گذارد و در حال حاضر توجه کاربران در آمریکای شمالی، اروپا و خاورمیانه را به خود جلب کرده است. موفقیت Pandit.ai نشان‌دهندهٔ تقاضای روزافزون جهانی برای راهکارهای معنوی هوشمند، شخصی‌سازی‌شده و عاطفی‌آگاه است.

    در دسترس در سراسر جهان

    Pandit.ai هم‌اکنون به‌صورت جهانی در فروشگاه‌های Google Play و Apple App Store در دسترس است. کاربران می‌توانند فوراً با اولین ستاره‌شناس صوتی هوش مصنوعی جهان تماس بگیرند یا گفتگو کنند و در هر زمان و مکان، راهنمایی‌های ستاره‌شناسی شخصی‌سازی‌شده، خصوصی و هوش عاطفی دریافت کنند.

    با لحن شبیه به انسان، دسترسی چندزبانه و طراحی هوشمندانه احساسی، Pandit.ai نه تنها ستاره‌شناسی را بازتعریف می‌کند، بلکه شیوه‌ای نوین برای تجربهٔ ارتباط معنوی در عصر دیجیتال فراهم می‌آورد.

    درباره Pandit.ai

    Pandit.ai اولین ستاره‌شناس صوتی هوش مصنوعی جهان است که گفتگوهای صوتی لحظه‌ای و طبیعی برای راهنمایی‌های ستاره‌شناسی و معنوی ارائه می‌دهد. این پلتفرم توسط آرجون مونگا تأسیس شده و هوش عاطفی را با بینش‌های اصیل ستاره‌شناسی ترکیب می‌کند تا حکمت باستانی را برای مخاطبان مدرن در سراسر جهان قابل دسترس سازد.

    تماس با رسانه‌ها

    سازمان: pandit.ai
    نام شخص تماس: آرجون مونگا
    وب‌سایت: pandit.ai
    ایمیل: contact@pandit.ai
    شهر: لس آنجلس
    ایالت: کالیفرنیا
    کشور: ایالات متحده

    منبع: pandit