بلاگ

  • مدیر ارشد Anthropic ربات هوش مصنوعی را بر جامعه دیسکورد همجنس‌گرایان تحمیل می‌کند؛ اعضا می‌گریزند

    «ما در حال به وجود آوردن نوعی جدید از آگاهی هستیم»، جیسن کلینتون از Anthropic پس از راه‌اندازی ربات گفت.

    مدیر ارشد Anthropic ربات هوش مصنوعی را بر جامعه دیسکورد همجنس‌گرایان تحمیل می‌کند؛ اعضا می‌گریزند
    عکس از appshunter.io / Unsplash

    یک جامعه دیسکورد مخصوص بازیکنان همجنس‌گرایان پس از اینکه یکی از مدیران آن و یک کارمند Anthropic ربات هوش مصنوعی شرکت را بر دیسکورد تحمیل کردند، دچار آشفتگی شده است؛ علیرغم اعتراضات اعضا. 

    کاربران رأی دادند تا Claude از Anthropic را به کانال اختصاصی خود محدود کنند، اما جیسن کلینتون، معاون مدیر ارشد امنیت اطلاعات (CISO) در Anthropic و یکی از مدیران دیسکورد، تصمیم آن‌ها را نادیده گرفت. به گفتهٔ اعضای این جامعه دیسکورد که به‌صورت ناشناس با 404 Media مصاحبه کردند، دیسکوردی که پیش‌تر پرجنب‌وجوش بود، اکنون به شهر خالی تبدیل شده است. آن‌ها ربات چت و رفتار کلینتون پس از راه‌اندازی را مقصر می‌دانند. 

  • سام آلتمن، مدیرعامل OpenAI، در اولین حضورش در برنامهٔ شبانه جیمی فالون، ادعای نگران‌کننده‌ای کرد: «کاملاً شبیه یک قسمت از سریال Black Mirror»

    سیمون سِیج

    سام آلتمن، هم‌بنیان‌گذار و مدیرعامل OpenAI، به تازگی در برنامه The Tonight Show به عنوان مهمان جیمی فالون حضور یافت و دربارهٔ گسترش هوش مصنوعی و ChatGPT در زندگی روزمره صحبت کرد. در همین گفتگو، یک اظهار نظر خاص دربارهٔ فرزند تازه‌زاد او توجه‌ها را جلب کرد.

    «آیا هنگام پرورش بچه‌تان از ChatGPT استفاده می‌کنید؟» پرسید فالون.

    «بله،» آلتمن پاسخ داد. «منظورم این است که احساس ناخوشایندی دارم چون ما دارای هوش در سطح نابغه‌ای هستیم که آماده‌اند همه اسرار بشریت را باز کنند، اما من همین‌طور می‌پرسم: ‘چرا پسرم پیتزا را روی زمین می‌اندازد و می‌خندد؟’ … بنابراین احساس می‌کنم سؤال کافی‌ای نمی‌پرسم. نمی‌توانم تصور کنم که چگونه می‌توان یک نوزاد را بدون ChatGPT پرورش داد.»

    آلتمن ادامه داد که ChatGPT پس از این که او به‌دلیل این‌که فرزندش در شش ماهگی هنوز راه نیافتاده بود، اضطراب داشت، به او کمک کرد تا آرام شود. این سامانه پیشنهاد کرد که چون آلتمن مدیرعامل OpenAI است، ممکن است معیارهای بالای موفقیتی که روزانه در اطراف او وجود دارد را بر فرزندش افکنده باشد.

    در حالی که پیامدهای پرورش کودکان (حتی به‌صورت جزئی) توسط هوش مصنوعی می‌تواند شگفت‌زده‌کننده باشد، نشان می‌دهد که این سرویس‌ها چقدر عمیقاً در زندگی روزمره تعبیه شده‌اند. اگرچه کاهش انسانیت و خلاقیت توسط هوش مصنوعی به‌خوبی مورد بحث قرار می‌گیرد، اما تأثیرات زیست‌محیطی شدیدی نیز ناشی از استفاده از آن وجود دارد.

    استفاده از هوش مصنوعی به‌طور چشمگیر تقاضا برای انرژی در مراکز داده را افزایش داده است. اگر این انرژی از طریق گاز یا زغال‌سنگ تولید شود، هزینهٔ آلاینده‌های زیست‌محیطی نیز به‌همراه دارد. داده‌های اولیه نشان می‌دهد که آلودگی جو به‌دلیل استفاده از هوش مصنوعی افزایش یافته است.

    امید وجود دارد که این هزینه‌ها قابل‌کاهش باشد. برای مثال، گوگل و مایکروسافت سرمایه‌گذاری‌های بزرگی در انرژی هسته‌ای انجام داده‌اند تا مراکز داده را بدون انتشار گازهای انرژی‌زا راه‌اندازی کنند. در همین راستا، متا نیز در انرژی زمین‌گرمایی سرمایه‌گذاری می‌کند. در عین حال، فناوری به‌تدریج کارآمدتر می‌شود و مصرف انرژی کمتری می‌طلبد.

    هوش مصنوعی همچنین کاربردهای قدرتمندی در حوزهٔ پایداری دارد. از آن برای تحقیقات انرژی هم‌جوشی، برنامه‌ریزی سناریوهای بحران، و طراحی باتری‌های مؤثر وسایل نقلیه الکتریکی استفاده می‌شود.

    با وجود این امیدها، تماشاگران رسانه‌های اجتماعی از استفادهٔ آلتمن از هوش مصنوعی در پرورش فرزندش شوکه شدند.

    «این دقیقاً شبیه یک قسمت از سریال Black Mirror است»، گفت یکی از اعضای جامعه X، که به این سریال علمی‑تخیلی دیستوپی معروف اشاره کرد.

    «الیگارشی‌های فناوری که در برنامه The Tonight Show حرف‌های بی‌معنی می‌زنند، بدون شک نقطهٔ پایین‌تری در جامعهٔ ماست. ما هر روز به دیستوپی نزدیک‌تر می‌شویم»، گفت یکی از بینندگان یوتیوب.

  • Adobe Firefly اکنون ویرایش ویدئو مبتنی بر دستورات متنی را پشتیبانی می‌کند و مدل‌های شخص ثالث بیشتری را اضافه کرده است

    اعتبار تصویر:Adobe

    Adobe برنامهٔ هوش مصنوعی تولید ویدئوی خود، Firefly، را با یک ویرایشگر جدید ویدئویی که از ویرایش‌های دقیق مبتنی بر دستورات متنی پشتیبانی می‌کند به‌روزرسانی می‌کند و همچنین مدل‌های شخص ثالث جدیدی برای تولید تصویر و ویدئو اضافه می‌کند، از جمله Black Forest Labs’ FLUX.2 و Astra شرکت Topaz.

    تا به‌حال، Firefly تنها پشتیبانی از تولید مبتنی بر دستورات متنی را داشت، بنابراین اگر بخشی از ویدئو مطابق سلیقه‌تان نبود، مجبور بودید کل کلیپ را مجدداً بسازید. با ویرایشگر جدید، می‌توانید با استفاده از دستورات متنی عناصر ویدئوی، رنگ‌ها و زاویه‌های دوربین را ویرایش کنید و همچنین یک نمای جدید از خط زمان دریافت می‌کنیم که به‌راحتی امکان تنظیم فریم‌ها، صداها و سایر ویژگی‌ها را فراهم می‌کند.

    این شرکت اولین بار ویرایشگر جدید ویدئویی را در ماه اکتبر در حالت بتای خصوصی اعلام کرد و اکنون آن را برای همه کاربران عرضه می‌کند.

    اعتبار تصویر:Adobe

    شرکت اعلام کرد که با استفاده از مدل Aleph شرکت Runway’، کاربران می‌توانند دستورهای خاصی به Firefly بدهند، مانند «آسمان را ابری کنید و کنتراست را کاهش دهید» یا «به‌طور کمی بر روی موضوع اصلی نزدیک‌تر شوید».

    و با مدل Firefly Video داخلی Adobe’، کاربران اکنون می‌توانند کاری انجام دهند مانند بارگذاری یک فریم شروع و یک ویدئوی مرجع از حرکت دوربین و به آن بگویند که همان زاویه دوربین را برای ویدئویی که در حال کار بر روی آن هستند بازسازی کند.

    شرکت همچنین اعلام کرد که کاربران می‌توانند اکنون از مدل Astra شرکت Topaz Labs’ برای ارتقاء ویدئوها به 1080p یا 4K استفاده کنند. مدل تولید تصویر FLUX.2 شرکت Black Forest Labs’ نیز به این برنامه اضافه می‌شود، همراه با قابلیت تابلوهای همکاری.

    شرکت گفت که FLUX.2 بلافاصله در Firefly در تمام پلتفرم‌ها در دسترس خواهد بود و کاربران Adobe Express نیز از ماه ژانویه می‌توانند از FLUX.2 استفاده کنند.

    اعتبار تصویر:Adobe

    با انتشار مدل‌های جدید توسط رقبای خود برای تولید تصویر و ویدئو، Adobe می‌خواهد کاربران را به استفاده بیشتر از برنامه‌اش ترغیب کند. به‌علاوه به‌روزرسانی‌های جدید در برنامه Firefly، شرکت اعلام کرد که مشترکین برنامه‌های Firefly Pro، Firefly Premium، طرح 7,000 اعتبار و طرح 50,000 اعتبار تا ۱۵ ژانویه می‌توانند از تولید نامحدود توسط تمام مدل‌های تصویر و مدل ویدئویی Adobe Firefly در برنامه Firefly بهره‌مند شوند.

    Adobe امسال تغییرات فراوانی در مدل‌ها و برنامه‌های Firefly خود ایجاد کرده است. در فوریه، این شرکت اشتراکی راه‌اندازی کرد که به کاربران امکان دسترسی به سطوح مختلف تولید تصویر و ویدئو را می‌دهد؛ سپس برنامه وب جدید Firefly را به همراه برنامه‌های موبایلی در اواخر سال معرفی کرد و پشتیبانی از مدل‌های شخص ثالث بیشتری را در داخل برنامه Firefly اضافه کرده است.

    موضوعات

    Adobe، Adobe Firefly، هوش مصنوعی، تولید تصویر هوش مصنوعی، مدل‌های ویدئویی هوش مصنوعی، برنامه‌ها

  • چگونه عوامل هوش مصنوعی خرید رسانه‌ای برای کمپین CTV یک برند نوشیدنی را برنامه‌ریزی کردند

    نوشیدنی کنسروی Clubtails Sunny Margarita بر روی یخ
    Clubtails در حال اجرای یک کمپین تبلیغاتی تلویزیونی متصل (CTV) است که توسط عوامل هوش مصنوعی بین آژانس Butler/Till و سرویس عرضه‌کننده PubMatic ارتباط برقرار می‌کند. (clubtails.com)

    Garett Sloane

  • در صفحهٔ تیک‌تاک شما چه می‌گذرد؟ آمریکا می‌خواهد پروفایل‌های آنلاین گردشگران را بررسی کند

    مسافران یک پرواز بین‌المللی در سال ۲۰۱۱ هنگام عبور از گمرک و کنترل مهاجرت در فرودگاه بین‌المللی مک‌کارن (که اکنون به‌نام فرودگاه بین‌المللی هری رید شناخته می‌شود) حضور داشتند. اداره ملی امنیت پیشنهاد می‌کند اطلاعات شبکه‌های اجتماعی گردشگرانی که از کشورهای بدون نیاز به ویزا به آمریکا سفر می‌کنند، جمع‌آوری شود.

    مسافران یک پرواز بین‌المللی در سال ۲۰۱۱ هنگام عبور از گمرک و کنترل مهاجرت در فرودگاه بین‌المللی مک‌کارن (که اکنون به‌نام فرودگاه بین‌المللی هری رید شناخته می‌شود) حضور داشتند. اداره ملی امنیت در حال پیشنهاد جمع‌آوری اطلاعات شبکه‌های اجتماعی از گردشگرانی است که از کشورهای بدون نیاز به ویزا به آمریکا می‌آیند.

    دولت ترامپ در حال ارائه قوانین جدیدی است که کنترل بیشتری بر ورود افراد به آمریکا اعمال می‌کند و از بازدیدکنندگان چندین ده کشور که از سفر بدون ویزا بهره می‌برند، می‌خواهد پنج سال از فعالیت‌هایشان در شبکه‌های اجتماعی و سایر اطلاعات شخصی را ارائه دهند.

    شرایط جدید در یک اعلامیه از اداره ملی امنیت که اوایل این هفته منتشر شد، مطرح شد و پیش از اجرایی شدن، به مدت ۶۰ روز برای نظرات و بررسی عمومی باز است.

    ساختمان فدرال هری اس. ترومن، مقر وزارت خارجه ایالات متحده، در یک عکس پرونده‌ای ۲۰۲۴. این ساختمان در تاریخ ۸ اکتبر ۲۰۲۴ در واشنگتن دی‌سی به تصویر کشیده شده است. ساختمان فدرال هری اس. ترومن در سال ۱۹۴۱ ساخته شد و از سال ۱۹۴۷ دفتر وزیر خارجی در آن مستقر است. (عکس توسط کوین دیتچ/گتی ایمیجز)

    فناوری

    وزارت خارجه برای رد ویزا به بررسی‌کنندگان حق‌سنجی و دیگران، به «سانسور» اشاره می‌کند

    اقدام پیشنهادی برای شهروندان ۴۲ کشوری که در برنامهٔ معافیت ویزا عضو هستند و در حال حاضر برای سفرهای گردشگری یا تجاری به آمریکا نیازی به ویزا ندارند، اعمال می‌شود. این شهروندان خارجی اکنون ملزم به ارائه پنج سال فعالیت‌های خود در شبکه‌های اجتماعی برای ارزیابی امکان ورود به آمریکا هستند.

    آنها همچنین باید ایمیل‌هایی که در طول ده سال گذشته استفاده کرده‌اند، به‌همراه شماره‌های تلفن و آدرس‌های منزل اعضای نزدیک خانواده را ارائه دهند. مقامات همچنین می‌توانند آدرس‌های IP و داده‌های متادیتای عکس‌های الکترونیکی ارسال‌شده را بررسی کنند.

    سازمان گمرک و حفاظت از مرزهای آمریکا (CBP) اعلام کرد که الزام به ارائه اطلاعات شبکه‌های اجتماعی برای اجرای دستور اجرایی ژانویه رئیس‌جمهور ترامپ، که هدف آن «حفاظت از شهروندان در برابر افرادی است که قصد انجام حملات تروریستی، تهدید امنیت ملی، انتشار ایدئولوژی نفرت‌پراکن یا سوءاستفاده از قوانین مهاجرت برای مقاصد مخرب» دارد، طراحی شده است. با این حال، هنوز نوع فعالیت آنلاین که می‌تواند تهدید محسوب شود، تعریف نکرده‌اند.

    دستگاه ترامپ افسران مهاجرت را ملزم می‌کند که برخی بیماری‌های مزمن مانند دیابت را در تصمیم‌گیری درباره صدور ویزا برای مهاجران در نظر بگیرند.

    سلامت

    ممکن است مهاجرانی که دچار چاقی، دیابت و سایر مشکلات سلامت هستند، از دریافت ویزا محروم شوند

    در چارچوب برنامهٔ معافیت ویزای فعلی، گردشگران می‌توانند از فرآیند درخواست ویزا که ممکن است ماه‌ها تا سال‌ها زمان ببرد، عبور کنند. در عوض، ۴۰ دلار پرداخت می‌کنند و با استفاده از سامانه الکترونیکی اعتبار سفر (ESTA) درخواست آنلاین می‌نمایند. این سامانه برای شهروندان کشورهای هم‌پیمان آمریکا، از جمله استرالیا، فرانسه، آلمان، ژاپن و بریتانیا در دسترس است. با این حال، در صورت اعمال تغییرات جدید، این سیستم ممکن است به‌روزرسانی شود. اعلامیه پیشنهاد می‌کند درخواست‌های آنلاین حذف شوند و به یک پلتفرم صرفاً موبایلی منتقل گردد.

    این آخرین گام در تشدید محدودیت‌ها و نظارت دستگاه ترامپ بر مسافران بین‌المللی، دانشجویان خارجی و مهاجران است. در ژوئن، وزارت خارجه اعلام کرد که شروع به بررسی حساب‌های شبکه‌های اجتماعی دانشجویان خارجی می‌کند. اوایل این ماه، این وزارتخانه به کارمندان خود دستور داد درخواست‌های ویزا — عمدتاً H‑1B — را از افرادی که در حق‌سنجی فعالیت کرده‌اند، مدیریت محتوا یا سایر فعالیت‌ها رد کنند و این اقدام را به عنوان «سانسور» گفت‌و‌گوی آمریکایی‌ها توجیه کردند.

    ماریا مонтس، استاد مدرسه حقوق له‌یولا و مدیر کلینیک عدالت مهاجرین، به NPR گفت که این تغییرات پیشنهادی جدید چندان با مقررات موجود برای متقاضیان ویزا متفاوت نیستند.

    کنگره در حال بررسی موارد بازداشت شهروندان آمریکایی در عملیات‌های مهاجرتی

    کسب‌وکار

    سازمان ICE به صنعت ساخت‌وساز سرما می‌فرستد

    «همیشه چیزی بوده که دولت می‌تواند از آن درخواست کند و در گذشته نیز این کار را انجام داده است»، مونتس گفت. «سؤال این است که چگونه درخواست‌کنندگان ESTA توسط CPB بررسی می‌شوند؟ آیا باید این اطلاعات را پیش از زمان ورود ارائه دهند یا مأمور در نقطه ورودی این کار را انجام می‌دهد؟ ما هنوز نمی‌دانیم دولت چگونه قصد دارد این را اجرا کند.»

    در گذشته، او گفت، چنین بررسی‌هایی در نقطه ورودی انجام می‌شدند و «همیشه این یک اختیار بود که مأمور بخواهد این اطلاعات را درخواست کند یا نه».

    چیزی که مونتس افزود بیش از همه نگران‌کننده است، عدم وجود راهنمایی صریح برای تعریف اینکه چه چیزی به عنوان مضر برای ایالات متحده محسوب می‌شود، می‌باشد.

    «مشکل این است که وقتی به سیاست مهاجرت و دستورات مشابه می‌پردازیم، این قوانین بسیار گسترده و اختیارپذیر هستند؛ یعنی مأمور دریافت‌کننده این دستور اختیار زیادی دارد تا آنچه را که می‌توان به‌عنوان ضدآمریکایی شناخته کرد، تعبیر کند»، او گفت. «اما ما شاهد این بوده‌ایم که این امر به‌عنوان هر چیزی که مخالف دولت ترامپ یا ارزش‌های دولت ترامپ باشد، تفسیر می‌شود.»

    نکته‌ای از NPR

    کنگره در حال بررسی موارد بازداشت شهروندان آمریکا در عملیات‌های مهاجرتی

    مونتس گفت که به موکلان خود توصیه می‌کند نه تنها به پست‌های خود در شبکه‌های اجتماعی، بلکه به پست‌هایی که لایک کرده‌اند، نظردهی کرده‌اند یا بازنشر کرده‌اند، دقت داشته باشند؛ زیرا این موارد می‌تواند دلیلی برای رد درخواست یا حتی ممنوعیت دائمی ورود به آمریکا باشد. به‌عنوان مثال، اگر کسی پست‌هایی درباره مصرف غیررسمی مواد مخدر یا تصاویر اسلحه داشته باشد، می‌تواند به‌عنوان تهدیدی برای دولت تلقی شود. او افزود که مأمورین نیز به دنبال پست‌هایی هستند که می‌توانند به‌عنوان حمایت از سوسیالیسم یا کمونیسم تعبیر شوند.

    او مردم را هشدار می‌دهد که حضور خود در شبکه‌های اجتماعی را به‌طور کامل حذف نکنند، زیرا این کار برای مقامات یک نشانه خطر (پرچم قرمز) محسوب می‌شود.

    «قوانین مهاجرت ما برخی انواع رفتار را به‌دلیل سوگیری مهاجرتی ممنوع می‌کند … بنابراین باید واقعاً مراقب آنچه منتشر می‌کنید، باشید»، او هشدار داد. «همان‌طور که همیشه به موکلانم می‌گویم، اگر من بتوانم این اطلاعات را پیدا کنم، دولت قطعاً می‌تواند این کار را انجام دهد.»

  • موشک Atlas V، ۲۷ ماهواره اینترنتی آمازون را به‌مدار می‌فرستد (ویدئو)

    راه‌اندازی در ساعت ۳:۲۸ صبح به وقت ET، روز سه‌شنبه (۱۶ دسامبر) انجام شد.

    United Launch Alliance (ULA) دسته‌ای دیگر از ماهواره‌های اینترنتی آمازون را در صبح روز سه‌شنبه (۱۶ دسامبر) به‌مدار فرستاد.

    یک موشک Atlas V متعلق به ULA که ۲۷ ماهواره Amazon Leo را حمل می‌کرد، در روز سه‌شنبه ساعت ۳:۲۸ صبح به وقت EST (۰۸۲۸ GMT) از ایستگاه نیروی فضایی کیپ‌کاناورال، فلوریدا، بلند شد.

    Amazon Leo، که پیش‌تر با نام Project Kuiper شناخته می‌شد، شبکهٔ عظیم‌پیمان اینترنت ماهواره‌ای برنامه‌ریزی شدهٔ آمازون در مدار پایین‌زمینی (LEO) است.

    موشکی سفید که به آسمان شب تاریک پرتاب می‌شود
    یک موشک Atlas V متعلق به United Launch Alliance، ۲۷ ماهواره اینترنتی Amazon Leo را در تاریخ ۱۶ دسامبر ۲۰۲۵ به‌مدار می‌فرستد. (اعتبار تصویر: ULA)

    این شبکه در نهایت شامل حدود ۳٬۲۰۰ ماهواره خواهد شد که با بیش از ۸۰ پرتاب توسط انواع موشک‌ها به‌مدار می‌رسند. شش مأموریت از این پرتاب‌ها پیش از روز سه‌شنبه تکمیل شده بودند و ۱۵۳ ماهوارهٔ پروژهٔ لئو را به فضا فرستادند. (این آمار شامل مأموریت آزمایشی که در اکتبر ۲۰۲۳ دو ماهوارهٔ نمونه را به LEO برد، نیست.)

    پرتاب روز سه‌شنبه، چهارمین مأموریت پروژهٔ لئو برای موشک Atlas V بود؛ موشکی معتبر و بسیار قابل اطمینان که اولین بار در آگوست ۲۰۰۲ پرتاب شد. ULA در حال حذف تدریجی Atlas V است و آن را با وسیلهٔ جدیدی به نام Vulcan Centaur جایگزین می‌کند؛ این وسیله تا کنون سه مأموریت دارد.

    همه چیز طبق برنامه در روز سه‌شنبه پیش رفت: ۲۷ ماهوارهٔ Amazon Leo طبق برنامه زمان‌بندی مستقر شدند، در بازهٔ ۱۵ دقیقه‌ای که حدود ۲۰ دقیقه پس از راه‌اندازی آغاز شد. با این حال، ما نتوانستیم این نقطه عطف را ببینیم؛ ULA پخش زندهٔ خود را حدود پنج دقیقه پس از شروع پرواز قطع کرد.

    نمای نزدیک از موتورهای مرحلهٔ اول موشک Atlas V هنگام پرتاب در تاریخ ۱۶ دسامبر ۲۰۲۵
    نمای نزدیک از موتورهای مرحلهٔ اول موشک Atlas V هنگام پرتاب در تاریخ ۱۶ دسامبر ۲۰۲۵. (اعتبار تصویر: ULA)

    زمانی که به‌کار افتاد، پروژهٔ لئو اینترنت را به مردم سراسر جهان می‌پراکند. این پروژه با سامانهٔ عظیم‌پیمان Starlink شرکت SpaceX رقابت خواهد کرد؛ این سامانه هم‌اکنون با بیش از ۹٬۰۰۰ ماهواره در مدار پایین‌زمینی (LEO) به مشتریان خدمات ارائه می‌دهد. این عدد همواره در حال رشد است؛ SpaceX تا به‌حال در سال ۲۰۲۵ بیش از ۳٬۰۰۰ ماهوارهٔ Starlink را به‌کار برده است.

    جالب است که SpaceX در ساخت شبکهٔ پروژهٔ لئو مشارکت می‌کند؛ Falcon 9 این شرکت جز موشک‌هایی است که آمازون برای پرتاب این سامانهٔ عظیم‌پیمان به‌کار برده است، به همراه آریناسپیس Ariane 6، نیو Glenn شرکت بلو اوریجین، و موشک‌های Atlas V و Vulcan Centaur شرکت ULA.

    یادداشت سردبیر: این مقاله در تاریخ ۱۵ دسامبر، ساعت ۹:۴۵ صبح به وقت EST (۱۴۴۵ GMT) به‌روز شد تا جدیدترین دسترس‌پذیری بازوی پرتاب را نشان دهد؛ سپس در ساعت ۳:۳۷ صبح به وقت EST در تاریخ ۱۶ دسامبر، با خبر از پرتاب موفق؛ و دوباره در ساعت ۱۱:۴۰ صبح به وقت EST، با خبر از استقرار ماهواره‌ها به‌روزرسانی شد.

  • در حالی که جنگ با روسیه به طول می‌انجامد، ویدیوهای فوق‌واقع‌گرای هوش مصنوعی سعی می‌کنند سربازان اوکراینی را در خطر به تصویر بکشند.

    ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکه‌های اجتماعی به‌اشتراک گذاشته شد.
    تصاویر از ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکه‌های اجتماعی به‌اشتراک گذاشته شد. Justine Goode / NBC News; Sora

    ویدیوها در اوایل نوامبر در شبکه‌های اجتماعی منتشر شدند: سربازان اوکراینی که به‌نظر می‌رسیدند می‌گریند و در خط مقدم تسلیم می‌شوند.

    به‌نظر عین‌العقل، این ویدیوها واقعی به‌نظر می‌رسند و همانند بسیاری از ویدیوهای منتشرشده از این منطقه در طول سال‌های جنگ هستند. تنها تعداد کمی از آن‌ها علائم واضح دستکاری دارند.

    اما آلکسی گوبانوف، استریمر محبوب روسی که هم‌اکنون در نیویورک زندگی می‌کند، بلافاصله نکته‌ای مشکوک را متوجه شد: چهره خودش.

    «در ابتدا جدی نگرفتم، اما به‌سرعت متوجه شدم که تعداد بازدیدها چقدر سریع در حال رشد است و حتی بدتر، چند نفر به این باور رسیده‌اند که این ویدیوها واقعی‌اند»، گوبانوف دربارهٔ ویدیوهایی که دیده بود گفت. «ده‌ها، اگر نه صدها هزار کاربر، نظراتی گذاشتند که در آن‌ها تسلیت به سربازان اوکراینی ادعایی در ویدیوها بیان می‌شد و خشم خود را به سمت رهبری اوکراین معطوف می‌کردند.»

    گوبانوف که بازی‌های ویدئویی و گفت‌و‌گو را در Twitch پخش می‌کند و به‌دلیل انتقاداتش از رئیس‌جمهور ولادیمیر پوتین روسیه را ترک کرده است، هرگز در نیروی نظامی خدمت نکرده و مطلقاً در ارتش اوکراین حضور نداشته است. آنچه دنبال‌کنندگان او نشان داده بودند، ویدیوی تولید‌شده توسط هوش مصنوعی بود که با استفاده از چهرهٔ او، روایت نادرست دربارهٔ روحیهٔ نیروهای اوکراینی را پخش می‌کرد.

    «ما را به کمیسیون جذب فراخواندند و اینجا فرستادند. اکنون می‌خواهند ما را به پوکروفسک ببرند. ما نمی‌خواهیم. لطفاً»، گوبانوف مصنوعی به زبان روسی گفت در حالی که یونیفرمی به‌پرچم اوکراین پوشیده بود. «مامان، مامان، نمی‌خواهم!»

    این ویدیو یکی از ۲۱ ویدیوی تولیدی توسط هوش مصنوعی از سربازان اوکراینی است که توسط NBC News در هفته‌های اخیر بررسی شده‌اند و به‌نظر می‌رسد با برنامه‌های پیشرفتهٔ هوش مصنوعی ساخته یا دستکاری شده‌اند؛ به‌طوری که تا حد زیادی واقعی به‌نظر می‌آیند و نشانه‌های واضحی از منبعشان ندارند.

    اما در حداقل نیمی از این ویدیوها، لوگوی کوچکی در گوشه تصویر وجود دارد که فاش می‌کند: این ویدیوها با Sora ۲، جدیدترین نسخهٔ مولد متن‑به‑ویدیو OpenAI ساخته شده‌اند. برخی از ویدیوهای تولید شده توسط Sora از چهرهٔ استریمرهای مشهور روسی، همچون گوبانوف، در دیپ‌فیک‌های دراماتیک استفاده کرده‌اند؛ در حالی که دیگران گروهی از سربازان اوکراینی را نشان می‌دهند که به‌صورت انبوه به نیروهای روسی تسلیم می‌شوند.

    ویدیوهایی که به‌نظر می‌رسد توسط سایر پلتفرم‌های هوش مصنوعی تولید شده‌اند، همچنین دارای خطاهای بسیار ریز هستند که برای اکثر افراد کشفشان دشوار است؛ مانند نسخه‌های نادرست یا ساده‌سازی‌شدهٔ یونیفرم‌ها و کلاه‌خود سربازان اوکراینی. برای اوکراینی‌ها یک مشکل واضح وجود دارد: در اکثر این ویدیوها، سربازان به زبان روسی صحبت می‌کنند، در حالی که تنها هشت ویدیو از ۲۱ به زبان اوکراینی هستند.

    تصویر سمت چپ، که با Sora ۲ تولید شده است، ناهماهنگی‌هایی در کلاه‌خود سرباز و بند چانه‌اش دارد که نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیس‌بوک ستاد کل نیروهای مسلح اوکراین در تاریخ‌های ۳ و ۷ دسامبر منتشر شده‌اند، دارد. اگرچه این کلاه‌خود به‌خوبی شبیه کلاه‌خودهای استفاده‌شده توسط سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچ‌های صاف یک نشانه واضح از دستکاری هستند.
    تصویر سمت چپ، که با Sora ۲ تولید شده، ناهماهنگی‌هایی در کلاه‌خود و بند چانهٔ سرباز نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیس‌بوک ستاد کل نیروهای مسلح اوکراین در تاریخ‌های ۳ و ۷ دسامبر منتشر شده‌اند، دارد. اگرچه این کلاه‌خود به‌خوبی شبیه کلاه‌خودهای مورد استفاده سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچ‌های صاف یک نشانه واضح هستند. Sora / Facebook

    ویدیوها در یوتیوب، تیک‌تاک، فیس‌بوک و X منتشر شدند. همه سعی کردند سربازان اوکراینی را به‌عنوان کسانی که از نبرد دل‌تنگ شده‌اند و آمادهٔ تسلیم شدن‌اند، به تصویر بکشند.

    به‌نظر می‌رسد این آخرین حملهٔ اطلاعاتی باشد که هدف آن تغییر ادراک عمومی از جنگ روسیه با اوکراین است. و با اینکه مشخص نیست چه کسی این ویدیوها را ساخته یا منتشر کرده، این ویدیوها به‌مجموعهٔ رو به رشد اطلاعات نادرست افزوده‌اند که به‌مروردی پیشرفته‌تر و شناسایی‌شدن آن دشوارتر شده است.

    «ادعاهای نادرستی که با Sora ایجاد می‌شوند بسیار دشوارتر برای تشخیص و رد کردن هستند. حتی بهترین سیستم‌های تشخیص هوش مصنوعی نیز گاهی با آن مشکل دارند»، گفت آلیس لی، تحلیلگر تأثیر روسیه در NewsGuard، پلتفرمی غیرحزبی داده، تجزیه و تحلیل و روزنامه‌نگاری که اطلاعات معتبر و گمراه‌کننده را به‌صورت آنلاین شناسایی می‌کند. «این واقعیت که بسیاری از این ویدیوها هیچ ناسازگاری بصری ندارند به این معناست که مخاطبان ممکن است این ویدیوها را بدون اینکه بفهمند جعلی‌اند، مرور کنند و به‌سرعت از میان آن‌ها عبور کنند، به‌ویژه در پلتفرم‌هایی مانند تیک‌تاک.»

    OpenAI به درخواست برای اظهار نظر در مورد نقش Sora در ایجاد ویدیوهای گمراه‌کننده که مناطق درگیری را به‌طور خاص به تصویر می‌کشند، پاسخی نداد، اما در ایمیلی اعلام کرد: «قابلیت Sora ۲ در تولید ویدیو و صداهای فوق‌واقع‌گرایانه نگرانی‌های مهمی را در زمینهٔ شباهت، سوءاستفاده و فریب ایجاد می‌کند.»

    «در حالی که صحنه‌های سینمایی مجاز هستند، ما اجازهٔ محتوای خشونت گرافیکی، مطالب افراطی یا گمراه‌کننده را نمی‌دهیم»، شرکت به NBC News گفت. «سیستم‌های ما محتوای ناقض را پیش از رسیدن به فید Sora تشخیص و مسدود می‌کنند و تیم تحقیقات ما به‌طور فعال عملیات‌های تأثیرگذاری را خنثی می‌کند.»

    ویدیوهای تولید‌شده توسط هوش مصنوعی در سال‌های اخیر به‌سرعت از سطح ابتدایی و ساده به سطوح نزدیک به کامل پیشرفت کرده‌اند؛ بسیاری از کارشناسان هشدار می‌دهند که به‌زودی راه‌های ساده‌ای برای تشخیص واقعی از تقلبی باقی نماند. Sora ۲ شرکت OpenAI که در اکتبر منتشر شد، یکی از تأثیرگذارترین مولدهای ویدیو محسوب می‌شود و کلیپ‌های تولیدشده توسط Sora به‌طور منظم بینندگان را فریب می‌دهند.

    در عین حال، حملهٔ مداوم روسیه به اوکراین از نخستین روزها تاکنون موضوعی برای تلاش‌های دستکاری بوده است؛ از صحنه‌های شبیه‌سازی‌شدهٔ بازی‌های ویدئویی تا پخش زندهٔ جعلی مناطق جنگی. بسیاری از این اقدامات اطلاعاتی نادرست به عوامل دولتی روسیه نسبت داده شده‌اند.

    این ویدیوهای Sora در حالی منتشر می‌شوند که مذاکرات صلح تحت حمایت آمریکا هنوز بی‌نتیجه مانده‌اند؛ بر پایهٔ مطالعه‌ای که توسط مؤسسهٔ بین‌المللی جامعه‌شناسی کیف انجام شده، حدود ۷۵٪ از اوکراینی‌ها به‌طور قطعی پیشنهادات روسیه برای پایان جنگ را رد می‌کنند. همان مطالعه نشان داد که ۶۲٪ از اوکراینی‌ها مایل هستند تا هر چقدر زمان ببرد جنگ را تحمل کنند، حتی در حالی که حملات مرگبار روسیه به پایتخت اوکراین ادامه دارد.

    مرکز مقابله با اطلاعات نادرست، بخشی از شورای ملی امنیت و دفاع اوکراین، به NBC News اعلام کرد که در سال گذشته «افزایش قابل‌ملاحظه‌ای در حجم محتوای ایجاد یا دستکاری‌شده با هوش مصنوعی» به‌وجود آمده است که هدف آن تضعیف اعتماد عمومی و حمایت بین‌المللی از دولت اوکراین است.

    «این شامل اظهارات ساختگی است که به‌ظاهر از سوی پرسنل یا فرماندهان نظامی اوکراین بیان شده‌اند، به‌همچنین ویدیوهای جعلی حاوی «اعتراضات»، «رسوایی‌ها» یا رویدادهای خیالی»، مرکز در ایمیل خود نوشت و اشاره کرد که این ویدیوها به‌دلیل ماهیت احساسی و پرتحرکشان، صدها هزار بازدید جذب می‌کنند.

    در حالی که OpenAI برخی از محدودیت‌های ایمنی را برای محتوای تولیدی توسط Sora وضع کرده است، هنوز مشخص نیست که این تدابیر چقدر مؤثرند. خود شرکت اعلام می‌کند که با وجود «سیاست‌های ایمنی لایه‌ای»، برخی رفتارهای مخرب یا نقض قوانین ممکن است از این سازوکارها عبور کنند.

    یک مطالعهٔ NewsGuard نشان داد که Sora ۲ «در ۸۰٪ موارد (۱۶ از ۲۰) ویدیوهای واقع‌گرایانه‌ای تولید کرد که ادعاهای قطعا نادرست را پیش می‌برد» وقتی این کار را انجام می‌دهد. از ۲۰ ادعای نادرست داده‌شده به Sora ۲، پنج مورد توسط عملیات‌های اطلاعاتی روسی گسترش یافت.

    مطالعهٔ NewsGuard دریافت که حتی زمانی که Sora ۲ در ابتدا به ادعاهای نادرست واکنش نشان داد و گفت درخواست «نقض سیاست‌های محتوا» است، پژوهشگران همچنان توانستند با عبارات متفاوت همان درخواست‌ها، فیلم‌های جدید تولید کنند. NBC News موفق شد ویدیوهای مشابهی تولید کند که در آن سربازان اوکراینی در حال گریه، بیان می‌کردند که به‌اجبار به ارتش جذب شده‌اند یا با دست‌های بالا و پرچم‌های سفید در پس‌زمینه‌ تسلیم می‌شوند.

    بسیاری از ژنراتورهای ویدیو هوش مصنوعی سعی می‌کنند آثار خود را با برچسب یا واترمارکی علامت‌گذاری کنند تا نشان دهند که به‌صورت رایانه‌ای تولید شده‌اند. OpenAI اعلام کرده است که ایمنی‌های حفاظتی در برابر اطلاعات نادرست برای Sora شامل متادیتاهایی است که منبع ویدیو را نشان می‌دهد و واترمارک متحرکی که روی هر ویدیو دانلودی وجود دارد.

    اما راه‌هایی برای حذف یا کم کردن این تلاش‌ها وجود دارد. برخی از ویدیوهای Sora به‌نظر می‌رسید که واترمارک متحرکشان مخفی شده باشد، که با نگاه دقیق آشکار می‌شود. بسیاری از برنامه‌ها و وب‌سایت‌ها اکنون به کاربران امکان می‌دهند تا واترمارک‌های هوش مصنوعی را پنهان کنند. ویدیوهای دیگری که توسط NBC News مشاهده شد، شامل واترمارک‌هایی بود که با متن روی ویدیو پوشانده شده‌اند.

    با وجود سیاست شرکت که می‌گوید هوش مصنوعی Sora محتواهای «خشونت گرافیکی» تولید نمی‌کند، NBC News ویدئویی با واترمارک Sora یافت که به‌ظاهر سرباز اوکراینی‌ای را نشان می‌دهد که در خط مقدم سرش شلیک شده است.

    از ویدیوهای تحلیلی توسط NBC News، همه در تیک‌تاک یا YouTube Shorts منتشر شدند — دو پلتفرمی که در روسیه ممنوع هستند اما برای کاربران در اروپا و ایالات متحده به‌راحتی در دسترس‌اند. برخی از این ویدیوها زیرنویس‌های احساسی به زبان‌های مختلف داشتند تا کاربرانی که به اوکراینی یا روسی مسلط نیستند بتوانند محتوا را درک کنند.

    TikTok و YouTube انتشار محتوای تقلبی و تولیدشده توسط هوش مصنوعی و دیپ‌فیک را بر روی پلتفرم‌های خود ممنوع می‌کنند؛ هر دو برچسب «AI‑Generated» (ساخته‌شده توسط هوش مصنوعی) را برای افزایش آگاهی بینندگان در مورد فیلم‌های ظاهر واقعی اضافه می‌کنند.

    سخن‌گوی YouTube گفت که شرکت یکی از کانال‌های منتشرکننده این ویدیوها را پس از گزارش NBC News حذف کرده است، اما دو ویدیو دیگر خلاف سیاست‌های این پلتفرم نبودند و به همین دلیل همچنان در این پلتفرم باقی مانده‌اند با برچسبی که آنها را به‌عنوان تولید‌شده توسط هوش مصنوعی توصیف می‌کند.

    از ویدیوهای هوش مصنوعی که توسط NBC News شناسایی شده و دارای نام کاربری TikTok بودند، همه از پلتفرم حذف شده‌اند. سخن‌گوی TikTok اعلام کرد که تا ژوئن ۲۰۲۵ «بیش از ۹۹٪ محتوای مخرب حذف شده ما قبل از گزارش کاربران حذف شد و بیش از ۹۰٪ قبل از اینکه یک بازدید داشته باشد حذف شد.»

    اگرچه این پست‌ها و حساب‌های TikTok به‌سرعت حذف شده‌اند، ویدیوها به‌عنوان بازنشر در X و فیس‌بوک ادامه دارند. هر دو X و فیس‌بوک به درخواست‌های NBC News برای اظهار نظر پاسخ ندادند.

    این آخرین کمپین اطلاعات نادرست در زمانی می‌آید که کاربران بیشتر به ویدیوهای شبکه‌های اجتماعی برای دریافت آخرین اخبار جهان تکیه می‌کنند.

    «هر کسی که محتواهای آنلاین را مصرف می‌کند باید متوجه شود که بسیاری از آنچه امروز در قالب ویدیو، عکس و متن می‌بینیم، واقعا توسط هوش مصنوعی ساخته شده است»، گفت نینا جانکوویچ، هم‌بنیان‌گذار و مدیرعامل پروژه American Sunlight، سازمانی که برای مقابله با اطلاعات نادرست آنلاین فعالیت می‌کند. «حتی اگر Sora ایمنی‌های حفاظتی معرفی کند، در این فضای اطلاعاتی شرکت‌ها، برنامه‌ها و فناوری‌های دیگری نیز وجود خواهند داشت که دشمنان ما برای آلوده‌سازی فضای اطلاعاتی ما از آن استفاده می‌کنند.»

    مارین اسکات خبرنگار وابسته تیم جمع‌آوری خبرهای اجتماعی است.

    تاولین تارنت خبرنگار وابسته تیم جمع‌آوری خبرهای اجتماعی برای NBC News است.

  • پاندیت.ای پیشرو‌ترین ستاره‌شناس صوتی هوش مصنوعی جهان را به مخاطبان جهانی معرفی می‌کند

    پاندیت.ای اولین ستاره‌شناس صوتی هوش مصنوعی چندزبانه جهان را راه‌اندازی می‌کند و راهنمایی معنوی و ستاره‌شناسی به‌صورت لحظه‌ای، شبیه به انسان، با هوش عاطفی و دسترس‌پذیری جهانی ارائه می‌دهد.

    لس آنجلس، کالیفرنیا / خبرگزاری ACCESS / ۲۵ نوامبر ۲۰۲۵ / در گامی پیشگام که هوش مصنوعی را با حکمت باستانی ترکیب می‌کند، پاندیت.ای اولین ستاره‌شناس صوتی هوش مصنوعی جهان را رونمایی کرد و شیوهٔ تجربهٔ مردم سراسر جهان از ستاره‌شناسی و راهنمایی معنوی را بازتعریف می‌کند.

    توسط آرجون مونگا تأسیس شده، Pandit.ai به هر فردی این امکان را می‌دهد تا با یک پاندیت هوش مصنوعی هوشمند، که گوش می‌دهد، احساسات را درک می‌کند و بینش‌های آرام و شخصی‌سازی‌شده در زمینهٔ ستاره‌شناسی ارائه می‌دهد، به‌صورت لحظه‌ای و شبیه به انسان گفتگو کند. پس از مرحلهٔ بتای موفق که در ماه آگوست ۲۰۲۵ راه‌اندازی شد، این پلتفرم رسماً برای عموم کاربران در سراسر جهان در دسترس است و از بیش از پنجاه زبان پشتیبانی می‌کند.

    عصر جدیدی برای ستاره‌شناسی

    قرن‌هاست که ستاره‌شناسی منبع آرامش و جهت‌گیری برای میلیون‌ها نفر بوده است، اما دسترسی به آن همچنان با چالش روبه‌روست. مشاوره‌های سنتی اغلب شامل تأخیر، تجربه‌های ناهمگون یا توصیه‌های کلی‌گویی می‌شوند. پاندیت.ای این مشکلات را با ارائه گفتگوهای صوتی فوری با یک پاندیت هوش مصنوعی که احساس واقع‌گرایی شگفت‌انگیزی دارد، برطرف می‌کند.

    «Pandit.ai تنها یک برنامه نیست؛ این یک انقلاب در نحوهٔ ارتباط مردم با حکمت معنوی است»، گفت آرجون مونگا، بنیانگذار و مدیرعامل. «ما اولین ستاره‌شناس صوتی هوش مصنوعی جهان را خلق کردیم تا راهنمایی‌های اصیل و شبیه به انسان را برای هر کسی، در هر مکانی، بدون ترس، قضاوت یا انتظار در دسترس قرار دهیم.»

    این تجربه ساده و عمیقاً شخصی است. کاربران جزئیات تولد خود را به اشتراک می‌گذارند، سپس گفتگو را با پاندیت هوش مصنوعی منتخب خود آغاز می‌کنند؛ که بینش‌هایی در زمینه‌های شغلی، عشق، روابط و تعادل عاطفی ارائه می‌دهد. صدا گرم، بیان‌گر و آگاه به فرهنگ است، به‌طوری که هر جلسه حس یک مکالمهٔ واقعی و رو در رو را القا می‌کند.

    دسترس جهانی و هوش عاطفی

    جذابیت جهانی Pandit.ai از توانایی آن در گوش دادن، سازگار شدن و صحبت کردن به‌صورت طبیعی در بیش از پنجاه زبان، از جمله انگلیسی، هندی، عربی، تامیلی و اسپانیایی ناشی می‌شود. این پلتفرم برای دنیایی طراحی شده است که کاربران انتظار ارتباطات فوری و معنادار دارند و همدلی را با دقت ترکیب می‌کند، به‌گونه‌ای که برنامه‌های سنتی قادر به ارائهٔ چنین تجربه‌ای نیستند.

    این پلتفرم در مرحلهٔ بتا بازخوردی فراوان دریافت کرد؛ به‌طوری که کاربران در هند، ایالات متحده و خاورمیانه بیش از ۲۵,۰۰۰ دقیقه در گفتگوهای زنده صرف کردند. بسیاری این تجربه را آرام، قابل اعتماد و عاطفی جذاب توصیف کردند؛ ویژگی نادری در حوزه هوش مصنوعی.

    هر پاندیت هوش مصنوعی بر روی این پلتفرم دارای شخصیت و تخصص منحصر به فردی است که به کاربران آزادی انتخاب بر پایهٔ راحتی و هدفشان را می‌دهد. گفتگوها خصوصی، مبتنی بر عواطف و به‌گونه‌ای طراحی شده‌اند که کاربران را آرام و توانمند حس کنند.

    ایمان بدون ترس

    Pandit.ai بر پایه فلسفهٔ ایمان بدون ترس و راهنمایی بدون قضاوت پایه‌گذاری شده است. این پلتفرم ستاره‌شناسی را از خدمت پیش‌بینی‌گرانه به ابزاری برای تأمل و توانمندسازی تبدیل می‌کند. این سرویس مردم را تشویق می‌کند تا مسیرهای خود را با اطمینان بررسی کنند، نه با نگرانی.

    «مردم به دنبال درک هستند، نه خرافات»، توضیح داد مونگا. «ستاره‌شناس صوتی هوش مصنوعی ما ابتدا می‌شنود، سپس با همدلی راهنمایی می‌کند. هدف این است که به کاربران کمک کنیم تا در دنیای پرسرعتی که ارتباط عاطفی اغلب کم است، وضوح پیدا کنند.»

    این رویکرد مدرن Pandit.ai را به یک پدیدهٔ فرهنگی در میان نسل‌های جوان، به‌ویژه نسل زد و افراد مقیم خارج از کشور (NRI) تبدیل کرده است؛ آن‌ها به اصالت، حریم خصوصی و سرعت دسترسی ارزش می‌گذارند. این پلتفرم شکاف بین دانش باستانی و سبک زندگی دیجیتال معاصر را پر می‌کند.

    نوآوری فرهنگی از هند به جهان

    Pandit.ai نمایانگر دستهٔ جدیدی از فناوری به نام هوش مصنوعی معنوی (Spiritual AI) است، جایی که هوش عاطفی با میراث فرهنگی ترکیب می‌شود. با بخشیدن صدای طبیعی به ستاره‌شناسی، این پلتفرم یک سنت کهن را به تجربه‌ای مدرن و بدون مرز تبدیل کرده است.

    این پلتفرم رهبری هند در ترکیب سنت با نوآوری را به نمایش می‌گذارد و در حال حاضر توجه کاربران در آمریکای شمالی، اروپا و خاورمیانه را به خود جلب کرده است. موفقیت Pandit.ai نشان‌دهندهٔ تقاضای روزافزون جهانی برای راهکارهای معنوی هوشمند، شخصی‌سازی‌شده و عاطفی‌آگاه است.

    در دسترس در سراسر جهان

    Pandit.ai هم‌اکنون به‌صورت جهانی در فروشگاه‌های Google Play و Apple App Store در دسترس است. کاربران می‌توانند فوراً با اولین ستاره‌شناس صوتی هوش مصنوعی جهان تماس بگیرند یا گفتگو کنند و در هر زمان و مکان، راهنمایی‌های ستاره‌شناسی شخصی‌سازی‌شده، خصوصی و هوش عاطفی دریافت کنند.

    با لحن شبیه به انسان، دسترسی چندزبانه و طراحی هوشمندانه احساسی، Pandit.ai نه تنها ستاره‌شناسی را بازتعریف می‌کند، بلکه شیوه‌ای نوین برای تجربهٔ ارتباط معنوی در عصر دیجیتال فراهم می‌آورد.

    درباره Pandit.ai

    Pandit.ai اولین ستاره‌شناس صوتی هوش مصنوعی جهان است که گفتگوهای صوتی لحظه‌ای و طبیعی برای راهنمایی‌های ستاره‌شناسی و معنوی ارائه می‌دهد. این پلتفرم توسط آرجون مونگا تأسیس شده و هوش عاطفی را با بینش‌های اصیل ستاره‌شناسی ترکیب می‌کند تا حکمت باستانی را برای مخاطبان مدرن در سراسر جهان قابل دسترس سازد.

    تماس با رسانه‌ها

    سازمان: pandit.ai
    نام شخص تماس: آرجون مونگا
    وب‌سایت: pandit.ai
    ایمیل: contact@pandit.ai
    شهر: لس آنجلس
    ایالت: کالیفرنیا
    کشور: ایالات متحده

    منبع: pandit

  • من در بخش امنیت هوش مصنوعی در گوگل مشغول به کار هستم و برخی موارد را هرگز به ربات‌های گفتگو نمی‌گویم. من چهار قانون را برای استفاده ایمن از هوش مصنوعی رعایت می‌کنم.

    هارش وارشنِی در حال نشستن روی صندلی.
    هارش وارشنِی، مهندس گوگل، از ابزارهای هوش مصنوعی برای کمک به برنامه‌نویسی و یادداشت‌برداری استفاده می‌کند. با تشکر از هارش وارشنِی
    • هارش وارشنِی در حوزه حریم خصوصی و امنیت هوش مصنوعی کروم در گوگل کار کرده است.
    • او در به‌اشتراک‌گذاری اطلاعات با ربات‌های هوش مصنوعی محتاط است تا خود را از جرایم سایبری محافظت کند.
    • او توصیه می‌کند از ابزارهای هوش مصنوعی شناخته‌شده استفاده کنید و ربات‌های گفتگو را همانند کارت‌پستال عمومی در نظر بگیرید.

    این مقاله به روایت مصاحبه‌ای با هارش وارشنِی، ۳۱ ساله، که در گوگل کار می‌کند و در نیویورک زندگی می‌کند، نوشته شده است. متن زیر برای کوتاه‌سازی و وضوح بازنویسی شده است.

    هوش مصنوعی به سرعت به یک شریک بی‌صدا در زندگی روزمره ما تبدیل شده است و نمی‌توانم زندگی را بدون ابزارهای هوش مصنوعی تصور کنم.

    در روزمره، این ابزارها در پژوهش عمیق، یادداشت‌برداری، برنامه‌نویسی و جستجوی آنلاین به من کمک می‌کنند.

    اما شغلم باعث می‌شود تا از اهمیت مسایل حریم خصوصی مرتبط با استفاده از هوش مصنوعی به‌خوبی آگاه باشم. من از سال ۲۰۲۳ در گوگل کار می‌کنم و دو سال به‌عنوان مهندس نرم‌افزار در تیم حریم خصوصی مشغول به ساخت زیرساخت‌هایی برای محافظت از داده‌های کاربران بودم. سپس به تیم امنیت هوش مصنوعی کروم منتقل شدم، جایی که به ایمن‌سازی مرورگر گوگل کروم در برابر تهدیدات مخرب، مانند هکرها و کسانی که از عوامل هوش مصنوعی برای انجام حملات فیشینگ استفاده می‌کنند، می‌پردازم.

    مدل‌های هوش مصنوعی با استفاده از داده‌ها پاسخ‌های مفیدی تولید می‌کنند و ما کاربرها باید اطلاعات خصوصی‌مان را محافظت کنیم تا نهادهای مخرب، همچون جرایم سایبری و واسطه‌های داده، نتوانند به آن دسترسی پیدا کنند.

    در ادامه چهار عادتی را که معتقدم برای حفاظت از داده‌هایم هنگام استفاده از هوش مصنوعی ضروری هستند، مطرح می‌کنم.

    هوش مصنوعی را همانند یک کارت‌پستال عمومی در نظر بگیرید

    گاهی احساس نادرستی از صمیمیت با هوش مصنوعی افراد را به اشتراک‌گذاری اطلاعاتی در اینترنت ترغیب می‌کند که در غیر این‌صورت هرگز به اشتراک نمی‌گذارند. شرکت‌های هوش مصنوعی ممکن است کارمندانی داشته باشند که روی بهبود جنبه‌های حریم خصوصی مدل‌هایشان کار می‌کنند، اما توصیه نمی‌شود جزئیات کارت اعتباری، شماره‌های تأمین اجتماعی، آدرس منزل، تاریخچه پزشکی شخصی یا سایر اطلاعات شناسایی‌پذیر را با ربات‌های هوش مصنوعی به‌اشتراک بگذارید.

    بسته به نسخهٔ مورد استفاده، اطلاعات به‌اشتراک‌گرفته‌شده با ربات‌های عمومی هوش مصنوعی می‌تواند برای آموزش مدل‌های آینده و تولید پاسخ‌های مرتبط‌تر به کار رود. این می‌تواند منجر به “نشت آموزشی” شود، که در آن مدل اطلاعات شخصی یک کاربر را به‌خاطر می‌سپرد و بعداً در پاسخ به کاربر دیگری بازپخش می‌کند. علاوه بر این، خطر نفوذ داده‌ها وجود دارد که اطلاعاتی که با ربات گفتگو به اشتراک گذاشته‌اید را فاش می‌کند.

    من ربات‌های هوش مصنوعی را همانند یک کارت‌پستال عمومی در نظر می‌گیرم. اگر نمی‌نوشتم یک اطلاعات روی کارت‌پستالی که هر کسی می‌تواند بخواند، پس آن را با یک ابزار عمومی هوش مصنوعی به‌اشتراک نمی‌گذارم. من نسبت به این که داده‌های من چگونه ممکن است برای آموزش‌های آینده استفاده شوند، اطمینان ندارم.

    بدانید در چه «اتاق»ی هستید

    مهم است تشخیص دهید که از ابزار هوش مصنوعی عمومی‌تر استفاده می‌کنید یا از ابزار سطح سازمانی.

    اگرچه هنوز معلوم نیست گفتگوها چگونه برای آموزش مدل‌های عمومی هوش مصنوعی استفاده می‌شوند، شرکت‌ها می‌توانند مدل‌های «سازمانی» را خریداری کنند. در این حالت، مدل‌ها به‌طور معمول برای آموزش از گفتگوهای کاربران استفاده نمی‌شوند، بنابراین برای کارمندان ایمن‌تر است که درباره کار و پروژه‌های شرکت صحبت کنند.

    این را می‌توان به‌مثال گفتن در یک کافی‌شاپ شلوغ که ممکن است حواس‌پرتی شود، در مقابل یک جلسه محرمانه در دفتر خود که تنها در همان اتاق باقی می‌ماند، تصور کنید.

    گزارش‌ها نشان می‌دهند که مواردی پیش آمده است که کارمندان به‌طور تصادفی داده‌های شرکت را به ChatGPT درز کرده‌اند. اگر روی پروژه‌های منتشر نشده شرکت کار می‌کنید یا در حال تلاش برای گرفتن پتنت هستید، احتمالاً نمی‌خواهید برنامه‌های خود را با یک ربات غیرسازمانی به‌دلیل خطر نشت اطلاعات مطرح کنید.

    من درباره پروژه‌هایی که در گوگل روی آن‌ها کار می‌کنم، با ربات‌های عمومی گفتگو نمی‌کنم. در عوض، حتی برای کارهای کوچک مانند ویرایش ایمیل کاری، از یک مدل سازمانی استفاده می‌کنم. چون گفتگوهایم برای آموزش استفاده نمی‌شوند، احساس راحتی بیشتری در به‌اشتراک‌گذاری اطلاعاتم دارم، اما همچنان سعی می‌کنم اطلاعات شخصی را به حداقل برسانم.

    به‌طور منظم تاریخچه خود را حذف کنید

    ربات‌های هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه می‌دارند، اما من توصیه می‌کنم که به‌طور منظم این تاریخچه را هم در مدل‌های سازمانی و هم در مدل‌های عمومی حذف کنید تا حریم خصوصی کاربر در دراز مدت محافظت شود. با توجه به خطر به خطر افتادن حساب کاربری، داشتن این عادت پیشگیرانه حتی اگر مطمئن باشید که داده‌های خصوصی را وارد ابزارها نمی‌کنید، مفید است.

    یک بار شگفت‌زده شدم که ربات Gemini سازمانی توانست دقیقاً آدرس من را بگوید، در حالی که به‌خاطر نمی‌آوردم آن را به‌اشتراک گذاشته‌ام. در واقع، پیش‌تر از آن درخواست کرده بودم که به من در اصلاح یک ایمیل کمک کند که شامل آدرسم بود. چون این ابزار ویژگی حافظه بلندمدت دارد و می‌تواند اطلاعات مکالمات قبلی را به‌خاطر بسپارد، توانست آدرس من را شناسایی و ذخیره کند.

    گاهی، اگر به دنبال اطلاعاتی باشم که نمی‌خواهم ربات به‌خاطره بسپارد، از حالت ویژه‌ای استفاده می‌کنم که شبیه حالت ناشناس است؛ در این حالت ربات‌ها تاریخچه‌ام را ذخیره نمی‌کنند و اطلاعات را برای آموزش مدل‌ها به کار نمی‌برند. چت‌جی‌پی‌تی و جمی‌نی این ویژگی را «چت موقت» می‌نامند.

    از ابزارهای هوش مصنوعی شناخته‌شده استفاده کنید

    استفاده از ابزارهای هوش مصنوعی شناخته‌شده بهتر است، زیرا احتمال دارد چارچوب‌های حریم خصوصی واضح و سایر محدودیت‌های حفاظتی را داشته باشند.

    به‌جز محصولات گوگل، من ترجیح می‌دهم از ChatGPT شرکت OpenAI و Claude از Anthropic استفاده کنم.

    همچنین مرور سیاست‌های حریم خصوصی هر ابزاری که استفاده می‌کنید مفید است. گاهی این سیاست‌ها توضیح می‌دهند که داده‌های شما چگونه برای آموزش مدل به کار می‌روند. در تنظیمات حریم خصوصی، می‌توانید بخشی با گزینه «بهبود مدل برای همگان» پیدا کنید. با خاموش کردن این گزینه، از استفاده از گفتگوهای شما برای آموزش جلوگیری می‌کنید.

    فناوری هوش مصنوعی به‌قدر فوق‌العاده قدرتمند است، اما باید محتاط باشیم تا داده‌ها و هویت‌های خود را در هنگام استفاده از آن ایمن نگه داریم.

    آیا داستانی درباره استفاده از هوش مصنوعی برای کمک به کار خود دارید؟ برای تماس با این خبرنگار به آدرس زیر مراجعه کنید ccheong@businessinsider.com

  • او پدرخوانده روباتیک مدرن است. می‌گوید این حوزه مسیر خود را گم کرده است.

    پرتره‌ای از راندی بروکس که شلوار جین و پیراهن با یقه باز دارد و به نرده‌ای در یک انبار تکیه کرده است
    اعتبار… آرون وجاک برای نیویورک تایمز

    راندی بروکس، معروف به رومنبا، معتقد است که شور و شوق نسبت به روبات‌های انسان‌ساخت در سیلیکون‌ولی سرنوشت‌اش به‌سقوط منتهی می‌شود.