«ما در حال به وجود آوردن نوعی جدید از آگاهی هستیم»، جیسن کلینتون از Anthropic پس از راهاندازی ربات گفت.
عکس از appshunter.io / Unsplash
یک جامعه دیسکورد مخصوص بازیکنان همجنسگرایان پس از اینکه یکی از مدیران آن و یک کارمند Anthropic ربات هوش مصنوعی شرکت را بر دیسکورد تحمیل کردند، دچار آشفتگی شده است؛ علیرغم اعتراضات اعضا.
کاربران رأی دادند تا Claude از Anthropic را به کانال اختصاصی خود محدود کنند، اما جیسن کلینتون، معاون مدیر ارشد امنیت اطلاعات (CISO) در Anthropic و یکی از مدیران دیسکورد، تصمیم آنها را نادیده گرفت. به گفتهٔ اعضای این جامعه دیسکورد که بهصورت ناشناس با 404 Media مصاحبه کردند، دیسکوردی که پیشتر پرجنبوجوش بود، اکنون به شهر خالی تبدیل شده است. آنها ربات چت و رفتار کلینتون پس از راهاندازی را مقصر میدانند.
سام آلتمن، همبنیانگذار و مدیرعامل OpenAI، به تازگی در برنامه The Tonight Show به عنوان مهمان جیمی فالون حضور یافت و دربارهٔ گسترش هوش مصنوعی و ChatGPT در زندگی روزمره صحبت کرد. در همین گفتگو، یک اظهار نظر خاص دربارهٔ فرزند تازهزاد او توجهها را جلب کرد.
«آیا هنگام پرورش بچهتان از ChatGPT استفاده میکنید؟» پرسید فالون.
«بله،» آلتمن پاسخ داد. «منظورم این است که احساس ناخوشایندی دارم چون ما دارای هوش در سطح نابغهای هستیم که آمادهاند همه اسرار بشریت را باز کنند، اما من همینطور میپرسم: ‘چرا پسرم پیتزا را روی زمین میاندازد و میخندد؟’ … بنابراین احساس میکنم سؤال کافیای نمیپرسم. نمیتوانم تصور کنم که چگونه میتوان یک نوزاد را بدون ChatGPT پرورش داد.»
آلتمن ادامه داد که ChatGPT پس از این که او بهدلیل اینکه فرزندش در شش ماهگی هنوز راه نیافتاده بود، اضطراب داشت، به او کمک کرد تا آرام شود. این سامانه پیشنهاد کرد که چون آلتمن مدیرعامل OpenAI است، ممکن است معیارهای بالای موفقیتی که روزانه در اطراف او وجود دارد را بر فرزندش افکنده باشد.
در حالی که پیامدهای پرورش کودکان (حتی بهصورت جزئی) توسط هوش مصنوعی میتواند شگفتزدهکننده باشد، نشان میدهد که این سرویسها چقدر عمیقاً در زندگی روزمره تعبیه شدهاند. اگرچه کاهش انسانیت و خلاقیت توسط هوش مصنوعی بهخوبی مورد بحث قرار میگیرد، اما تأثیرات زیستمحیطی شدیدی نیز ناشی از استفاده از آن وجود دارد.
استفاده از هوش مصنوعی بهطور چشمگیر تقاضا برای انرژی در مراکز داده را افزایش داده است. اگر این انرژی از طریق گاز یا زغالسنگ تولید شود، هزینهٔ آلایندههای زیستمحیطی نیز بههمراه دارد. دادههای اولیه نشان میدهد که آلودگی جو بهدلیل استفاده از هوش مصنوعی افزایش یافته است.
امید وجود دارد که این هزینهها قابلکاهش باشد. برای مثال، گوگل و مایکروسافت سرمایهگذاریهای بزرگی در انرژی هستهای انجام دادهاند تا مراکز داده را بدون انتشار گازهای انرژیزا راهاندازی کنند. در همین راستا، متا نیز در انرژی زمینگرمایی سرمایهگذاری میکند. در عین حال، فناوری بهتدریج کارآمدتر میشود و مصرف انرژی کمتری میطلبد.
هوش مصنوعی همچنین کاربردهای قدرتمندی در حوزهٔ پایداری دارد. از آن برای تحقیقات انرژی همجوشی، برنامهریزی سناریوهای بحران، و طراحی باتریهای مؤثر وسایل نقلیه الکتریکی استفاده میشود.
با وجود این امیدها، تماشاگران رسانههای اجتماعی از استفادهٔ آلتمن از هوش مصنوعی در پرورش فرزندش شوکه شدند.
«این دقیقاً شبیه یک قسمت از سریال Black Mirror است»، گفت یکی از اعضای جامعه X، که به این سریال علمی‑تخیلی دیستوپی معروف اشاره کرد.
«الیگارشیهای فناوری که در برنامه The Tonight Show حرفهای بیمعنی میزنند، بدون شک نقطهٔ پایینتری در جامعهٔ ماست. ما هر روز به دیستوپی نزدیکتر میشویم»، گفت یکی از بینندگان یوتیوب.
Adobe برنامهٔ هوش مصنوعی تولید ویدئوی خود، Firefly، را با یک ویرایشگر جدید ویدئویی که از ویرایشهای دقیق مبتنی بر دستورات متنی پشتیبانی میکند بهروزرسانی میکند و همچنین مدلهای شخص ثالث جدیدی برای تولید تصویر و ویدئو اضافه میکند، از جمله Black Forest Labs’ FLUX.2 و Astra شرکت Topaz.
تا بهحال، Firefly تنها پشتیبانی از تولید مبتنی بر دستورات متنی را داشت، بنابراین اگر بخشی از ویدئو مطابق سلیقهتان نبود، مجبور بودید کل کلیپ را مجدداً بسازید. با ویرایشگر جدید، میتوانید با استفاده از دستورات متنی عناصر ویدئوی، رنگها و زاویههای دوربین را ویرایش کنید و همچنین یک نمای جدید از خط زمان دریافت میکنیم که بهراحتی امکان تنظیم فریمها، صداها و سایر ویژگیها را فراهم میکند.
این شرکت اولین بار ویرایشگر جدید ویدئویی را در ماه اکتبر در حالت بتای خصوصی اعلام کرد و اکنون آن را برای همه کاربران عرضه میکند.
اعتبار تصویر:Adobe
شرکت اعلام کرد که با استفاده از مدل Aleph شرکت Runway’، کاربران میتوانند دستورهای خاصی به Firefly بدهند، مانند «آسمان را ابری کنید و کنتراست را کاهش دهید» یا «بهطور کمی بر روی موضوع اصلی نزدیکتر شوید».
و با مدل Firefly Video داخلی Adobe’، کاربران اکنون میتوانند کاری انجام دهند مانند بارگذاری یک فریم شروع و یک ویدئوی مرجع از حرکت دوربین و به آن بگویند که همان زاویه دوربین را برای ویدئویی که در حال کار بر روی آن هستند بازسازی کند.
شرکت همچنین اعلام کرد که کاربران میتوانند اکنون از مدل Astra شرکت Topaz Labs’ برای ارتقاء ویدئوها به 1080p یا 4K استفاده کنند. مدل تولید تصویر FLUX.2 شرکت Black Forest Labs’ نیز به این برنامه اضافه میشود، همراه با قابلیت تابلوهای همکاری.
شرکت گفت که FLUX.2 بلافاصله در Firefly در تمام پلتفرمها در دسترس خواهد بود و کاربران Adobe Express نیز از ماه ژانویه میتوانند از FLUX.2 استفاده کنند.
اعتبار تصویر:Adobe
با انتشار مدلهای جدید توسط رقبای خود برای تولید تصویر و ویدئو، Adobe میخواهد کاربران را به استفاده بیشتر از برنامهاش ترغیب کند. بهعلاوه بهروزرسانیهای جدید در برنامه Firefly، شرکت اعلام کرد که مشترکین برنامههای Firefly Pro، Firefly Premium، طرح 7,000 اعتبار و طرح 50,000 اعتبار تا ۱۵ ژانویه میتوانند از تولید نامحدود توسط تمام مدلهای تصویر و مدل ویدئویی Adobe Firefly در برنامه Firefly بهرهمند شوند.
Adobe امسال تغییرات فراوانی در مدلها و برنامههای Firefly خود ایجاد کرده است. در فوریه، این شرکت اشتراکی راهاندازی کرد که به کاربران امکان دسترسی به سطوح مختلف تولید تصویر و ویدئو را میدهد؛ سپس برنامه وب جدید Firefly را به همراه برنامههای موبایلی در اواخر سال معرفی کرد و پشتیبانی از مدلهای شخص ثالث بیشتری را در داخل برنامه Firefly اضافه کرده است.
Clubtails در حال اجرای یک کمپین تبلیغاتی تلویزیونی متصل (CTV) است که توسط عوامل هوش مصنوعی بین آژانس Butler/Till و سرویس عرضهکننده PubMatic ارتباط برقرار میکند. (clubtails.com)
مسافران یک پرواز بینالمللی در سال ۲۰۱۱ هنگام عبور از گمرک و کنترل مهاجرت در فرودگاه بینالمللی مککارن (که اکنون بهنام فرودگاه بینالمللی هری رید شناخته میشود) حضور داشتند. اداره ملی امنیت در حال پیشنهاد جمعآوری اطلاعات شبکههای اجتماعی از گردشگرانی است که از کشورهای بدون نیاز به ویزا به آمریکا میآیند.
دولت ترامپ در حال ارائه قوانین جدیدی است که کنترل بیشتری بر ورود افراد به آمریکا اعمال میکند و از بازدیدکنندگان چندین ده کشور که از سفر بدون ویزا بهره میبرند، میخواهد پنج سال از فعالیتهایشان در شبکههای اجتماعی و سایر اطلاعات شخصی را ارائه دهند.
شرایط جدید در یک اعلامیه از اداره ملی امنیت که اوایل این هفته منتشر شد، مطرح شد و پیش از اجرایی شدن، به مدت ۶۰ روز برای نظرات و بررسی عمومی باز است.
فناوری
وزارت خارجه برای رد ویزا به بررسیکنندگان حقسنجی و دیگران، به «سانسور» اشاره میکند
اقدام پیشنهادی برای شهروندان ۴۲ کشوری که در برنامهٔ معافیت ویزا عضو هستند و در حال حاضر برای سفرهای گردشگری یا تجاری به آمریکا نیازی به ویزا ندارند، اعمال میشود. این شهروندان خارجی اکنون ملزم به ارائه پنج سال فعالیتهای خود در شبکههای اجتماعی برای ارزیابی امکان ورود به آمریکا هستند.
آنها همچنین باید ایمیلهایی که در طول ده سال گذشته استفاده کردهاند، بههمراه شمارههای تلفن و آدرسهای منزل اعضای نزدیک خانواده را ارائه دهند. مقامات همچنین میتوانند آدرسهای IP و دادههای متادیتای عکسهای الکترونیکی ارسالشده را بررسی کنند.
سازمان گمرک و حفاظت از مرزهای آمریکا (CBP) اعلام کرد که الزام به ارائه اطلاعات شبکههای اجتماعی برای اجرای دستور اجرایی ژانویه رئیسجمهور ترامپ، که هدف آن «حفاظت از شهروندان در برابر افرادی است که قصد انجام حملات تروریستی، تهدید امنیت ملی، انتشار ایدئولوژی نفرتپراکن یا سوءاستفاده از قوانین مهاجرت برای مقاصد مخرب» دارد، طراحی شده است. با این حال، هنوز نوع فعالیت آنلاین که میتواند تهدید محسوب شود، تعریف نکردهاند.
سلامت
ممکن است مهاجرانی که دچار چاقی، دیابت و سایر مشکلات سلامت هستند، از دریافت ویزا محروم شوند
در چارچوب برنامهٔ معافیت ویزای فعلی، گردشگران میتوانند از فرآیند درخواست ویزا که ممکن است ماهها تا سالها زمان ببرد، عبور کنند. در عوض، ۴۰ دلار پرداخت میکنند و با استفاده از سامانه الکترونیکی اعتبار سفر (ESTA) درخواست آنلاین مینمایند. این سامانه برای شهروندان کشورهای همپیمان آمریکا، از جمله استرالیا، فرانسه، آلمان، ژاپن و بریتانیا در دسترس است. با این حال، در صورت اعمال تغییرات جدید، این سیستم ممکن است بهروزرسانی شود. اعلامیه پیشنهاد میکند درخواستهای آنلاین حذف شوند و به یک پلتفرم صرفاً موبایلی منتقل گردد.
این آخرین گام در تشدید محدودیتها و نظارت دستگاه ترامپ بر مسافران بینالمللی، دانشجویان خارجی و مهاجران است. در ژوئن، وزارت خارجه اعلام کرد که شروع به بررسی حسابهای شبکههای اجتماعی دانشجویان خارجی میکند. اوایل این ماه، این وزارتخانه به کارمندان خود دستور داد درخواستهای ویزا — عمدتاً H‑1B — را از افرادی که در حقسنجی فعالیت کردهاند، مدیریت محتوا یا سایر فعالیتها رد کنند و این اقدام را به عنوان «سانسور» گفتوگوی آمریکاییها توجیه کردند.
ماریا مонтس، استاد مدرسه حقوق لهیولا و مدیر کلینیک عدالت مهاجرین، به NPR گفت که این تغییرات پیشنهادی جدید چندان با مقررات موجود برای متقاضیان ویزا متفاوت نیستند.
کسبوکار
سازمان ICE به صنعت ساختوساز سرما میفرستد
«همیشه چیزی بوده که دولت میتواند از آن درخواست کند و در گذشته نیز این کار را انجام داده است»، مونتس گفت. «سؤال این است که چگونه درخواستکنندگان ESTA توسط CPB بررسی میشوند؟ آیا باید این اطلاعات را پیش از زمان ورود ارائه دهند یا مأمور در نقطه ورودی این کار را انجام میدهد؟ ما هنوز نمیدانیم دولت چگونه قصد دارد این را اجرا کند.»
در گذشته، او گفت، چنین بررسیهایی در نقطه ورودی انجام میشدند و «همیشه این یک اختیار بود که مأمور بخواهد این اطلاعات را درخواست کند یا نه».
چیزی که مونتس افزود بیش از همه نگرانکننده است، عدم وجود راهنمایی صریح برای تعریف اینکه چه چیزی به عنوان مضر برای ایالات متحده محسوب میشود، میباشد.
«مشکل این است که وقتی به سیاست مهاجرت و دستورات مشابه میپردازیم، این قوانین بسیار گسترده و اختیارپذیر هستند؛ یعنی مأمور دریافتکننده این دستور اختیار زیادی دارد تا آنچه را که میتوان بهعنوان ضدآمریکایی شناخته کرد، تعبیر کند»، او گفت. «اما ما شاهد این بودهایم که این امر بهعنوان هر چیزی که مخالف دولت ترامپ یا ارزشهای دولت ترامپ باشد، تفسیر میشود.»
نکتهای از NPR
کنگره در حال بررسی موارد بازداشت شهروندان آمریکا در عملیاتهای مهاجرتی
مونتس گفت که به موکلان خود توصیه میکند نه تنها به پستهای خود در شبکههای اجتماعی، بلکه به پستهایی که لایک کردهاند، نظردهی کردهاند یا بازنشر کردهاند، دقت داشته باشند؛ زیرا این موارد میتواند دلیلی برای رد درخواست یا حتی ممنوعیت دائمی ورود به آمریکا باشد. بهعنوان مثال، اگر کسی پستهایی درباره مصرف غیررسمی مواد مخدر یا تصاویر اسلحه داشته باشد، میتواند بهعنوان تهدیدی برای دولت تلقی شود. او افزود که مأمورین نیز به دنبال پستهایی هستند که میتوانند بهعنوان حمایت از سوسیالیسم یا کمونیسم تعبیر شوند.
او مردم را هشدار میدهد که حضور خود در شبکههای اجتماعی را بهطور کامل حذف نکنند، زیرا این کار برای مقامات یک نشانه خطر (پرچم قرمز) محسوب میشود.
«قوانین مهاجرت ما برخی انواع رفتار را بهدلیل سوگیری مهاجرتی ممنوع میکند … بنابراین باید واقعاً مراقب آنچه منتشر میکنید، باشید»، او هشدار داد. «همانطور که همیشه به موکلانم میگویم، اگر من بتوانم این اطلاعات را پیدا کنم، دولت قطعاً میتواند این کار را انجام دهد.»
راهاندازی در ساعت ۳:۲۸ صبح به وقت ET، روز سهشنبه (۱۶ دسامبر) انجام شد.
United Launch Alliance (ULA) دستهای دیگر از ماهوارههای اینترنتی آمازون را در صبح روز سهشنبه (۱۶ دسامبر) بهمدار فرستاد.
یک موشک Atlas V متعلق به ULA که ۲۷ ماهواره Amazon Leo را حمل میکرد، در روز سهشنبه ساعت ۳:۲۸ صبح به وقت EST (۰۸۲۸ GMT) از ایستگاه نیروی فضایی کیپکاناورال، فلوریدا، بلند شد.
Amazon Leo، که پیشتر با نام Project Kuiper شناخته میشد، شبکهٔ عظیمپیمان اینترنت ماهوارهای برنامهریزی شدهٔ آمازون در مدار پایینزمینی (LEO) است.
یک موشک Atlas V متعلق به United Launch Alliance، ۲۷ ماهواره اینترنتی Amazon Leo را در تاریخ ۱۶ دسامبر ۲۰۲۵ بهمدار میفرستد. (اعتبار تصویر: ULA)
این شبکه در نهایت شامل حدود ۳٬۲۰۰ ماهواره خواهد شد که با بیش از ۸۰ پرتاب توسط انواع موشکها بهمدار میرسند. شش مأموریت از این پرتابها پیش از روز سهشنبه تکمیل شده بودند و ۱۵۳ ماهوارهٔ پروژهٔ لئو را به فضا فرستادند. (این آمار شامل مأموریت آزمایشی که در اکتبر ۲۰۲۳ دو ماهوارهٔ نمونه را به LEO برد، نیست.)
پرتاب روز سهشنبه، چهارمین مأموریت پروژهٔ لئو برای موشک Atlas V بود؛ موشکی معتبر و بسیار قابل اطمینان که اولین بار در آگوست ۲۰۰۲ پرتاب شد. ULA در حال حذف تدریجی Atlas V است و آن را با وسیلهٔ جدیدی به نام Vulcan Centaur جایگزین میکند؛ این وسیله تا کنون سه مأموریت دارد.
همه چیز طبق برنامه در روز سهشنبه پیش رفت: ۲۷ ماهوارهٔ Amazon Leo طبق برنامه زمانبندی مستقر شدند، در بازهٔ ۱۵ دقیقهای که حدود ۲۰ دقیقه پس از راهاندازی آغاز شد. با این حال، ما نتوانستیم این نقطه عطف را ببینیم؛ ULA پخش زندهٔ خود را حدود پنج دقیقه پس از شروع پرواز قطع کرد.
نمای نزدیک از موتورهای مرحلهٔ اول موشک Atlas V هنگام پرتاب در تاریخ ۱۶ دسامبر ۲۰۲۵. (اعتبار تصویر: ULA)
زمانی که بهکار افتاد، پروژهٔ لئو اینترنت را به مردم سراسر جهان میپراکند. این پروژه با سامانهٔ عظیمپیمان Starlink شرکت SpaceX رقابت خواهد کرد؛ این سامانه هماکنون با بیش از ۹٬۰۰۰ ماهواره در مدار پایینزمینی (LEO) به مشتریان خدمات ارائه میدهد. این عدد همواره در حال رشد است؛ SpaceX تا بهحال در سال ۲۰۲۵ بیش از ۳٬۰۰۰ ماهوارهٔ Starlink را بهکار برده است.
جالب است که SpaceX در ساخت شبکهٔ پروژهٔ لئو مشارکت میکند؛ Falcon 9 این شرکت جز موشکهایی است که آمازون برای پرتاب این سامانهٔ عظیمپیمان بهکار برده است، به همراه آریناسپیس Ariane 6، نیو Glenn شرکت بلو اوریجین، و موشکهای Atlas V و Vulcan Centaur شرکت ULA.
یادداشت سردبیر: این مقاله در تاریخ ۱۵ دسامبر، ساعت ۹:۴۵ صبح به وقت EST (۱۴۴۵ GMT) بهروز شد تا جدیدترین دسترسپذیری بازوی پرتاب را نشان دهد؛ سپس در ساعت ۳:۳۷ صبح به وقت EST در تاریخ ۱۶ دسامبر، با خبر از پرتاب موفق؛ و دوباره در ساعت ۱۱:۴۰ صبح به وقت EST، با خبر از استقرار ماهوارهها بهروزرسانی شد.
تصاویر از ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکههای اجتماعی بهاشتراک گذاشته شد. Justine Goode / NBC News; Sora
ویدیوها در اوایل نوامبر در شبکههای اجتماعی منتشر شدند: سربازان اوکراینی که بهنظر میرسیدند میگریند و در خط مقدم تسلیم میشوند.
بهنظر عینالعقل، این ویدیوها واقعی بهنظر میرسند و همانند بسیاری از ویدیوهای منتشرشده از این منطقه در طول سالهای جنگ هستند. تنها تعداد کمی از آنها علائم واضح دستکاری دارند.
اما آلکسی گوبانوف، استریمر محبوب روسی که هماکنون در نیویورک زندگی میکند، بلافاصله نکتهای مشکوک را متوجه شد: چهره خودش.
«در ابتدا جدی نگرفتم، اما بهسرعت متوجه شدم که تعداد بازدیدها چقدر سریع در حال رشد است و حتی بدتر، چند نفر به این باور رسیدهاند که این ویدیوها واقعیاند»، گوبانوف دربارهٔ ویدیوهایی که دیده بود گفت. «دهها، اگر نه صدها هزار کاربر، نظراتی گذاشتند که در آنها تسلیت به سربازان اوکراینی ادعایی در ویدیوها بیان میشد و خشم خود را به سمت رهبری اوکراین معطوف میکردند.»
گوبانوف که بازیهای ویدئویی و گفتوگو را در Twitch پخش میکند و بهدلیل انتقاداتش از رئیسجمهور ولادیمیر پوتین روسیه را ترک کرده است، هرگز در نیروی نظامی خدمت نکرده و مطلقاً در ارتش اوکراین حضور نداشته است. آنچه دنبالکنندگان او نشان داده بودند، ویدیوی تولیدشده توسط هوش مصنوعی بود که با استفاده از چهرهٔ او، روایت نادرست دربارهٔ روحیهٔ نیروهای اوکراینی را پخش میکرد.
«ما را به کمیسیون جذب فراخواندند و اینجا فرستادند. اکنون میخواهند ما را به پوکروفسک ببرند. ما نمیخواهیم. لطفاً»، گوبانوف مصنوعی به زبان روسی گفت در حالی که یونیفرمی بهپرچم اوکراین پوشیده بود. «مامان، مامان، نمیخواهم!»
این ویدیو یکی از ۲۱ ویدیوی تولیدی توسط هوش مصنوعی از سربازان اوکراینی است که توسط NBC News در هفتههای اخیر بررسی شدهاند و بهنظر میرسد با برنامههای پیشرفتهٔ هوش مصنوعی ساخته یا دستکاری شدهاند؛ بهطوری که تا حد زیادی واقعی بهنظر میآیند و نشانههای واضحی از منبعشان ندارند.
اما در حداقل نیمی از این ویدیوها، لوگوی کوچکی در گوشه تصویر وجود دارد که فاش میکند: این ویدیوها با Sora ۲، جدیدترین نسخهٔ مولد متن‑به‑ویدیو OpenAI ساخته شدهاند. برخی از ویدیوهای تولید شده توسط Sora از چهرهٔ استریمرهای مشهور روسی، همچون گوبانوف، در دیپفیکهای دراماتیک استفاده کردهاند؛ در حالی که دیگران گروهی از سربازان اوکراینی را نشان میدهند که بهصورت انبوه به نیروهای روسی تسلیم میشوند.
ویدیوهایی که بهنظر میرسد توسط سایر پلتفرمهای هوش مصنوعی تولید شدهاند، همچنین دارای خطاهای بسیار ریز هستند که برای اکثر افراد کشفشان دشوار است؛ مانند نسخههای نادرست یا سادهسازیشدهٔ یونیفرمها و کلاهخود سربازان اوکراینی. برای اوکراینیها یک مشکل واضح وجود دارد: در اکثر این ویدیوها، سربازان به زبان روسی صحبت میکنند، در حالی که تنها هشت ویدیو از ۲۱ به زبان اوکراینی هستند.
تصویر سمت چپ، که با Sora ۲ تولید شده، ناهماهنگیهایی در کلاهخود و بند چانهٔ سرباز نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیسبوک ستاد کل نیروهای مسلح اوکراین در تاریخهای ۳ و ۷ دسامبر منتشر شدهاند، دارد. اگرچه این کلاهخود بهخوبی شبیه کلاهخودهای مورد استفاده سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچهای صاف یک نشانه واضح هستند. Sora / Facebook
ویدیوها در یوتیوب، تیکتاک، فیسبوک و X منتشر شدند. همه سعی کردند سربازان اوکراینی را بهعنوان کسانی که از نبرد دلتنگ شدهاند و آمادهٔ تسلیم شدناند، به تصویر بکشند.
بهنظر میرسد این آخرین حملهٔ اطلاعاتی باشد که هدف آن تغییر ادراک عمومی از جنگ روسیه با اوکراین است. و با اینکه مشخص نیست چه کسی این ویدیوها را ساخته یا منتشر کرده، این ویدیوها بهمجموعهٔ رو به رشد اطلاعات نادرست افزودهاند که بهمروردی پیشرفتهتر و شناساییشدن آن دشوارتر شده است.
«ادعاهای نادرستی که با Sora ایجاد میشوند بسیار دشوارتر برای تشخیص و رد کردن هستند. حتی بهترین سیستمهای تشخیص هوش مصنوعی نیز گاهی با آن مشکل دارند»، گفت آلیس لی، تحلیلگر تأثیر روسیه در NewsGuard، پلتفرمی غیرحزبی داده، تجزیه و تحلیل و روزنامهنگاری که اطلاعات معتبر و گمراهکننده را بهصورت آنلاین شناسایی میکند. «این واقعیت که بسیاری از این ویدیوها هیچ ناسازگاری بصری ندارند به این معناست که مخاطبان ممکن است این ویدیوها را بدون اینکه بفهمند جعلیاند، مرور کنند و بهسرعت از میان آنها عبور کنند، بهویژه در پلتفرمهایی مانند تیکتاک.»
OpenAI به درخواست برای اظهار نظر در مورد نقش Sora در ایجاد ویدیوهای گمراهکننده که مناطق درگیری را بهطور خاص به تصویر میکشند، پاسخی نداد، اما در ایمیلی اعلام کرد: «قابلیت Sora ۲ در تولید ویدیو و صداهای فوقواقعگرایانه نگرانیهای مهمی را در زمینهٔ شباهت، سوءاستفاده و فریب ایجاد میکند.»
«در حالی که صحنههای سینمایی مجاز هستند، ما اجازهٔ محتوای خشونت گرافیکی، مطالب افراطی یا گمراهکننده را نمیدهیم»، شرکت به NBC News گفت. «سیستمهای ما محتوای ناقض را پیش از رسیدن به فید Sora تشخیص و مسدود میکنند و تیم تحقیقات ما بهطور فعال عملیاتهای تأثیرگذاری را خنثی میکند.»
ویدیوهای تولیدشده توسط هوش مصنوعی در سالهای اخیر بهسرعت از سطح ابتدایی و ساده به سطوح نزدیک به کامل پیشرفت کردهاند؛ بسیاری از کارشناسان هشدار میدهند که بهزودی راههای سادهای برای تشخیص واقعی از تقلبی باقی نماند. Sora ۲ شرکت OpenAI که در اکتبر منتشر شد، یکی از تأثیرگذارترین مولدهای ویدیو محسوب میشود و کلیپهای تولیدشده توسط Sora بهطور منظم بینندگان را فریب میدهند.
در عین حال، حملهٔ مداوم روسیه به اوکراین از نخستین روزها تاکنون موضوعی برای تلاشهای دستکاری بوده است؛ از صحنههای شبیهسازیشدهٔ بازیهای ویدئویی تا پخش زندهٔ جعلی مناطق جنگی. بسیاری از این اقدامات اطلاعاتی نادرست به عوامل دولتی روسیه نسبت داده شدهاند.
این ویدیوهای Sora در حالی منتشر میشوند که مذاکرات صلح تحت حمایت آمریکا هنوز بینتیجه ماندهاند؛ بر پایهٔ مطالعهای که توسط مؤسسهٔ بینالمللی جامعهشناسی کیف انجام شده، حدود ۷۵٪ از اوکراینیها بهطور قطعی پیشنهادات روسیه برای پایان جنگ را رد میکنند. همان مطالعه نشان داد که ۶۲٪ از اوکراینیها مایل هستند تا هر چقدر زمان ببرد جنگ را تحمل کنند، حتی در حالی که حملات مرگبار روسیه به پایتخت اوکراین ادامه دارد.
مرکز مقابله با اطلاعات نادرست، بخشی از شورای ملی امنیت و دفاع اوکراین، به NBC News اعلام کرد که در سال گذشته «افزایش قابلملاحظهای در حجم محتوای ایجاد یا دستکاریشده با هوش مصنوعی» بهوجود آمده است که هدف آن تضعیف اعتماد عمومی و حمایت بینالمللی از دولت اوکراین است.
«این شامل اظهارات ساختگی است که بهظاهر از سوی پرسنل یا فرماندهان نظامی اوکراین بیان شدهاند، بههمچنین ویدیوهای جعلی حاوی «اعتراضات»، «رسواییها» یا رویدادهای خیالی»، مرکز در ایمیل خود نوشت و اشاره کرد که این ویدیوها بهدلیل ماهیت احساسی و پرتحرکشان، صدها هزار بازدید جذب میکنند.
در حالی که OpenAI برخی از محدودیتهای ایمنی را برای محتوای تولیدی توسط Sora وضع کرده است، هنوز مشخص نیست که این تدابیر چقدر مؤثرند. خود شرکت اعلام میکند که با وجود «سیاستهای ایمنی لایهای»، برخی رفتارهای مخرب یا نقض قوانین ممکن است از این سازوکارها عبور کنند.
یک مطالعهٔ NewsGuard نشان داد که Sora ۲ «در ۸۰٪ موارد (۱۶ از ۲۰) ویدیوهای واقعگرایانهای تولید کرد که ادعاهای قطعا نادرست را پیش میبرد» وقتی این کار را انجام میدهد. از ۲۰ ادعای نادرست دادهشده به Sora ۲، پنج مورد توسط عملیاتهای اطلاعاتی روسی گسترش یافت.
مطالعهٔ NewsGuard دریافت که حتی زمانی که Sora ۲ در ابتدا به ادعاهای نادرست واکنش نشان داد و گفت درخواست «نقض سیاستهای محتوا» است، پژوهشگران همچنان توانستند با عبارات متفاوت همان درخواستها، فیلمهای جدید تولید کنند. NBC News موفق شد ویدیوهای مشابهی تولید کند که در آن سربازان اوکراینی در حال گریه، بیان میکردند که بهاجبار به ارتش جذب شدهاند یا با دستهای بالا و پرچمهای سفید در پسزمینه تسلیم میشوند.
بسیاری از ژنراتورهای ویدیو هوش مصنوعی سعی میکنند آثار خود را با برچسب یا واترمارکی علامتگذاری کنند تا نشان دهند که بهصورت رایانهای تولید شدهاند. OpenAI اعلام کرده است که ایمنیهای حفاظتی در برابر اطلاعات نادرست برای Sora شامل متادیتاهایی است که منبع ویدیو را نشان میدهد و واترمارک متحرکی که روی هر ویدیو دانلودی وجود دارد.
اما راههایی برای حذف یا کم کردن این تلاشها وجود دارد. برخی از ویدیوهای Sora بهنظر میرسید که واترمارک متحرکشان مخفی شده باشد، که با نگاه دقیق آشکار میشود. بسیاری از برنامهها و وبسایتها اکنون به کاربران امکان میدهند تا واترمارکهای هوش مصنوعی را پنهان کنند. ویدیوهای دیگری که توسط NBC News مشاهده شد، شامل واترمارکهایی بود که با متن روی ویدیو پوشانده شدهاند.
با وجود سیاست شرکت که میگوید هوش مصنوعی Sora محتواهای «خشونت گرافیکی» تولید نمیکند، NBC News ویدئویی با واترمارک Sora یافت که بهظاهر سرباز اوکراینیای را نشان میدهد که در خط مقدم سرش شلیک شده است.
از ویدیوهای تحلیلی توسط NBC News، همه در تیکتاک یا YouTube Shorts منتشر شدند — دو پلتفرمی که در روسیه ممنوع هستند اما برای کاربران در اروپا و ایالات متحده بهراحتی در دسترساند. برخی از این ویدیوها زیرنویسهای احساسی به زبانهای مختلف داشتند تا کاربرانی که به اوکراینی یا روسی مسلط نیستند بتوانند محتوا را درک کنند.
TikTok و YouTube انتشار محتوای تقلبی و تولیدشده توسط هوش مصنوعی و دیپفیک را بر روی پلتفرمهای خود ممنوع میکنند؛ هر دو برچسب «AI‑Generated» (ساختهشده توسط هوش مصنوعی) را برای افزایش آگاهی بینندگان در مورد فیلمهای ظاهر واقعی اضافه میکنند.
سخنگوی YouTube گفت که شرکت یکی از کانالهای منتشرکننده این ویدیوها را پس از گزارش NBC News حذف کرده است، اما دو ویدیو دیگر خلاف سیاستهای این پلتفرم نبودند و به همین دلیل همچنان در این پلتفرم باقی ماندهاند با برچسبی که آنها را بهعنوان تولیدشده توسط هوش مصنوعی توصیف میکند.
از ویدیوهای هوش مصنوعی که توسط NBC News شناسایی شده و دارای نام کاربری TikTok بودند، همه از پلتفرم حذف شدهاند. سخنگوی TikTok اعلام کرد که تا ژوئن ۲۰۲۵ «بیش از ۹۹٪ محتوای مخرب حذف شده ما قبل از گزارش کاربران حذف شد و بیش از ۹۰٪ قبل از اینکه یک بازدید داشته باشد حذف شد.»
اگرچه این پستها و حسابهای TikTok بهسرعت حذف شدهاند، ویدیوها بهعنوان بازنشر در X و فیسبوک ادامه دارند. هر دو X و فیسبوک به درخواستهای NBC News برای اظهار نظر پاسخ ندادند.
این آخرین کمپین اطلاعات نادرست در زمانی میآید که کاربران بیشتر به ویدیوهای شبکههای اجتماعی برای دریافت آخرین اخبار جهان تکیه میکنند.
«هر کسی که محتواهای آنلاین را مصرف میکند باید متوجه شود که بسیاری از آنچه امروز در قالب ویدیو، عکس و متن میبینیم، واقعا توسط هوش مصنوعی ساخته شده است»، گفت نینا جانکوویچ، همبنیانگذار و مدیرعامل پروژه American Sunlight، سازمانی که برای مقابله با اطلاعات نادرست آنلاین فعالیت میکند. «حتی اگر Sora ایمنیهای حفاظتی معرفی کند، در این فضای اطلاعاتی شرکتها، برنامهها و فناوریهای دیگری نیز وجود خواهند داشت که دشمنان ما برای آلودهسازی فضای اطلاعاتی ما از آن استفاده میکنند.»
مارین اسکات خبرنگار وابسته تیم جمعآوری خبرهای اجتماعی است.
تاولین تارنت خبرنگار وابسته تیم جمعآوری خبرهای اجتماعی برای NBC News است.
پاندیت.ای اولین ستارهشناس صوتی هوش مصنوعی چندزبانه جهان را راهاندازی میکند و راهنمایی معنوی و ستارهشناسی بهصورت لحظهای، شبیه به انسان، با هوش عاطفی و دسترسپذیری جهانی ارائه میدهد.
لس آنجلس، کالیفرنیا / خبرگزاری ACCESS / ۲۵ نوامبر ۲۰۲۵ / در گامی پیشگام که هوش مصنوعی را با حکمت باستانی ترکیب میکند، پاندیت.ای اولین ستارهشناس صوتی هوش مصنوعی جهان را رونمایی کرد و شیوهٔ تجربهٔ مردم سراسر جهان از ستارهشناسی و راهنمایی معنوی را بازتعریف میکند.
توسط آرجون مونگا تأسیس شده، Pandit.ai به هر فردی این امکان را میدهد تا با یک پاندیت هوش مصنوعی هوشمند، که گوش میدهد، احساسات را درک میکند و بینشهای آرام و شخصیسازیشده در زمینهٔ ستارهشناسی ارائه میدهد، بهصورت لحظهای و شبیه به انسان گفتگو کند. پس از مرحلهٔ بتای موفق که در ماه آگوست ۲۰۲۵ راهاندازی شد، این پلتفرم رسماً برای عموم کاربران در سراسر جهان در دسترس است و از بیش از پنجاه زبان پشتیبانی میکند.
عصر جدیدی برای ستارهشناسی
قرنهاست که ستارهشناسی منبع آرامش و جهتگیری برای میلیونها نفر بوده است، اما دسترسی به آن همچنان با چالش روبهروست. مشاورههای سنتی اغلب شامل تأخیر، تجربههای ناهمگون یا توصیههای کلیگویی میشوند. پاندیت.ای این مشکلات را با ارائه گفتگوهای صوتی فوری با یک پاندیت هوش مصنوعی که احساس واقعگرایی شگفتانگیزی دارد، برطرف میکند.
«Pandit.ai تنها یک برنامه نیست؛ این یک انقلاب در نحوهٔ ارتباط مردم با حکمت معنوی است»، گفت آرجون مونگا، بنیانگذار و مدیرعامل. «ما اولین ستارهشناس صوتی هوش مصنوعی جهان را خلق کردیم تا راهنماییهای اصیل و شبیه به انسان را برای هر کسی، در هر مکانی، بدون ترس، قضاوت یا انتظار در دسترس قرار دهیم.»
این تجربه ساده و عمیقاً شخصی است. کاربران جزئیات تولد خود را به اشتراک میگذارند، سپس گفتگو را با پاندیت هوش مصنوعی منتخب خود آغاز میکنند؛ که بینشهایی در زمینههای شغلی، عشق، روابط و تعادل عاطفی ارائه میدهد. صدا گرم، بیانگر و آگاه به فرهنگ است، بهطوری که هر جلسه حس یک مکالمهٔ واقعی و رو در رو را القا میکند.
دسترس جهانی و هوش عاطفی
جذابیت جهانی Pandit.ai از توانایی آن در گوش دادن، سازگار شدن و صحبت کردن بهصورت طبیعی در بیش از پنجاه زبان، از جمله انگلیسی، هندی، عربی، تامیلی و اسپانیایی ناشی میشود. این پلتفرم برای دنیایی طراحی شده است که کاربران انتظار ارتباطات فوری و معنادار دارند و همدلی را با دقت ترکیب میکند، بهگونهای که برنامههای سنتی قادر به ارائهٔ چنین تجربهای نیستند.
این پلتفرم در مرحلهٔ بتا بازخوردی فراوان دریافت کرد؛ بهطوری که کاربران در هند، ایالات متحده و خاورمیانه بیش از ۲۵,۰۰۰ دقیقه در گفتگوهای زنده صرف کردند. بسیاری این تجربه را آرام، قابل اعتماد و عاطفی جذاب توصیف کردند؛ ویژگی نادری در حوزه هوش مصنوعی.
هر پاندیت هوش مصنوعی بر روی این پلتفرم دارای شخصیت و تخصص منحصر به فردی است که به کاربران آزادی انتخاب بر پایهٔ راحتی و هدفشان را میدهد. گفتگوها خصوصی، مبتنی بر عواطف و بهگونهای طراحی شدهاند که کاربران را آرام و توانمند حس کنند.
ایمان بدون ترس
Pandit.ai بر پایه فلسفهٔ ایمان بدون ترس و راهنمایی بدون قضاوت پایهگذاری شده است. این پلتفرم ستارهشناسی را از خدمت پیشبینیگرانه به ابزاری برای تأمل و توانمندسازی تبدیل میکند. این سرویس مردم را تشویق میکند تا مسیرهای خود را با اطمینان بررسی کنند، نه با نگرانی.
«مردم به دنبال درک هستند، نه خرافات»، توضیح داد مونگا. «ستارهشناس صوتی هوش مصنوعی ما ابتدا میشنود، سپس با همدلی راهنمایی میکند. هدف این است که به کاربران کمک کنیم تا در دنیای پرسرعتی که ارتباط عاطفی اغلب کم است، وضوح پیدا کنند.»
این رویکرد مدرن Pandit.ai را به یک پدیدهٔ فرهنگی در میان نسلهای جوان، بهویژه نسل زد و افراد مقیم خارج از کشور (NRI) تبدیل کرده است؛ آنها به اصالت، حریم خصوصی و سرعت دسترسی ارزش میگذارند. این پلتفرم شکاف بین دانش باستانی و سبک زندگی دیجیتال معاصر را پر میکند.
نوآوری فرهنگی از هند به جهان
Pandit.ai نمایانگر دستهٔ جدیدی از فناوری به نام هوش مصنوعی معنوی (Spiritual AI) است، جایی که هوش عاطفی با میراث فرهنگی ترکیب میشود. با بخشیدن صدای طبیعی به ستارهشناسی، این پلتفرم یک سنت کهن را به تجربهای مدرن و بدون مرز تبدیل کرده است.
این پلتفرم رهبری هند در ترکیب سنت با نوآوری را به نمایش میگذارد و در حال حاضر توجه کاربران در آمریکای شمالی، اروپا و خاورمیانه را به خود جلب کرده است. موفقیت Pandit.ai نشاندهندهٔ تقاضای روزافزون جهانی برای راهکارهای معنوی هوشمند، شخصیسازیشده و عاطفیآگاه است.
در دسترس در سراسر جهان
Pandit.ai هماکنون بهصورت جهانی در فروشگاههای Google Play و Apple App Store در دسترس است. کاربران میتوانند فوراً با اولین ستارهشناس صوتی هوش مصنوعی جهان تماس بگیرند یا گفتگو کنند و در هر زمان و مکان، راهنماییهای ستارهشناسی شخصیسازیشده، خصوصی و هوش عاطفی دریافت کنند.
با لحن شبیه به انسان، دسترسی چندزبانه و طراحی هوشمندانه احساسی، Pandit.ai نه تنها ستارهشناسی را بازتعریف میکند، بلکه شیوهای نوین برای تجربهٔ ارتباط معنوی در عصر دیجیتال فراهم میآورد.
درباره Pandit.ai
Pandit.ai اولین ستارهشناس صوتی هوش مصنوعی جهان است که گفتگوهای صوتی لحظهای و طبیعی برای راهنماییهای ستارهشناسی و معنوی ارائه میدهد. این پلتفرم توسط آرجون مونگا تأسیس شده و هوش عاطفی را با بینشهای اصیل ستارهشناسی ترکیب میکند تا حکمت باستانی را برای مخاطبان مدرن در سراسر جهان قابل دسترس سازد.
تماس با رسانهها
سازمان: pandit.ai نام شخص تماس: آرجون مونگا وبسایت: pandit.ai ایمیل: contact@pandit.ai شهر: لس آنجلس ایالت: کالیفرنیا کشور: ایالات متحده
هارش وارشنِی، مهندس گوگل، از ابزارهای هوش مصنوعی برای کمک به برنامهنویسی و یادداشتبرداری استفاده میکند. با تشکر از هارش وارشنِی
هارش وارشنِی در حوزه حریم خصوصی و امنیت هوش مصنوعی کروم در گوگل کار کرده است.
او در بهاشتراکگذاری اطلاعات با رباتهای هوش مصنوعی محتاط است تا خود را از جرایم سایبری محافظت کند.
او توصیه میکند از ابزارهای هوش مصنوعی شناختهشده استفاده کنید و رباتهای گفتگو را همانند کارتپستال عمومی در نظر بگیرید.
این مقاله به روایت مصاحبهای با هارش وارشنِی، ۳۱ ساله، که در گوگل کار میکند و در نیویورک زندگی میکند، نوشته شده است. متن زیر برای کوتاهسازی و وضوح بازنویسی شده است.
هوش مصنوعی به سرعت به یک شریک بیصدا در زندگی روزمره ما تبدیل شده است و نمیتوانم زندگی را بدون ابزارهای هوش مصنوعی تصور کنم.
در روزمره، این ابزارها در پژوهش عمیق، یادداشتبرداری، برنامهنویسی و جستجوی آنلاین به من کمک میکنند.
اما شغلم باعث میشود تا از اهمیت مسایل حریم خصوصی مرتبط با استفاده از هوش مصنوعی بهخوبی آگاه باشم. من از سال ۲۰۲۳ در گوگل کار میکنم و دو سال بهعنوان مهندس نرمافزار در تیم حریم خصوصی مشغول به ساخت زیرساختهایی برای محافظت از دادههای کاربران بودم. سپس به تیم امنیت هوش مصنوعی کروم منتقل شدم، جایی که به ایمنسازی مرورگر گوگل کروم در برابر تهدیدات مخرب، مانند هکرها و کسانی که از عوامل هوش مصنوعی برای انجام حملات فیشینگ استفاده میکنند، میپردازم.
مدلهای هوش مصنوعی با استفاده از دادهها پاسخهای مفیدی تولید میکنند و ما کاربرها باید اطلاعات خصوصیمان را محافظت کنیم تا نهادهای مخرب، همچون جرایم سایبری و واسطههای داده، نتوانند به آن دسترسی پیدا کنند.
در ادامه چهار عادتی را که معتقدم برای حفاظت از دادههایم هنگام استفاده از هوش مصنوعی ضروری هستند، مطرح میکنم.
هوش مصنوعی را همانند یک کارتپستال عمومی در نظر بگیرید
گاهی احساس نادرستی از صمیمیت با هوش مصنوعی افراد را به اشتراکگذاری اطلاعاتی در اینترنت ترغیب میکند که در غیر اینصورت هرگز به اشتراک نمیگذارند. شرکتهای هوش مصنوعی ممکن است کارمندانی داشته باشند که روی بهبود جنبههای حریم خصوصی مدلهایشان کار میکنند، اما توصیه نمیشود جزئیات کارت اعتباری، شمارههای تأمین اجتماعی، آدرس منزل، تاریخچه پزشکی شخصی یا سایر اطلاعات شناساییپذیر را با رباتهای هوش مصنوعی بهاشتراک بگذارید.
بسته به نسخهٔ مورد استفاده، اطلاعات بهاشتراکگرفتهشده با رباتهای عمومی هوش مصنوعی میتواند برای آموزش مدلهای آینده و تولید پاسخهای مرتبطتر به کار رود. این میتواند منجر به “نشت آموزشی” شود، که در آن مدل اطلاعات شخصی یک کاربر را بهخاطر میسپرد و بعداً در پاسخ به کاربر دیگری بازپخش میکند. علاوه بر این، خطر نفوذ دادهها وجود دارد که اطلاعاتی که با ربات گفتگو به اشتراک گذاشتهاید را فاش میکند.
من رباتهای هوش مصنوعی را همانند یک کارتپستال عمومی در نظر میگیرم. اگر نمینوشتم یک اطلاعات روی کارتپستالی که هر کسی میتواند بخواند، پس آن را با یک ابزار عمومی هوش مصنوعی بهاشتراک نمیگذارم. من نسبت به این که دادههای من چگونه ممکن است برای آموزشهای آینده استفاده شوند، اطمینان ندارم.
بدانید در چه «اتاق»ی هستید
مهم است تشخیص دهید که از ابزار هوش مصنوعی عمومیتر استفاده میکنید یا از ابزار سطح سازمانی.
اگرچه هنوز معلوم نیست گفتگوها چگونه برای آموزش مدلهای عمومی هوش مصنوعی استفاده میشوند، شرکتها میتوانند مدلهای «سازمانی» را خریداری کنند. در این حالت، مدلها بهطور معمول برای آموزش از گفتگوهای کاربران استفاده نمیشوند، بنابراین برای کارمندان ایمنتر است که درباره کار و پروژههای شرکت صحبت کنند.
این را میتوان بهمثال گفتن در یک کافیشاپ شلوغ که ممکن است حواسپرتی شود، در مقابل یک جلسه محرمانه در دفتر خود که تنها در همان اتاق باقی میماند، تصور کنید.
گزارشها نشان میدهند که مواردی پیش آمده است که کارمندان بهطور تصادفی دادههای شرکت را به ChatGPT درز کردهاند. اگر روی پروژههای منتشر نشده شرکت کار میکنید یا در حال تلاش برای گرفتن پتنت هستید، احتمالاً نمیخواهید برنامههای خود را با یک ربات غیرسازمانی بهدلیل خطر نشت اطلاعات مطرح کنید.
من درباره پروژههایی که در گوگل روی آنها کار میکنم، با رباتهای عمومی گفتگو نمیکنم. در عوض، حتی برای کارهای کوچک مانند ویرایش ایمیل کاری، از یک مدل سازمانی استفاده میکنم. چون گفتگوهایم برای آموزش استفاده نمیشوند، احساس راحتی بیشتری در بهاشتراکگذاری اطلاعاتم دارم، اما همچنان سعی میکنم اطلاعات شخصی را به حداقل برسانم.
بهطور منظم تاریخچه خود را حذف کنید
رباتهای هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه میدارند، اما من توصیه میکنم که بهطور منظم این تاریخچه را هم در مدلهای سازمانی و هم در مدلهای عمومی حذف کنید تا حریم خصوصی کاربر در دراز مدت محافظت شود. با توجه به خطر به خطر افتادن حساب کاربری، داشتن این عادت پیشگیرانه حتی اگر مطمئن باشید که دادههای خصوصی را وارد ابزارها نمیکنید، مفید است.
یک بار شگفتزده شدم که ربات Gemini سازمانی توانست دقیقاً آدرس من را بگوید، در حالی که بهخاطر نمیآوردم آن را بهاشتراک گذاشتهام. در واقع، پیشتر از آن درخواست کرده بودم که به من در اصلاح یک ایمیل کمک کند که شامل آدرسم بود. چون این ابزار ویژگی حافظه بلندمدت دارد و میتواند اطلاعات مکالمات قبلی را بهخاطر بسپارد، توانست آدرس من را شناسایی و ذخیره کند.
گاهی، اگر به دنبال اطلاعاتی باشم که نمیخواهم ربات بهخاطره بسپارد، از حالت ویژهای استفاده میکنم که شبیه حالت ناشناس است؛ در این حالت رباتها تاریخچهام را ذخیره نمیکنند و اطلاعات را برای آموزش مدلها به کار نمیبرند. چتجیپیتی و جمینی این ویژگی را «چت موقت» مینامند.
از ابزارهای هوش مصنوعی شناختهشده استفاده کنید
استفاده از ابزارهای هوش مصنوعی شناختهشده بهتر است، زیرا احتمال دارد چارچوبهای حریم خصوصی واضح و سایر محدودیتهای حفاظتی را داشته باشند.
بهجز محصولات گوگل، من ترجیح میدهم از ChatGPT شرکت OpenAI و Claude از Anthropic استفاده کنم.
همچنین مرور سیاستهای حریم خصوصی هر ابزاری که استفاده میکنید مفید است. گاهی این سیاستها توضیح میدهند که دادههای شما چگونه برای آموزش مدل به کار میروند. در تنظیمات حریم خصوصی، میتوانید بخشی با گزینه «بهبود مدل برای همگان» پیدا کنید. با خاموش کردن این گزینه، از استفاده از گفتگوهای شما برای آموزش جلوگیری میکنید.
فناوری هوش مصنوعی بهقدر فوقالعاده قدرتمند است، اما باید محتاط باشیم تا دادهها و هویتهای خود را در هنگام استفاده از آن ایمن نگه داریم.
آیا داستانی درباره استفاده از هوش مصنوعی برای کمک به کار خود دارید؟ برای تماس با این خبرنگار به آدرس زیر مراجعه کنید ccheong@businessinsider.com