کاربران شبکههای اجتماعی ویدئویی را که ادعا میشود از دوربین مداربستهٔ یک فروشگاه مشروبات الکلی بهدست آمده است، بهاشتراک میگذارند؛ در این ویدیو یک دزد نقابدار را میبینیم که فروشگاه را غارت کرده، بهسراغ مشروبات رفته و پس از آن در سرویس بهداشتی فروشگاه بیهوش کشف میشود: یک راکون. در حالی که داستان شگفتانگیز واقعا رخ داده است، ویدئوی دوربین مداربسته تقلبی است و توسط هوش مصنوعی تولید شده است.
در تاریخ ۴ دسامبر، کاربران شبکههای اجتماعی در سراسر جهان شروع به بهاشتراکگذاری تصاویری از داستانی شگفتانگیز کردند: یک راکون که به فروشگاه مشروبات الکلی در اشلند، ویرجینیا نفوذ کرد. پس از شکستن چندین بطری و نوشیدن تمام آنها، این راکون در سرویس بهداشتی فروشگاه کشف شد که در حالت بیهوش به سر میبرد.
کمی پس از انتشار این عکسها، ویدئویی که ادعا میشود بهدوربین مداربستهٔ فروشگاه مشروبات الکلی تعلق داشته باشد، بهصورت آنلاین نیز ظاهر شد. این فیلم نشان میدهد که راکون یک بطری را میشکند و سپس مایع جاری را مینوشد. پس از تخریب یک راهرو کامل از فروشگاه، این حیوان بهنازکدست به سمت سرویس بهداشتی میرود که در آن بیهوش میشود.
این ویدئو از زمان انتشار در X در ۶ دسامبر، بیش از ۸۰۰٬۰۰۰ بازدید به دست آورده است. پروفایلهایی که ابتدا این ویدئو را به اشتراک گذاشتند ممکن است شبیه حسابهای خبری به نظر برسند، اما اگر به تاریخچهٔ آنها نگاهی بیاندازید، میبینید که تنها ویدئوهای ویروسی را به اشتراک میگذارند.
این ویدئویی که در X بهاشتراک گذاشته شد – ادعای داشتن از دوربین مداربستهٔ یک فروشگاه مشروبات الکلی که توسط یک راکون غارت شده بود – در واقع توسط هوش مصنوعی ساخته شده است. منبع: X
در حالی که داستان و عکسهای بهاشتراکگرفتهشده در اینترنت واقعی هستند، این ویدئو تقلبی است.
ویدئوی تولید شده توسط هوش مصنوعی
این ویدئوی تقلبی دوربین مداربسته در واقع توسط هوش مصنوعی تولید شده است.
اگرچه در نگاه اول ویدئو واقعی بهنظر میرسد، اما با دقت بیشتری میبینید که برچسبهای شراب و قیمتها بهصورت متنهای بیمعنی نوشته شدهاند. این یک نشانه واضح است که هوش مصنوعی برای ساخت این ویدئو به کار رفته است، زیرا هوش مصنوعی هنوز در تولید متن درست با مشکل مواجه است.
سرنخ دیگری که نشان میدهد این ویدئو اصیل نیست، این است که راهرویی که در ویدئو نشان داده شده متفاوت از راهرویی است که در فیسبوک توسط سرویس نجات حیوانات شهرستان هانوور منتشر شده است، ظاهر میشود. در فروشگاه واقعی، جعبههای مقوایی بسیاری بین بطریها وجود دارد. اما این جعبهها در ویدئوی تولید شده توسط هوش مصنوعی بهکل مشاهده نمیشوند.
در واقع فیلمهای واقعی از دوربینهای مداربستهٔ فروشگاه موجود است. اما این تصاویر نسبت به ویدئوی تقلبی بسیار کمتر واضح هستند – فضای فروشگاه و راهروها بهنظر میرسد که بههم ریختهاند. افزون بر این، بخشی از فیلمهای واقعی بهصورت سیاه‑سفید ضبط شدهاند، در حالی که فیلم تولیدشده توسط هوش مصنوعی به رنگ است.
ویدئوهای واقعی از دوربینهای مداربستهٔ فروشگاه در تاریخ ۴ دسامبر ۲۰۲۵ منتشر شدند.
سازمان حفاظت و پناهگاه حیوانات شهرستان هانوور در فیسبوک بهمنظور ارائهٔ بهروزرسانی دربارهٔ راکون دزد اقدام کرد.
«پس از چند ساعت خواب و بدون هیچ نشانهای از جراحت (به جز شاید یک خماری و انتخابهای نادرست زندگی)، او بهصورت ایمن به طبیعت بازگردانده شد و امید است که آموخته باشد نفوذ و شکستهکردن پاسخ نیست.»
این مقاله از نسخهٔ اصلی به زبان فرانسوی توسط برنا دالدورف ترجمه شده است.
«ما در حال به وجود آوردن نوعی جدید از آگاهی هستیم»، جیسن کلینتون از Anthropic پس از راهاندازی ربات گفت.
عکس از appshunter.io / Unsplash
یک جامعه دیسکورد مخصوص بازیکنان همجنسگرایان پس از اینکه یکی از مدیران آن و یک کارمند Anthropic ربات هوش مصنوعی شرکت را بر دیسکورد تحمیل کردند، دچار آشفتگی شده است؛ علیرغم اعتراضات اعضا.
کاربران رأی دادند تا Claude از Anthropic را به کانال اختصاصی خود محدود کنند، اما جیسن کلینتون، معاون مدیر ارشد امنیت اطلاعات (CISO) در Anthropic و یکی از مدیران دیسکورد، تصمیم آنها را نادیده گرفت. به گفتهٔ اعضای این جامعه دیسکورد که بهصورت ناشناس با 404 Media مصاحبه کردند، دیسکوردی که پیشتر پرجنبوجوش بود، اکنون به شهر خالی تبدیل شده است. آنها ربات چت و رفتار کلینتون پس از راهاندازی را مقصر میدانند.
سام آلتمن، همبنیانگذار و مدیرعامل OpenAI، به تازگی در برنامه The Tonight Show به عنوان مهمان جیمی فالون حضور یافت و دربارهٔ گسترش هوش مصنوعی و ChatGPT در زندگی روزمره صحبت کرد. در همین گفتگو، یک اظهار نظر خاص دربارهٔ فرزند تازهزاد او توجهها را جلب کرد.
«آیا هنگام پرورش بچهتان از ChatGPT استفاده میکنید؟» پرسید فالون.
«بله،» آلتمن پاسخ داد. «منظورم این است که احساس ناخوشایندی دارم چون ما دارای هوش در سطح نابغهای هستیم که آمادهاند همه اسرار بشریت را باز کنند، اما من همینطور میپرسم: ‘چرا پسرم پیتزا را روی زمین میاندازد و میخندد؟’ … بنابراین احساس میکنم سؤال کافیای نمیپرسم. نمیتوانم تصور کنم که چگونه میتوان یک نوزاد را بدون ChatGPT پرورش داد.»
آلتمن ادامه داد که ChatGPT پس از این که او بهدلیل اینکه فرزندش در شش ماهگی هنوز راه نیافتاده بود، اضطراب داشت، به او کمک کرد تا آرام شود. این سامانه پیشنهاد کرد که چون آلتمن مدیرعامل OpenAI است، ممکن است معیارهای بالای موفقیتی که روزانه در اطراف او وجود دارد را بر فرزندش افکنده باشد.
در حالی که پیامدهای پرورش کودکان (حتی بهصورت جزئی) توسط هوش مصنوعی میتواند شگفتزدهکننده باشد، نشان میدهد که این سرویسها چقدر عمیقاً در زندگی روزمره تعبیه شدهاند. اگرچه کاهش انسانیت و خلاقیت توسط هوش مصنوعی بهخوبی مورد بحث قرار میگیرد، اما تأثیرات زیستمحیطی شدیدی نیز ناشی از استفاده از آن وجود دارد.
استفاده از هوش مصنوعی بهطور چشمگیر تقاضا برای انرژی در مراکز داده را افزایش داده است. اگر این انرژی از طریق گاز یا زغالسنگ تولید شود، هزینهٔ آلایندههای زیستمحیطی نیز بههمراه دارد. دادههای اولیه نشان میدهد که آلودگی جو بهدلیل استفاده از هوش مصنوعی افزایش یافته است.
امید وجود دارد که این هزینهها قابلکاهش باشد. برای مثال، گوگل و مایکروسافت سرمایهگذاریهای بزرگی در انرژی هستهای انجام دادهاند تا مراکز داده را بدون انتشار گازهای انرژیزا راهاندازی کنند. در همین راستا، متا نیز در انرژی زمینگرمایی سرمایهگذاری میکند. در عین حال، فناوری بهتدریج کارآمدتر میشود و مصرف انرژی کمتری میطلبد.
هوش مصنوعی همچنین کاربردهای قدرتمندی در حوزهٔ پایداری دارد. از آن برای تحقیقات انرژی همجوشی، برنامهریزی سناریوهای بحران، و طراحی باتریهای مؤثر وسایل نقلیه الکتریکی استفاده میشود.
با وجود این امیدها، تماشاگران رسانههای اجتماعی از استفادهٔ آلتمن از هوش مصنوعی در پرورش فرزندش شوکه شدند.
«این دقیقاً شبیه یک قسمت از سریال Black Mirror است»، گفت یکی از اعضای جامعه X، که به این سریال علمی‑تخیلی دیستوپی معروف اشاره کرد.
«الیگارشیهای فناوری که در برنامه The Tonight Show حرفهای بیمعنی میزنند، بدون شک نقطهٔ پایینتری در جامعهٔ ماست. ما هر روز به دیستوپی نزدیکتر میشویم»، گفت یکی از بینندگان یوتیوب.
Adobe برنامهٔ هوش مصنوعی تولید ویدئوی خود، Firefly، را با یک ویرایشگر جدید ویدئویی که از ویرایشهای دقیق مبتنی بر دستورات متنی پشتیبانی میکند بهروزرسانی میکند و همچنین مدلهای شخص ثالث جدیدی برای تولید تصویر و ویدئو اضافه میکند، از جمله Black Forest Labs’ FLUX.2 و Astra شرکت Topaz.
تا بهحال، Firefly تنها پشتیبانی از تولید مبتنی بر دستورات متنی را داشت، بنابراین اگر بخشی از ویدئو مطابق سلیقهتان نبود، مجبور بودید کل کلیپ را مجدداً بسازید. با ویرایشگر جدید، میتوانید با استفاده از دستورات متنی عناصر ویدئوی، رنگها و زاویههای دوربین را ویرایش کنید و همچنین یک نمای جدید از خط زمان دریافت میکنیم که بهراحتی امکان تنظیم فریمها، صداها و سایر ویژگیها را فراهم میکند.
این شرکت اولین بار ویرایشگر جدید ویدئویی را در ماه اکتبر در حالت بتای خصوصی اعلام کرد و اکنون آن را برای همه کاربران عرضه میکند.
اعتبار تصویر:Adobe
شرکت اعلام کرد که با استفاده از مدل Aleph شرکت Runway’، کاربران میتوانند دستورهای خاصی به Firefly بدهند، مانند «آسمان را ابری کنید و کنتراست را کاهش دهید» یا «بهطور کمی بر روی موضوع اصلی نزدیکتر شوید».
و با مدل Firefly Video داخلی Adobe’، کاربران اکنون میتوانند کاری انجام دهند مانند بارگذاری یک فریم شروع و یک ویدئوی مرجع از حرکت دوربین و به آن بگویند که همان زاویه دوربین را برای ویدئویی که در حال کار بر روی آن هستند بازسازی کند.
شرکت همچنین اعلام کرد که کاربران میتوانند اکنون از مدل Astra شرکت Topaz Labs’ برای ارتقاء ویدئوها به 1080p یا 4K استفاده کنند. مدل تولید تصویر FLUX.2 شرکت Black Forest Labs’ نیز به این برنامه اضافه میشود، همراه با قابلیت تابلوهای همکاری.
شرکت گفت که FLUX.2 بلافاصله در Firefly در تمام پلتفرمها در دسترس خواهد بود و کاربران Adobe Express نیز از ماه ژانویه میتوانند از FLUX.2 استفاده کنند.
اعتبار تصویر:Adobe
با انتشار مدلهای جدید توسط رقبای خود برای تولید تصویر و ویدئو، Adobe میخواهد کاربران را به استفاده بیشتر از برنامهاش ترغیب کند. بهعلاوه بهروزرسانیهای جدید در برنامه Firefly، شرکت اعلام کرد که مشترکین برنامههای Firefly Pro، Firefly Premium، طرح 7,000 اعتبار و طرح 50,000 اعتبار تا ۱۵ ژانویه میتوانند از تولید نامحدود توسط تمام مدلهای تصویر و مدل ویدئویی Adobe Firefly در برنامه Firefly بهرهمند شوند.
Adobe امسال تغییرات فراوانی در مدلها و برنامههای Firefly خود ایجاد کرده است. در فوریه، این شرکت اشتراکی راهاندازی کرد که به کاربران امکان دسترسی به سطوح مختلف تولید تصویر و ویدئو را میدهد؛ سپس برنامه وب جدید Firefly را به همراه برنامههای موبایلی در اواخر سال معرفی کرد و پشتیبانی از مدلهای شخص ثالث بیشتری را در داخل برنامه Firefly اضافه کرده است.
Clubtails در حال اجرای یک کمپین تبلیغاتی تلویزیونی متصل (CTV) است که توسط عوامل هوش مصنوعی بین آژانس Butler/Till و سرویس عرضهکننده PubMatic ارتباط برقرار میکند. (clubtails.com)
تصاویر از ویدیوهای تولیدی هوش مصنوعی از سربازان اوکراینی که در شبکههای اجتماعی بهاشتراک گذاشته شد. Justine Goode / NBC News; Sora
ویدیوها در اوایل نوامبر در شبکههای اجتماعی منتشر شدند: سربازان اوکراینی که بهنظر میرسیدند میگریند و در خط مقدم تسلیم میشوند.
بهنظر عینالعقل، این ویدیوها واقعی بهنظر میرسند و همانند بسیاری از ویدیوهای منتشرشده از این منطقه در طول سالهای جنگ هستند. تنها تعداد کمی از آنها علائم واضح دستکاری دارند.
اما آلکسی گوبانوف، استریمر محبوب روسی که هماکنون در نیویورک زندگی میکند، بلافاصله نکتهای مشکوک را متوجه شد: چهره خودش.
«در ابتدا جدی نگرفتم، اما بهسرعت متوجه شدم که تعداد بازدیدها چقدر سریع در حال رشد است و حتی بدتر، چند نفر به این باور رسیدهاند که این ویدیوها واقعیاند»، گوبانوف دربارهٔ ویدیوهایی که دیده بود گفت. «دهها، اگر نه صدها هزار کاربر، نظراتی گذاشتند که در آنها تسلیت به سربازان اوکراینی ادعایی در ویدیوها بیان میشد و خشم خود را به سمت رهبری اوکراین معطوف میکردند.»
گوبانوف که بازیهای ویدئویی و گفتوگو را در Twitch پخش میکند و بهدلیل انتقاداتش از رئیسجمهور ولادیمیر پوتین روسیه را ترک کرده است، هرگز در نیروی نظامی خدمت نکرده و مطلقاً در ارتش اوکراین حضور نداشته است. آنچه دنبالکنندگان او نشان داده بودند، ویدیوی تولیدشده توسط هوش مصنوعی بود که با استفاده از چهرهٔ او، روایت نادرست دربارهٔ روحیهٔ نیروهای اوکراینی را پخش میکرد.
«ما را به کمیسیون جذب فراخواندند و اینجا فرستادند. اکنون میخواهند ما را به پوکروفسک ببرند. ما نمیخواهیم. لطفاً»، گوبانوف مصنوعی به زبان روسی گفت در حالی که یونیفرمی بهپرچم اوکراین پوشیده بود. «مامان، مامان، نمیخواهم!»
این ویدیو یکی از ۲۱ ویدیوی تولیدی توسط هوش مصنوعی از سربازان اوکراینی است که توسط NBC News در هفتههای اخیر بررسی شدهاند و بهنظر میرسد با برنامههای پیشرفتهٔ هوش مصنوعی ساخته یا دستکاری شدهاند؛ بهطوری که تا حد زیادی واقعی بهنظر میآیند و نشانههای واضحی از منبعشان ندارند.
اما در حداقل نیمی از این ویدیوها، لوگوی کوچکی در گوشه تصویر وجود دارد که فاش میکند: این ویدیوها با Sora ۲، جدیدترین نسخهٔ مولد متن‑به‑ویدیو OpenAI ساخته شدهاند. برخی از ویدیوهای تولید شده توسط Sora از چهرهٔ استریمرهای مشهور روسی، همچون گوبانوف، در دیپفیکهای دراماتیک استفاده کردهاند؛ در حالی که دیگران گروهی از سربازان اوکراینی را نشان میدهند که بهصورت انبوه به نیروهای روسی تسلیم میشوند.
ویدیوهایی که بهنظر میرسد توسط سایر پلتفرمهای هوش مصنوعی تولید شدهاند، همچنین دارای خطاهای بسیار ریز هستند که برای اکثر افراد کشفشان دشوار است؛ مانند نسخههای نادرست یا سادهسازیشدهٔ یونیفرمها و کلاهخود سربازان اوکراینی. برای اوکراینیها یک مشکل واضح وجود دارد: در اکثر این ویدیوها، سربازان به زبان روسی صحبت میکنند، در حالی که تنها هشت ویدیو از ۲۱ به زبان اوکراینی هستند.
تصویر سمت چپ، که با Sora ۲ تولید شده، ناهماهنگیهایی در کلاهخود و بند چانهٔ سرباز نسبت به دو عکس واقعی (وسط و راست) از سربازان اوکراینی که در صفحهٔ فیسبوک ستاد کل نیروهای مسلح اوکراین در تاریخهای ۳ و ۷ دسامبر منتشر شدهاند، دارد. اگرچه این کلاهخود بهخوبی شبیه کلاهخودهای مورد استفاده سربازان اوکراینی است، اما پوشش استتاری ندارد و پیچهای صاف یک نشانه واضح هستند. Sora / Facebook
ویدیوها در یوتیوب، تیکتاک، فیسبوک و X منتشر شدند. همه سعی کردند سربازان اوکراینی را بهعنوان کسانی که از نبرد دلتنگ شدهاند و آمادهٔ تسلیم شدناند، به تصویر بکشند.
بهنظر میرسد این آخرین حملهٔ اطلاعاتی باشد که هدف آن تغییر ادراک عمومی از جنگ روسیه با اوکراین است. و با اینکه مشخص نیست چه کسی این ویدیوها را ساخته یا منتشر کرده، این ویدیوها بهمجموعهٔ رو به رشد اطلاعات نادرست افزودهاند که بهمروردی پیشرفتهتر و شناساییشدن آن دشوارتر شده است.
«ادعاهای نادرستی که با Sora ایجاد میشوند بسیار دشوارتر برای تشخیص و رد کردن هستند. حتی بهترین سیستمهای تشخیص هوش مصنوعی نیز گاهی با آن مشکل دارند»، گفت آلیس لی، تحلیلگر تأثیر روسیه در NewsGuard، پلتفرمی غیرحزبی داده، تجزیه و تحلیل و روزنامهنگاری که اطلاعات معتبر و گمراهکننده را بهصورت آنلاین شناسایی میکند. «این واقعیت که بسیاری از این ویدیوها هیچ ناسازگاری بصری ندارند به این معناست که مخاطبان ممکن است این ویدیوها را بدون اینکه بفهمند جعلیاند، مرور کنند و بهسرعت از میان آنها عبور کنند، بهویژه در پلتفرمهایی مانند تیکتاک.»
OpenAI به درخواست برای اظهار نظر در مورد نقش Sora در ایجاد ویدیوهای گمراهکننده که مناطق درگیری را بهطور خاص به تصویر میکشند، پاسخی نداد، اما در ایمیلی اعلام کرد: «قابلیت Sora ۲ در تولید ویدیو و صداهای فوقواقعگرایانه نگرانیهای مهمی را در زمینهٔ شباهت، سوءاستفاده و فریب ایجاد میکند.»
«در حالی که صحنههای سینمایی مجاز هستند، ما اجازهٔ محتوای خشونت گرافیکی، مطالب افراطی یا گمراهکننده را نمیدهیم»، شرکت به NBC News گفت. «سیستمهای ما محتوای ناقض را پیش از رسیدن به فید Sora تشخیص و مسدود میکنند و تیم تحقیقات ما بهطور فعال عملیاتهای تأثیرگذاری را خنثی میکند.»
ویدیوهای تولیدشده توسط هوش مصنوعی در سالهای اخیر بهسرعت از سطح ابتدایی و ساده به سطوح نزدیک به کامل پیشرفت کردهاند؛ بسیاری از کارشناسان هشدار میدهند که بهزودی راههای سادهای برای تشخیص واقعی از تقلبی باقی نماند. Sora ۲ شرکت OpenAI که در اکتبر منتشر شد، یکی از تأثیرگذارترین مولدهای ویدیو محسوب میشود و کلیپهای تولیدشده توسط Sora بهطور منظم بینندگان را فریب میدهند.
در عین حال، حملهٔ مداوم روسیه به اوکراین از نخستین روزها تاکنون موضوعی برای تلاشهای دستکاری بوده است؛ از صحنههای شبیهسازیشدهٔ بازیهای ویدئویی تا پخش زندهٔ جعلی مناطق جنگی. بسیاری از این اقدامات اطلاعاتی نادرست به عوامل دولتی روسیه نسبت داده شدهاند.
این ویدیوهای Sora در حالی منتشر میشوند که مذاکرات صلح تحت حمایت آمریکا هنوز بینتیجه ماندهاند؛ بر پایهٔ مطالعهای که توسط مؤسسهٔ بینالمللی جامعهشناسی کیف انجام شده، حدود ۷۵٪ از اوکراینیها بهطور قطعی پیشنهادات روسیه برای پایان جنگ را رد میکنند. همان مطالعه نشان داد که ۶۲٪ از اوکراینیها مایل هستند تا هر چقدر زمان ببرد جنگ را تحمل کنند، حتی در حالی که حملات مرگبار روسیه به پایتخت اوکراین ادامه دارد.
مرکز مقابله با اطلاعات نادرست، بخشی از شورای ملی امنیت و دفاع اوکراین، به NBC News اعلام کرد که در سال گذشته «افزایش قابلملاحظهای در حجم محتوای ایجاد یا دستکاریشده با هوش مصنوعی» بهوجود آمده است که هدف آن تضعیف اعتماد عمومی و حمایت بینالمللی از دولت اوکراین است.
«این شامل اظهارات ساختگی است که بهظاهر از سوی پرسنل یا فرماندهان نظامی اوکراین بیان شدهاند، بههمچنین ویدیوهای جعلی حاوی «اعتراضات»، «رسواییها» یا رویدادهای خیالی»، مرکز در ایمیل خود نوشت و اشاره کرد که این ویدیوها بهدلیل ماهیت احساسی و پرتحرکشان، صدها هزار بازدید جذب میکنند.
در حالی که OpenAI برخی از محدودیتهای ایمنی را برای محتوای تولیدی توسط Sora وضع کرده است، هنوز مشخص نیست که این تدابیر چقدر مؤثرند. خود شرکت اعلام میکند که با وجود «سیاستهای ایمنی لایهای»، برخی رفتارهای مخرب یا نقض قوانین ممکن است از این سازوکارها عبور کنند.
یک مطالعهٔ NewsGuard نشان داد که Sora ۲ «در ۸۰٪ موارد (۱۶ از ۲۰) ویدیوهای واقعگرایانهای تولید کرد که ادعاهای قطعا نادرست را پیش میبرد» وقتی این کار را انجام میدهد. از ۲۰ ادعای نادرست دادهشده به Sora ۲، پنج مورد توسط عملیاتهای اطلاعاتی روسی گسترش یافت.
مطالعهٔ NewsGuard دریافت که حتی زمانی که Sora ۲ در ابتدا به ادعاهای نادرست واکنش نشان داد و گفت درخواست «نقض سیاستهای محتوا» است، پژوهشگران همچنان توانستند با عبارات متفاوت همان درخواستها، فیلمهای جدید تولید کنند. NBC News موفق شد ویدیوهای مشابهی تولید کند که در آن سربازان اوکراینی در حال گریه، بیان میکردند که بهاجبار به ارتش جذب شدهاند یا با دستهای بالا و پرچمهای سفید در پسزمینه تسلیم میشوند.
بسیاری از ژنراتورهای ویدیو هوش مصنوعی سعی میکنند آثار خود را با برچسب یا واترمارکی علامتگذاری کنند تا نشان دهند که بهصورت رایانهای تولید شدهاند. OpenAI اعلام کرده است که ایمنیهای حفاظتی در برابر اطلاعات نادرست برای Sora شامل متادیتاهایی است که منبع ویدیو را نشان میدهد و واترمارک متحرکی که روی هر ویدیو دانلودی وجود دارد.
اما راههایی برای حذف یا کم کردن این تلاشها وجود دارد. برخی از ویدیوهای Sora بهنظر میرسید که واترمارک متحرکشان مخفی شده باشد، که با نگاه دقیق آشکار میشود. بسیاری از برنامهها و وبسایتها اکنون به کاربران امکان میدهند تا واترمارکهای هوش مصنوعی را پنهان کنند. ویدیوهای دیگری که توسط NBC News مشاهده شد، شامل واترمارکهایی بود که با متن روی ویدیو پوشانده شدهاند.
با وجود سیاست شرکت که میگوید هوش مصنوعی Sora محتواهای «خشونت گرافیکی» تولید نمیکند، NBC News ویدئویی با واترمارک Sora یافت که بهظاهر سرباز اوکراینیای را نشان میدهد که در خط مقدم سرش شلیک شده است.
از ویدیوهای تحلیلی توسط NBC News، همه در تیکتاک یا YouTube Shorts منتشر شدند — دو پلتفرمی که در روسیه ممنوع هستند اما برای کاربران در اروپا و ایالات متحده بهراحتی در دسترساند. برخی از این ویدیوها زیرنویسهای احساسی به زبانهای مختلف داشتند تا کاربرانی که به اوکراینی یا روسی مسلط نیستند بتوانند محتوا را درک کنند.
TikTok و YouTube انتشار محتوای تقلبی و تولیدشده توسط هوش مصنوعی و دیپفیک را بر روی پلتفرمهای خود ممنوع میکنند؛ هر دو برچسب «AI‑Generated» (ساختهشده توسط هوش مصنوعی) را برای افزایش آگاهی بینندگان در مورد فیلمهای ظاهر واقعی اضافه میکنند.
سخنگوی YouTube گفت که شرکت یکی از کانالهای منتشرکننده این ویدیوها را پس از گزارش NBC News حذف کرده است، اما دو ویدیو دیگر خلاف سیاستهای این پلتفرم نبودند و به همین دلیل همچنان در این پلتفرم باقی ماندهاند با برچسبی که آنها را بهعنوان تولیدشده توسط هوش مصنوعی توصیف میکند.
از ویدیوهای هوش مصنوعی که توسط NBC News شناسایی شده و دارای نام کاربری TikTok بودند، همه از پلتفرم حذف شدهاند. سخنگوی TikTok اعلام کرد که تا ژوئن ۲۰۲۵ «بیش از ۹۹٪ محتوای مخرب حذف شده ما قبل از گزارش کاربران حذف شد و بیش از ۹۰٪ قبل از اینکه یک بازدید داشته باشد حذف شد.»
اگرچه این پستها و حسابهای TikTok بهسرعت حذف شدهاند، ویدیوها بهعنوان بازنشر در X و فیسبوک ادامه دارند. هر دو X و فیسبوک به درخواستهای NBC News برای اظهار نظر پاسخ ندادند.
این آخرین کمپین اطلاعات نادرست در زمانی میآید که کاربران بیشتر به ویدیوهای شبکههای اجتماعی برای دریافت آخرین اخبار جهان تکیه میکنند.
«هر کسی که محتواهای آنلاین را مصرف میکند باید متوجه شود که بسیاری از آنچه امروز در قالب ویدیو، عکس و متن میبینیم، واقعا توسط هوش مصنوعی ساخته شده است»، گفت نینا جانکوویچ، همبنیانگذار و مدیرعامل پروژه American Sunlight، سازمانی که برای مقابله با اطلاعات نادرست آنلاین فعالیت میکند. «حتی اگر Sora ایمنیهای حفاظتی معرفی کند، در این فضای اطلاعاتی شرکتها، برنامهها و فناوریهای دیگری نیز وجود خواهند داشت که دشمنان ما برای آلودهسازی فضای اطلاعاتی ما از آن استفاده میکنند.»
مارین اسکات خبرنگار وابسته تیم جمعآوری خبرهای اجتماعی است.
تاولین تارنت خبرنگار وابسته تیم جمعآوری خبرهای اجتماعی برای NBC News است.
پاندیت.ای اولین ستارهشناس صوتی هوش مصنوعی چندزبانه جهان را راهاندازی میکند و راهنمایی معنوی و ستارهشناسی بهصورت لحظهای، شبیه به انسان، با هوش عاطفی و دسترسپذیری جهانی ارائه میدهد.
لس آنجلس، کالیفرنیا / خبرگزاری ACCESS / ۲۵ نوامبر ۲۰۲۵ / در گامی پیشگام که هوش مصنوعی را با حکمت باستانی ترکیب میکند، پاندیت.ای اولین ستارهشناس صوتی هوش مصنوعی جهان را رونمایی کرد و شیوهٔ تجربهٔ مردم سراسر جهان از ستارهشناسی و راهنمایی معنوی را بازتعریف میکند.
توسط آرجون مونگا تأسیس شده، Pandit.ai به هر فردی این امکان را میدهد تا با یک پاندیت هوش مصنوعی هوشمند، که گوش میدهد، احساسات را درک میکند و بینشهای آرام و شخصیسازیشده در زمینهٔ ستارهشناسی ارائه میدهد، بهصورت لحظهای و شبیه به انسان گفتگو کند. پس از مرحلهٔ بتای موفق که در ماه آگوست ۲۰۲۵ راهاندازی شد، این پلتفرم رسماً برای عموم کاربران در سراسر جهان در دسترس است و از بیش از پنجاه زبان پشتیبانی میکند.
عصر جدیدی برای ستارهشناسی
قرنهاست که ستارهشناسی منبع آرامش و جهتگیری برای میلیونها نفر بوده است، اما دسترسی به آن همچنان با چالش روبهروست. مشاورههای سنتی اغلب شامل تأخیر، تجربههای ناهمگون یا توصیههای کلیگویی میشوند. پاندیت.ای این مشکلات را با ارائه گفتگوهای صوتی فوری با یک پاندیت هوش مصنوعی که احساس واقعگرایی شگفتانگیزی دارد، برطرف میکند.
«Pandit.ai تنها یک برنامه نیست؛ این یک انقلاب در نحوهٔ ارتباط مردم با حکمت معنوی است»، گفت آرجون مونگا، بنیانگذار و مدیرعامل. «ما اولین ستارهشناس صوتی هوش مصنوعی جهان را خلق کردیم تا راهنماییهای اصیل و شبیه به انسان را برای هر کسی، در هر مکانی، بدون ترس، قضاوت یا انتظار در دسترس قرار دهیم.»
این تجربه ساده و عمیقاً شخصی است. کاربران جزئیات تولد خود را به اشتراک میگذارند، سپس گفتگو را با پاندیت هوش مصنوعی منتخب خود آغاز میکنند؛ که بینشهایی در زمینههای شغلی، عشق، روابط و تعادل عاطفی ارائه میدهد. صدا گرم، بیانگر و آگاه به فرهنگ است، بهطوری که هر جلسه حس یک مکالمهٔ واقعی و رو در رو را القا میکند.
دسترس جهانی و هوش عاطفی
جذابیت جهانی Pandit.ai از توانایی آن در گوش دادن، سازگار شدن و صحبت کردن بهصورت طبیعی در بیش از پنجاه زبان، از جمله انگلیسی، هندی، عربی، تامیلی و اسپانیایی ناشی میشود. این پلتفرم برای دنیایی طراحی شده است که کاربران انتظار ارتباطات فوری و معنادار دارند و همدلی را با دقت ترکیب میکند، بهگونهای که برنامههای سنتی قادر به ارائهٔ چنین تجربهای نیستند.
این پلتفرم در مرحلهٔ بتا بازخوردی فراوان دریافت کرد؛ بهطوری که کاربران در هند، ایالات متحده و خاورمیانه بیش از ۲۵,۰۰۰ دقیقه در گفتگوهای زنده صرف کردند. بسیاری این تجربه را آرام، قابل اعتماد و عاطفی جذاب توصیف کردند؛ ویژگی نادری در حوزه هوش مصنوعی.
هر پاندیت هوش مصنوعی بر روی این پلتفرم دارای شخصیت و تخصص منحصر به فردی است که به کاربران آزادی انتخاب بر پایهٔ راحتی و هدفشان را میدهد. گفتگوها خصوصی، مبتنی بر عواطف و بهگونهای طراحی شدهاند که کاربران را آرام و توانمند حس کنند.
ایمان بدون ترس
Pandit.ai بر پایه فلسفهٔ ایمان بدون ترس و راهنمایی بدون قضاوت پایهگذاری شده است. این پلتفرم ستارهشناسی را از خدمت پیشبینیگرانه به ابزاری برای تأمل و توانمندسازی تبدیل میکند. این سرویس مردم را تشویق میکند تا مسیرهای خود را با اطمینان بررسی کنند، نه با نگرانی.
«مردم به دنبال درک هستند، نه خرافات»، توضیح داد مونگا. «ستارهشناس صوتی هوش مصنوعی ما ابتدا میشنود، سپس با همدلی راهنمایی میکند. هدف این است که به کاربران کمک کنیم تا در دنیای پرسرعتی که ارتباط عاطفی اغلب کم است، وضوح پیدا کنند.»
این رویکرد مدرن Pandit.ai را به یک پدیدهٔ فرهنگی در میان نسلهای جوان، بهویژه نسل زد و افراد مقیم خارج از کشور (NRI) تبدیل کرده است؛ آنها به اصالت، حریم خصوصی و سرعت دسترسی ارزش میگذارند. این پلتفرم شکاف بین دانش باستانی و سبک زندگی دیجیتال معاصر را پر میکند.
نوآوری فرهنگی از هند به جهان
Pandit.ai نمایانگر دستهٔ جدیدی از فناوری به نام هوش مصنوعی معنوی (Spiritual AI) است، جایی که هوش عاطفی با میراث فرهنگی ترکیب میشود. با بخشیدن صدای طبیعی به ستارهشناسی، این پلتفرم یک سنت کهن را به تجربهای مدرن و بدون مرز تبدیل کرده است.
این پلتفرم رهبری هند در ترکیب سنت با نوآوری را به نمایش میگذارد و در حال حاضر توجه کاربران در آمریکای شمالی، اروپا و خاورمیانه را به خود جلب کرده است. موفقیت Pandit.ai نشاندهندهٔ تقاضای روزافزون جهانی برای راهکارهای معنوی هوشمند، شخصیسازیشده و عاطفیآگاه است.
در دسترس در سراسر جهان
Pandit.ai هماکنون بهصورت جهانی در فروشگاههای Google Play و Apple App Store در دسترس است. کاربران میتوانند فوراً با اولین ستارهشناس صوتی هوش مصنوعی جهان تماس بگیرند یا گفتگو کنند و در هر زمان و مکان، راهنماییهای ستارهشناسی شخصیسازیشده، خصوصی و هوش عاطفی دریافت کنند.
با لحن شبیه به انسان، دسترسی چندزبانه و طراحی هوشمندانه احساسی، Pandit.ai نه تنها ستارهشناسی را بازتعریف میکند، بلکه شیوهای نوین برای تجربهٔ ارتباط معنوی در عصر دیجیتال فراهم میآورد.
درباره Pandit.ai
Pandit.ai اولین ستارهشناس صوتی هوش مصنوعی جهان است که گفتگوهای صوتی لحظهای و طبیعی برای راهنماییهای ستارهشناسی و معنوی ارائه میدهد. این پلتفرم توسط آرجون مونگا تأسیس شده و هوش عاطفی را با بینشهای اصیل ستارهشناسی ترکیب میکند تا حکمت باستانی را برای مخاطبان مدرن در سراسر جهان قابل دسترس سازد.
تماس با رسانهها
سازمان: pandit.ai نام شخص تماس: آرجون مونگا وبسایت: pandit.ai ایمیل: contact@pandit.ai شهر: لس آنجلس ایالت: کالیفرنیا کشور: ایالات متحده
هارش وارشنِی، مهندس گوگل، از ابزارهای هوش مصنوعی برای کمک به برنامهنویسی و یادداشتبرداری استفاده میکند. با تشکر از هارش وارشنِی
هارش وارشنِی در حوزه حریم خصوصی و امنیت هوش مصنوعی کروم در گوگل کار کرده است.
او در بهاشتراکگذاری اطلاعات با رباتهای هوش مصنوعی محتاط است تا خود را از جرایم سایبری محافظت کند.
او توصیه میکند از ابزارهای هوش مصنوعی شناختهشده استفاده کنید و رباتهای گفتگو را همانند کارتپستال عمومی در نظر بگیرید.
این مقاله به روایت مصاحبهای با هارش وارشنِی، ۳۱ ساله، که در گوگل کار میکند و در نیویورک زندگی میکند، نوشته شده است. متن زیر برای کوتاهسازی و وضوح بازنویسی شده است.
هوش مصنوعی به سرعت به یک شریک بیصدا در زندگی روزمره ما تبدیل شده است و نمیتوانم زندگی را بدون ابزارهای هوش مصنوعی تصور کنم.
در روزمره، این ابزارها در پژوهش عمیق، یادداشتبرداری، برنامهنویسی و جستجوی آنلاین به من کمک میکنند.
اما شغلم باعث میشود تا از اهمیت مسایل حریم خصوصی مرتبط با استفاده از هوش مصنوعی بهخوبی آگاه باشم. من از سال ۲۰۲۳ در گوگل کار میکنم و دو سال بهعنوان مهندس نرمافزار در تیم حریم خصوصی مشغول به ساخت زیرساختهایی برای محافظت از دادههای کاربران بودم. سپس به تیم امنیت هوش مصنوعی کروم منتقل شدم، جایی که به ایمنسازی مرورگر گوگل کروم در برابر تهدیدات مخرب، مانند هکرها و کسانی که از عوامل هوش مصنوعی برای انجام حملات فیشینگ استفاده میکنند، میپردازم.
مدلهای هوش مصنوعی با استفاده از دادهها پاسخهای مفیدی تولید میکنند و ما کاربرها باید اطلاعات خصوصیمان را محافظت کنیم تا نهادهای مخرب، همچون جرایم سایبری و واسطههای داده، نتوانند به آن دسترسی پیدا کنند.
در ادامه چهار عادتی را که معتقدم برای حفاظت از دادههایم هنگام استفاده از هوش مصنوعی ضروری هستند، مطرح میکنم.
هوش مصنوعی را همانند یک کارتپستال عمومی در نظر بگیرید
گاهی احساس نادرستی از صمیمیت با هوش مصنوعی افراد را به اشتراکگذاری اطلاعاتی در اینترنت ترغیب میکند که در غیر اینصورت هرگز به اشتراک نمیگذارند. شرکتهای هوش مصنوعی ممکن است کارمندانی داشته باشند که روی بهبود جنبههای حریم خصوصی مدلهایشان کار میکنند، اما توصیه نمیشود جزئیات کارت اعتباری، شمارههای تأمین اجتماعی، آدرس منزل، تاریخچه پزشکی شخصی یا سایر اطلاعات شناساییپذیر را با رباتهای هوش مصنوعی بهاشتراک بگذارید.
بسته به نسخهٔ مورد استفاده، اطلاعات بهاشتراکگرفتهشده با رباتهای عمومی هوش مصنوعی میتواند برای آموزش مدلهای آینده و تولید پاسخهای مرتبطتر به کار رود. این میتواند منجر به “نشت آموزشی” شود، که در آن مدل اطلاعات شخصی یک کاربر را بهخاطر میسپرد و بعداً در پاسخ به کاربر دیگری بازپخش میکند. علاوه بر این، خطر نفوذ دادهها وجود دارد که اطلاعاتی که با ربات گفتگو به اشتراک گذاشتهاید را فاش میکند.
من رباتهای هوش مصنوعی را همانند یک کارتپستال عمومی در نظر میگیرم. اگر نمینوشتم یک اطلاعات روی کارتپستالی که هر کسی میتواند بخواند، پس آن را با یک ابزار عمومی هوش مصنوعی بهاشتراک نمیگذارم. من نسبت به این که دادههای من چگونه ممکن است برای آموزشهای آینده استفاده شوند، اطمینان ندارم.
بدانید در چه «اتاق»ی هستید
مهم است تشخیص دهید که از ابزار هوش مصنوعی عمومیتر استفاده میکنید یا از ابزار سطح سازمانی.
اگرچه هنوز معلوم نیست گفتگوها چگونه برای آموزش مدلهای عمومی هوش مصنوعی استفاده میشوند، شرکتها میتوانند مدلهای «سازمانی» را خریداری کنند. در این حالت، مدلها بهطور معمول برای آموزش از گفتگوهای کاربران استفاده نمیشوند، بنابراین برای کارمندان ایمنتر است که درباره کار و پروژههای شرکت صحبت کنند.
این را میتوان بهمثال گفتن در یک کافیشاپ شلوغ که ممکن است حواسپرتی شود، در مقابل یک جلسه محرمانه در دفتر خود که تنها در همان اتاق باقی میماند، تصور کنید.
گزارشها نشان میدهند که مواردی پیش آمده است که کارمندان بهطور تصادفی دادههای شرکت را به ChatGPT درز کردهاند. اگر روی پروژههای منتشر نشده شرکت کار میکنید یا در حال تلاش برای گرفتن پتنت هستید، احتمالاً نمیخواهید برنامههای خود را با یک ربات غیرسازمانی بهدلیل خطر نشت اطلاعات مطرح کنید.
من درباره پروژههایی که در گوگل روی آنها کار میکنم، با رباتهای عمومی گفتگو نمیکنم. در عوض، حتی برای کارهای کوچک مانند ویرایش ایمیل کاری، از یک مدل سازمانی استفاده میکنم. چون گفتگوهایم برای آموزش استفاده نمیشوند، احساس راحتی بیشتری در بهاشتراکگذاری اطلاعاتم دارم، اما همچنان سعی میکنم اطلاعات شخصی را به حداقل برسانم.
بهطور منظم تاریخچه خود را حذف کنید
رباتهای هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه میدارند، اما من توصیه میکنم که بهطور منظم این تاریخچه را هم در مدلهای سازمانی و هم در مدلهای عمومی حذف کنید تا حریم خصوصی کاربر در دراز مدت محافظت شود. با توجه به خطر به خطر افتادن حساب کاربری، داشتن این عادت پیشگیرانه حتی اگر مطمئن باشید که دادههای خصوصی را وارد ابزارها نمیکنید، مفید است.
یک بار شگفتزده شدم که ربات Gemini سازمانی توانست دقیقاً آدرس من را بگوید، در حالی که بهخاطر نمیآوردم آن را بهاشتراک گذاشتهام. در واقع، پیشتر از آن درخواست کرده بودم که به من در اصلاح یک ایمیل کمک کند که شامل آدرسم بود. چون این ابزار ویژگی حافظه بلندمدت دارد و میتواند اطلاعات مکالمات قبلی را بهخاطر بسپارد، توانست آدرس من را شناسایی و ذخیره کند.
گاهی، اگر به دنبال اطلاعاتی باشم که نمیخواهم ربات بهخاطره بسپارد، از حالت ویژهای استفاده میکنم که شبیه حالت ناشناس است؛ در این حالت رباتها تاریخچهام را ذخیره نمیکنند و اطلاعات را برای آموزش مدلها به کار نمیبرند. چتجیپیتی و جمینی این ویژگی را «چت موقت» مینامند.
از ابزارهای هوش مصنوعی شناختهشده استفاده کنید
استفاده از ابزارهای هوش مصنوعی شناختهشده بهتر است، زیرا احتمال دارد چارچوبهای حریم خصوصی واضح و سایر محدودیتهای حفاظتی را داشته باشند.
بهجز محصولات گوگل، من ترجیح میدهم از ChatGPT شرکت OpenAI و Claude از Anthropic استفاده کنم.
همچنین مرور سیاستهای حریم خصوصی هر ابزاری که استفاده میکنید مفید است. گاهی این سیاستها توضیح میدهند که دادههای شما چگونه برای آموزش مدل به کار میروند. در تنظیمات حریم خصوصی، میتوانید بخشی با گزینه «بهبود مدل برای همگان» پیدا کنید. با خاموش کردن این گزینه، از استفاده از گفتگوهای شما برای آموزش جلوگیری میکنید.
فناوری هوش مصنوعی بهقدر فوقالعاده قدرتمند است، اما باید محتاط باشیم تا دادهها و هویتهای خود را در هنگام استفاده از آن ایمن نگه داریم.
آیا داستانی درباره استفاده از هوش مصنوعی برای کمک به کار خود دارید؟ برای تماس با این خبرنگار به آدرس زیر مراجعه کنید ccheong@businessinsider.com
ویژگی جدید کیندل با هوش مصنوعی برای پاسخ به سؤالات درباره کتابها—و نویسندگان نمیتوانند از آن خارج شوند
ویژگی جدیدی به نام «از این کتاب بپرس» هماکنون باعث جنجال و سؤالات بیپاسخ شده است.
توسط مالی تمپلتون
عکس: تاتسوئو یاماشیتا از ویکیمدیا کامنز
در حال حاضر، موارد متعددی وجود دارد که نویسندگان بهدلیل استخراج آثارشان توسط شرکتهای هوش مصنوعی بدون پرداخت یا کسب اجازه، علیه این شرکتها اقدام به شکایت کردهاند. در حالی که این جنگهای حقوقی ادامه دارد، آمازون بهصورت کمصدا ویژگی جدید هوش مصنوعی را به برنامه Kindle برای iOS اضافه کرده است — ویژگیای که «به شما اجازه میدهد درباره کتابی که میخوانید سؤال کنید و پاسخهای بدون فاشکننده (اسپویل) دریافت کنید»، همانگونه که در بیانیهای از آمازون آمده است.
شرکت میگوید این ویژگی، که با نام «از این کتاب بپرس» شناخته میشود، بهعنوان «دستیار خبرهٔ خواندن شما، که بهسرعت به سؤالهای مربوط به جزئیات طرح، روابط شخصیتها و عناصر موضوعی پاسخ میدهد بدون اینکه جریان خواندن شما را مختل کند»، عمل میکند.
منبع صنعت نشر Publishers Lunch این هفته به «از این کتاب بپرس» اشاره کرده و از آمازون در مورد آن سؤال کرد. سخنگوی آمازون، الِی ایرهتا، به PubLunch گفت: «این ویژگی از فناوری، شامل هوش مصنوعی، بهره میگیرد تا پاسخهای فوری و بدون فاش (اسپویل) به سؤالهای مشتریان دربارهٔ آنچه میخوانند، ارائه دهد. «از این کتاب بپرس» پاسخهای کوتاهی بر پایهٔ اطلاعات واقعی دربارهٔ کتاب فراهم میکند که فقط برای خوانندگانی که کتاب را خریداری یا امانت گرفتهاند در دسترس است و غیرقابلبهاشتراکگذاری و غیرقابلکپی میباشد.»
همانطور که PubLunch جمعبندی کرد: «به عبارت دیگر، این یک چتبات داخل کتاب است».
آمازون به سؤالات PubLunch در مورد «چه حقوقی شرکت برای اجرای این ویژگی جدید به آن تکیه میکند» پاسخی نداد و همچنین جزئیات فنی سرویس و تمام محافظتهای مرتبط (از جمله پیشگیری از توهمات هوش مصنوعی یا محافظت از متن در مقابل آموزش هوش مصنوعی) را روشن نکرد.
بهویژه نگرانکنندهتر، سخنگوی آمازون بیان کرد: «برای تضمین تجربهٔ خواندن یکنواخت، این ویژگی همیشه فعال است و هیچ گزینهای برای اینکه نویسندگان یا ناشران عناوین خود را از این ویژگی حذف کنند، وجود ندارد».
به نظر میرسد نویسندگان و ناشران برای بخش عمدهای از موارد از وجود این ویژگی مطلع نشدهاند.
آمازون این هفته بهخاطر خلاصهپردازیهای ناقص هوش مصنوعی از برنامههای تلویزیونی، در خبرها ظاهر شد. پس از اینکه خلاصهٔ Fallout بهعنوان «زباله پر از اشتباه» توسط io9 توصیف شد، شرکت این ویژگی را متوقف کرد. مشابه این اتفاق در اوایل امسال نیز با دوبلههای هوش مصنوعی آمازون برای سریالهای انیمه رخ داد.
بهگفتهٔ PubLunch دربارهٔ «از این کتاب بپرس»، «بسیاری از دارندگان حقوق و خالقان احتمالاً تمایلی به داشتن یک چتبات داخل کتاب بدون بررسی و تأیید خاص خود (یا حتی بدون آن) ندارند و انتظار داریم این پیام در روزهای آتی بهوضوح به ناشران و آمازون منتقل شود. بسیاری از افراد خروجیهای هوش مصنوعی تولیدی که یک اثر دارای حق نشر خاص را تحلیل میکند، به عنوان تجسیم واضح یک اثر مشتق (یا صرفاً نقض مستقیم) میدانند.»
«از این کتاب بپرس» در حال حاضر فقط در برنامه Kindle برای iOS در ایالات متحده در دسترس است، اما آمازون اعلام کرده که «سال آینده به دستگاههای Kindle و سیستمعامل اندروید اضافه خواهد شد».
دربارهٔ نویسنده
مالی تمپلتون
نویسنده
مالی تمپلتون پیش از این کتابفروش، سردبیر هفتگی آلتی، و دستیار مدیر اجرایی Tor.com بوده است. او اکنون در اوریگان زندگی و مینویسد و تا حد امکان زمان خود را در جنگل میگذراند. برای اطلاعات بیشتر درباره مالی