بلاگ

  • من در بخش امنیت هوش مصنوعی در گوگل مشغول به کار هستم و برخی موارد را هرگز به ربات‌های گفتگو نمی‌گویم. من چهار قانون را برای استفاده ایمن از هوش مصنوعی رعایت می‌کنم.

    هارش وارشنِی در حال نشستن روی صندلی.
    هارش وارشنِی، مهندس گوگل، از ابزارهای هوش مصنوعی برای کمک به برنامه‌نویسی و یادداشت‌برداری استفاده می‌کند. با تشکر از هارش وارشنِی
    • هارش وارشنِی در حوزه حریم خصوصی و امنیت هوش مصنوعی کروم در گوگل کار کرده است.
    • او در به‌اشتراک‌گذاری اطلاعات با ربات‌های هوش مصنوعی محتاط است تا خود را از جرایم سایبری محافظت کند.
    • او توصیه می‌کند از ابزارهای هوش مصنوعی شناخته‌شده استفاده کنید و ربات‌های گفتگو را همانند کارت‌پستال عمومی در نظر بگیرید.

    این مقاله به روایت مصاحبه‌ای با هارش وارشنِی، ۳۱ ساله، که در گوگل کار می‌کند و در نیویورک زندگی می‌کند، نوشته شده است. متن زیر برای کوتاه‌سازی و وضوح بازنویسی شده است.

    هوش مصنوعی به سرعت به یک شریک بی‌صدا در زندگی روزمره ما تبدیل شده است و نمی‌توانم زندگی را بدون ابزارهای هوش مصنوعی تصور کنم.

    در روزمره، این ابزارها در پژوهش عمیق، یادداشت‌برداری، برنامه‌نویسی و جستجوی آنلاین به من کمک می‌کنند.

    اما شغلم باعث می‌شود تا از اهمیت مسایل حریم خصوصی مرتبط با استفاده از هوش مصنوعی به‌خوبی آگاه باشم. من از سال ۲۰۲۳ در گوگل کار می‌کنم و دو سال به‌عنوان مهندس نرم‌افزار در تیم حریم خصوصی مشغول به ساخت زیرساخت‌هایی برای محافظت از داده‌های کاربران بودم. سپس به تیم امنیت هوش مصنوعی کروم منتقل شدم، جایی که به ایمن‌سازی مرورگر گوگل کروم در برابر تهدیدات مخرب، مانند هکرها و کسانی که از عوامل هوش مصنوعی برای انجام حملات فیشینگ استفاده می‌کنند، می‌پردازم.

    مدل‌های هوش مصنوعی با استفاده از داده‌ها پاسخ‌های مفیدی تولید می‌کنند و ما کاربرها باید اطلاعات خصوصی‌مان را محافظت کنیم تا نهادهای مخرب، همچون جرایم سایبری و واسطه‌های داده، نتوانند به آن دسترسی پیدا کنند.

    در ادامه چهار عادتی را که معتقدم برای حفاظت از داده‌هایم هنگام استفاده از هوش مصنوعی ضروری هستند، مطرح می‌کنم.

    هوش مصنوعی را همانند یک کارت‌پستال عمومی در نظر بگیرید

    گاهی احساس نادرستی از صمیمیت با هوش مصنوعی افراد را به اشتراک‌گذاری اطلاعاتی در اینترنت ترغیب می‌کند که در غیر این‌صورت هرگز به اشتراک نمی‌گذارند. شرکت‌های هوش مصنوعی ممکن است کارمندانی داشته باشند که روی بهبود جنبه‌های حریم خصوصی مدل‌هایشان کار می‌کنند، اما توصیه نمی‌شود جزئیات کارت اعتباری، شماره‌های تأمین اجتماعی، آدرس منزل، تاریخچه پزشکی شخصی یا سایر اطلاعات شناسایی‌پذیر را با ربات‌های هوش مصنوعی به‌اشتراک بگذارید.

    بسته به نسخهٔ مورد استفاده، اطلاعات به‌اشتراک‌گرفته‌شده با ربات‌های عمومی هوش مصنوعی می‌تواند برای آموزش مدل‌های آینده و تولید پاسخ‌های مرتبط‌تر به کار رود. این می‌تواند منجر به “نشت آموزشی” شود، که در آن مدل اطلاعات شخصی یک کاربر را به‌خاطر می‌سپرد و بعداً در پاسخ به کاربر دیگری بازپخش می‌کند. علاوه بر این، خطر نفوذ داده‌ها وجود دارد که اطلاعاتی که با ربات گفتگو به اشتراک گذاشته‌اید را فاش می‌کند.

    من ربات‌های هوش مصنوعی را همانند یک کارت‌پستال عمومی در نظر می‌گیرم. اگر نمی‌نوشتم یک اطلاعات روی کارت‌پستالی که هر کسی می‌تواند بخواند، پس آن را با یک ابزار عمومی هوش مصنوعی به‌اشتراک نمی‌گذارم. من نسبت به این که داده‌های من چگونه ممکن است برای آموزش‌های آینده استفاده شوند، اطمینان ندارم.

    بدانید در چه «اتاق»ی هستید

    مهم است تشخیص دهید که از ابزار هوش مصنوعی عمومی‌تر استفاده می‌کنید یا از ابزار سطح سازمانی.

    اگرچه هنوز معلوم نیست گفتگوها چگونه برای آموزش مدل‌های عمومی هوش مصنوعی استفاده می‌شوند، شرکت‌ها می‌توانند مدل‌های «سازمانی» را خریداری کنند. در این حالت، مدل‌ها به‌طور معمول برای آموزش از گفتگوهای کاربران استفاده نمی‌شوند، بنابراین برای کارمندان ایمن‌تر است که درباره کار و پروژه‌های شرکت صحبت کنند.

    این را می‌توان به‌مثال گفتن در یک کافی‌شاپ شلوغ که ممکن است حواس‌پرتی شود، در مقابل یک جلسه محرمانه در دفتر خود که تنها در همان اتاق باقی می‌ماند، تصور کنید.

    گزارش‌ها نشان می‌دهند که مواردی پیش آمده است که کارمندان به‌طور تصادفی داده‌های شرکت را به ChatGPT درز کرده‌اند. اگر روی پروژه‌های منتشر نشده شرکت کار می‌کنید یا در حال تلاش برای گرفتن پتنت هستید، احتمالاً نمی‌خواهید برنامه‌های خود را با یک ربات غیرسازمانی به‌دلیل خطر نشت اطلاعات مطرح کنید.

    من درباره پروژه‌هایی که در گوگل روی آن‌ها کار می‌کنم، با ربات‌های عمومی گفتگو نمی‌کنم. در عوض، حتی برای کارهای کوچک مانند ویرایش ایمیل کاری، از یک مدل سازمانی استفاده می‌کنم. چون گفتگوهایم برای آموزش استفاده نمی‌شوند، احساس راحتی بیشتری در به‌اشتراک‌گذاری اطلاعاتم دارم، اما همچنان سعی می‌کنم اطلاعات شخصی را به حداقل برسانم.

    به‌طور منظم تاریخچه خود را حذف کنید

    ربات‌های هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه می‌دارند، اما من توصیه می‌کنم که به‌طور منظم این تاریخچه را هم در مدل‌های سازمانی و هم در مدل‌های عمومی حذف کنید تا حریم خصوصی کاربر در دراز مدت محافظت شود. با توجه به خطر به خطر افتادن حساب کاربری، داشتن این عادت پیشگیرانه حتی اگر مطمئن باشید که داده‌های خصوصی را وارد ابزارها نمی‌کنید، مفید است.

    یک بار شگفت‌زده شدم که ربات Gemini سازمانی توانست دقیقاً آدرس من را بگوید، در حالی که به‌خاطر نمی‌آوردم آن را به‌اشتراک گذاشته‌ام. در واقع، پیش‌تر از آن درخواست کرده بودم که به من در اصلاح یک ایمیل کمک کند که شامل آدرسم بود. چون این ابزار ویژگی حافظه بلندمدت دارد و می‌تواند اطلاعات مکالمات قبلی را به‌خاطر بسپارد، توانست آدرس من را شناسایی و ذخیره کند.

    گاهی، اگر به دنبال اطلاعاتی باشم که نمی‌خواهم ربات به‌خاطره بسپارد، از حالت ویژه‌ای استفاده می‌کنم که شبیه حالت ناشناس است؛ در این حالت ربات‌ها تاریخچه‌ام را ذخیره نمی‌کنند و اطلاعات را برای آموزش مدل‌ها به کار نمی‌برند. چت‌جی‌پی‌تی و جمی‌نی این ویژگی را «چت موقت» می‌نامند.

    از ابزارهای هوش مصنوعی شناخته‌شده استفاده کنید

    استفاده از ابزارهای هوش مصنوعی شناخته‌شده بهتر است، زیرا احتمال دارد چارچوب‌های حریم خصوصی واضح و سایر محدودیت‌های حفاظتی را داشته باشند.

    به‌جز محصولات گوگل، من ترجیح می‌دهم از ChatGPT شرکت OpenAI و Claude از Anthropic استفاده کنم.

    همچنین مرور سیاست‌های حریم خصوصی هر ابزاری که استفاده می‌کنید مفید است. گاهی این سیاست‌ها توضیح می‌دهند که داده‌های شما چگونه برای آموزش مدل به کار می‌روند. در تنظیمات حریم خصوصی، می‌توانید بخشی با گزینه «بهبود مدل برای همگان» پیدا کنید. با خاموش کردن این گزینه، از استفاده از گفتگوهای شما برای آموزش جلوگیری می‌کنید.

    فناوری هوش مصنوعی به‌قدر فوق‌العاده قدرتمند است، اما باید محتاط باشیم تا داده‌ها و هویت‌های خود را در هنگام استفاده از آن ایمن نگه داریم.

    آیا داستانی درباره استفاده از هوش مصنوعی برای کمک به کار خود دارید؟ برای تماس با این خبرنگار به آدرس زیر مراجعه کنید ccheong@businessinsider.com

  • او پدرخوانده روباتیک مدرن است. می‌گوید این حوزه مسیر خود را گم کرده است.

    پرتره‌ای از راندی بروکس که شلوار جین و پیراهن با یقه باز دارد و به نرده‌ای در یک انبار تکیه کرده است
    اعتبار… آرون وجاک برای نیویورک تایمز

    راندی بروکس، معروف به رومنبا، معتقد است که شور و شوق نسبت به روبات‌های انسان‌ساخت در سیلیکون‌ولی سرنوشت‌اش به‌سقوط منتهی می‌شود.

  • ویژگی جدید کیندل با هوش مصنوعی برای پاسخ به سؤالات درباره کتاب‌ها—و نویسندگان نمی‌توانند از آن خارج شوند – Reactor

    ویژگی جدید کیندل با هوش مصنوعی برای پاسخ به سؤالات درباره کتاب‌ها—و نویسندگان نمی‌توانند از آن خارج شوند

    ویژگی جدیدی به نام «از این کتاب بپرس» هم‌اکنون باعث جنجال و سؤالات بی‌پاسخ شده است.

    توسط مالی تمپل‌تون

    آمازون کیندل پیپرایت 3G

    عکس: تاتسوئو یاماشیتا از ویکی‌مدیا کامنز

    در حال حاضر، موارد متعددی وجود دارد که نویسندگان به‌دلیل استخراج آثارشان توسط شرکت‌های هوش مصنوعی بدون پرداخت یا کسب اجازه، علیه این شرکت‌ها اقدام به شکایت کرده‌اند. در حالی که این جنگ‌های حقوقی ادامه دارد، آمازون به‌صورت کم‌صدا ویژگی جدید هوش مصنوعی را به برنامه Kindle برای iOS اضافه کرده است — ویژگی‌ای که «به شما اجازه می‌دهد درباره کتابی که می‌خوانید سؤال کنید و پاسخ‌های بدون فاش‌کننده (اسپویل) دریافت کنید»، همان‌گونه که در بیانیه‌ای از آمازون آمده است.

    شرکت می‌گوید این ویژگی، که با نام «از این کتاب بپرس» شناخته می‌شود، به‌عنوان «دستیار خبرهٔ خواندن شما، که به‌سرعت به سؤال‌های مربوط به جزئیات طرح، روابط شخصیت‌ها و عناصر موضوعی پاسخ می‌دهد بدون اینکه جریان خواندن شما را مختل کند»، عمل می‌کند.

    منبع صنعت نشر Publishers Lunch این هفته به «از این کتاب بپرس» اشاره کرده و از آمازون در مورد آن سؤال کرد. سخنگوی آمازون، الِی ایره‌تا، به PubLunch گفت: «این ویژگی از فناوری، شامل هوش مصنوعی، بهره می‌گیرد تا پاسخ‌های فوری و بدون فاش (اسپویل) به سؤال‌های مشتریان دربارهٔ آنچه می‌خوانند، ارائه دهد. «از این کتاب بپرس» پاسخ‌های کوتاهی بر پایهٔ اطلاعات واقعی دربارهٔ کتاب فراهم می‌کند که فقط برای خوانندگانی که کتاب را خریداری یا امانت گرفته‌اند در دسترس است و غیرقابل‌به‌اشتراک‌گذاری و غیرقابل‌کپی می‌باشد.»

    همان‌طور که PubLunch جمع‌بندی کرد: «به عبارت دیگر، این یک چت‌بات داخل کتاب است».

    آمازون به سؤالات PubLunch در مورد «چه حقوقی شرکت برای اجرای این ویژگی جدید به آن تکیه می‌کند» پاسخی نداد و همچنین جزئیات فنی سرویس و تمام محافظت‌های مرتبط (از جمله پیشگیری از توهمات هوش مصنوعی یا محافظت از متن در مقابل آموزش هوش مصنوعی) را روشن نکرد.

    به‌ویژه نگران‌کننده‌تر، سخنگوی آمازون بیان کرد: «برای تضمین تجربهٔ خواندن یکنواخت، این ویژگی همیشه فعال است و هیچ گزینه‌ای برای این‌که نویسندگان یا ناشران عناوین خود را از این ویژگی حذف کنند، وجود ندارد».

    به نظر می‌رسد نویسندگان و ناشران برای بخش عمده‌ای از موارد از وجود این ویژگی مطلع نشده‌اند.

    آمازون این هفته به‌خاطر خلاصه‌پردازی‌های ناقص هوش مصنوعی از برنامه‌های تلویزیونی، در خبرها ظاهر شد. پس از اینکه خلاصهٔ Fallout به‌عنوان «زباله‌ پر از اشتباه» توسط io9 توصیف شد، شرکت این ویژگی را متوقف کرد. مشابه این اتفاق در اوایل امسال نیز با دوبله‌های هوش مصنوعی آمازون برای سریال‌های انیمه رخ داد.

    به‌گفتهٔ PubLunch دربارهٔ «از این کتاب بپرس»، «بسیاری از دارندگان حقوق و خالقان احتمالاً تمایلی به داشتن یک چت‌بات داخل کتاب بدون بررسی و تأیید خاص خود (یا حتی بدون آن) ندارند و انتظار داریم این پیام در روزهای آتی به‌وضوح به ناشران و آمازون منتقل شود. بسیاری از افراد خروجی‌های هوش مصنوعی تولیدی که یک اثر دارای حق نشر خاص را تحلیل می‌کند، به‌ عنوان تجسیم واضح یک اثر مشتق (یا صرفاً نقض مستقیم) می‌دانند.»

    «از این کتاب بپرس» در حال حاضر فقط در برنامه Kindle برای iOS در ایالات متحده در دسترس است، اما آمازون اعلام کرده که «سال آینده به دستگاه‌های Kindle و سیستم‌عامل اندروید اضافه خواهد شد».

    دربارهٔ نویسنده

    مالی تمپل‌تون

    نویسنده

    مالی تمپل‌تون پیش از این کتاب‌فروش، سردبیر هفتگی آلتی، و دستیار مدیر اجرایی Tor.com بوده است. او اکنون در اوریگان زندگی و می‌نویسد و تا حد امکان زمان خود را در جنگل می‌گذراند. برای اطلاعات بیشتر درباره مالی

  • تبلیغ «سانتا مخفی» فیس‌بوک به عنوان بهترین تبلیغ سال ۲۰۲۵ توسط خوانندگان Ad Age انتخاب شد

    یک مرد جوان داخل خانه، زیر نورهای گرم و چشمک‌زن تعطیلات، با نگاه متمرکز به سمت کنار، ظاهری متفکر و کمی مضطرب دارد.
    تبلیغ «سانتا مخفی» فیس‌بوک توجه خوانندگان Ad Age را جلب کرد. (فیس‌بوك)

    توسط تیم ناد

  • ۵ نکته‌ای که برای ۱۲ دسامبر باید بدانید: بهداشت و درمان، تجدید تقسیم حوزه‌ها، سیل‌های واشنگتن، مهاجرت، هوش مصنوعی

    نوشته الکساندرا بنر

    رئیس‌جمهور دونالد ترامپ در طول جشن کنگره در کاخ سفید روز پنجشنبه سخنرانی می‌کرد.
    رئیس‌جمهور دونالد ترامپ در طول جشن کنگره در کاخ سفید روز پنجشنبه سخنرانی می‌کرد. Alex Wong/Getty Images

    سازمان غذا و داروی آمریکا (FDA) قصد دارد هشدار «جعبه‌سیاه» را بر روی واکسن‌های کووید‑۱۹ اعمال کند، به گفتهٔ منابع به CNN. هشدار جعبه‌سیاه، جدی‌ترین هشدار این نهاد است و برای هشداردهی به خطرات دارویی به کار می‌رود.

    در ادامه، نکات دیگری که برای به‌روز شدن و ادامه روزتان لازم است، آورده شده است.

    1️⃣ بهداشت و درمان

    رئیس‌جمهور دونالد ترامپ در جشن کنگره در کاخ سفید روز پنجشنبه، پیشنهاد شگفت‌آوری برای همکاری دوجانبهٔ حزبی مطرح کرد و گفت که معتقد است دموکرات‌ها و جمهوری‌خواهان به‌زودی در حوزه بهداشت و درمان با یکدیگر همکاری خواهند کرد. دولت پس از آنکه مجلس سنا پیشنهادهای متقابل دو حزب را رد کرد، اکنون یک رویکرد جدید در زمینه بهداشت و درمان را وعده می‌دهد. این بن‌بست قانون‌گذاری در حالی رخ می‌دهد که میلیون‌ها آمریکایی ممکن است در ژانویه با پرداخت‌های ماهیانهٔ بالاتر مواجه شوند، اگر حمایت‌های بهبود یافتهٔ «اوباماکر» منقضی شوند. کارولین لیویِت، سخنگوی بیت‌سفید، گفت که جزئیات این طرح «به‌زودی» منتشر خواهد شد.

    2️⃣ نبردهای تجدید تقسیم حوزه‌ها

    جمهوری‌خواهان ایندیانا در مقابل کمپین فشار رئیس‌جمهور ترامپ برای بازنگری نقشه‌های کنگره‌ای ایالت، پیش از انتخابات میان‌دوره‌ای سال آینده ایستادگی کردند. در روز پنجشنبه، ۲۱ جمهوری‌خواه به همراه ۱۰ دموکرات برای رد نقشهٔ پیشنهادی رأی دادند؛ نقشه‌ای که می‌توانست جمهوری‌خواهان را در همهٔ نه کرسی نمایندگان ایالت به‌دست آورد و به‌احتمال کمک کند تا حزب کنترل مجلس را حفظ کند. چندین نماینده که از رأی‌دادن به این نقشه خودداری کردند، استدلال کردند که رای‌دهندگان آنان با تجدید تقسیم حوزه‌ها مخالفند. ترامپ گفت امیدوار است جمهوری‌خواسانی که رأی خود را علیه بازطراحی نقشه ابراز کردند، با چالش‌های مقدماتی از سوی حامیان وفادار مگا مواجه شوند.

    3️⃣ سیل‌های واشنگتن

    سیل‌های تاریخی در واشنگتن منجر به تخلیه‌های گسترده و عملیات نجات در آب شد. چندین رودخانه در بخش غربی ایالت سرریز شدند و شهرها را با آب‌های سیلابی سریع‌السیر غمر کردند. در سوماتس، ده‌ها نفر نجات یافتند؛ سطح آب در روز پنجشنبه به ارتفاع ۱۵ فوت (حدود ۴٫۵ متر) رسید. برآورد مقامات نشان می‌دهد حدود ۱۰۰٬۰۰۰ ساکن در سراسر ایالت ممکن است با تهدیدهای فزایندهٔ سیلاب، احتمال تخلیه را داشته باشند. بسیاری از این افراد در شهرستان اسکاگیّت ساکن هستند، جایی که کل ناحیهٔ سیلابی صدی‌ساله دستور تخلیه دریافت کرده است. هواشناسان می‌گویند که یک «رودخانهٔ جوی» جدید در هفتهٔ آینده می‌تواند باران‌های بیشتری به نواحی که پیش‌تر توسط سیلاب‌ها ویران شده‌اند، بباراند.

    4️⃣ مهاجرت

    قاضی فدرال روز پنجشنبه، آزادی فوری کیل‌مار آبرگو گارسیا را از بازداشت ICE حکم داد. این مرد سالوادورایی به‌اشتباه در اوایل سال جاری اخراج شد که منجر به یک نبرد حقوقی پیچیده شد؛ این نبرد شامل درگیری‌های پرتنش بین قاضی و وزارت دادگستری بود. پروندهٔ او به نماد سرکوب مهاجرتی دولت ترامپ تبدیل شده و موضع تهاجمی این دولت برای اخراج مهاجران به‌سوی کشورهای دوردست را نشان می‌دهد. آزادی او پس از آن رخ داد که دولت در هفته‌های اخیر با مشکل یافتن کشوری که مایل به پذیرش سریع او باشد، مواجه شد.

    5️⃣ هوش مصنوعی

    رئیس‌جمهور ترامپ روز پنجشنبه یک فرمان اجرایی امضا کرد که ایالت‌ها را از اجرای قوانین جداگانهٔ هوش مصنوعی باز می‌دارد و به‌جای آن هدف ایجاد «چارچوب ملی یکپارچه» برای هوش مصنوعی را دنبال می‌کند. رهبران سیلیکون ولی، از جمله سِم آلتمن، مدیرعامل OpenAI، استدلال می‌کنند که پخش‌پذیری قوانین ایالتی می‌تواند نوآوری را کاهش دهد و رقابت‌پذیری آمریکا را در مسابقهٔ جهانی هوش مصنوعی مقابل چین تضعیف کند؛ این امر می‌تواند پیامدهای اقتصادی و امنیتی جدی داشته باشد. منتقدان با این حال نگرانند که این حرکت به سمت حذف‌تنظیمات، به شرکت‌های هوش مصنوعی اجازه دهد تا در صورت آسیب‌رسانی به مصرف‌کنندگان، از مسئولیت‌پذیری فرار کنند.

    دریافت “۵ نکته” در صندوق ورودی شما

    • اگر روز شما تا وقتی که با جدیدترین عناوین خبر به‌روز نشده آغاز نمی‌شود، اجازه دهید منبع صبحگاهی مورد علاقه‌تان را به شما معرفی کنیم. برای دریافت خبرنامه «۵ نکته» اینجا ثبت‌نام کنید.

    مرور صبحانه

    ویدئو: نجات خوش‌شانس آسمان‌نورد

    چتر یک آسمان‌نورد استرالیایی در ارتفاع ۱۵٬۰۰۰ فوت در هوا به دم‌بال یک هواپیما گیر کرد. ببینید چگونه از یک فاجعه به‌نزدیک‌ترین حالت جلوگیری شد.

    ترامپ قواعد سکه‌های آمریکا را بازنویسی می‌کند

    کشتن پنی تنها آغاز بود. تغییرات اساسی بیشتری در سکه‌های آمریکا در سال آینده در راه است.

    مغول کریپتو به ۱۵ سال زندان محکوم شد

    مغول سابق ارزهای دیجیتال دو کوون به‌دلیل طرح تقلبی به‌ارزش ۴۰ میلیارد دلار، به ۱۵ سال حبس محکوم شد.

    مدیرعامل لولوله‌مون استعفا می‌دهد

    شرکت لولوله‌مون آثلتیكا اعلام کرد که مدیرعامل آن، کالوین مک‌دونالد، به‌دلیل مواجهه با محیط مصرف‌کنندهٔ دشوار، از سمت خود استعفا می‌دهد.

    قطعی برق در برزیل

    صدها پرواز در روز پنجشنبه پس از وقوع قطعی برق در برزیل که بیش از ۱٫۴ میلیون نفر را بدون برق رها کرد، لغو شدند.

    زمان پرسش

    کدام کشور اخیراً استفادهٔ نوجوانان جوان از شبکه‌های اجتماعی را ممنوع کرده است؟
    A. کانادا
    B. استرالیا
    C. روسیه
    D. هند

    مرا به آزمون ببر!

    آب‌ هوا

    🌤️ پیش‌بینی هوای محلی خود را بررسی کنید تا ببینید چه انتظاری می‌توانید داشته باشید.

    و در نهایت…

    پیمانگر یوتا در گل‌خاک
    این‌جا می‌توانید ببینید هنگام که یک پیمانگر تنها در گل‌خاک گیر کرد، چه اتفاقی رخ داد. ۰:۳۸ – منبع: CNN

    ▶️ نجات از گل‌خاک

    یک پیمانگر باتجربه هنگام کوه‌پیمایی در پارک ملی آرچس یوتا، به گل‌خاک فرو رفت. لحظه‌ای که او نجات یافت را ببینید.

    نسخهٔ امروز برنامه «۵ نکته» صبحگاهی توسط اندرو تورگان از سی‌ان‌ان ویرایش و تولید شد.

  • Kokua Line: سم‌زدن سئو چیست؟

    کریستین دانلی

    سؤال: من ایمیل‌های کلاهبرداری دریافت می‌کنم که به راحتی می‌توانم حذفشان کنم، چون کارت اعتباری که شرکتش فرضاً می‌خواهد با من تماس بگیرد، در دسترس من نیست. اما یک ایمیل ادعایی از کارت اعتباری‌ام دریافت کردم و آن را باز کردم. واو! ظاهرش بی‌نقص بود؛ دقیقاً همان لوگو و فونت‌ٔ فاکتورم. با این حال روی لینک کلیک نکردم. چون کارت‌ام در دسترس نبود، نام شرکت را در گوگل جستجو کردم و وب‌سایتی که پیدا شد، کاملاً درست به نظر می‌رسید. خلاصه ماجرا این است که این سایت تقلبی بود! … لطفاً به مردم یادآوری کنید که فقط به وب‌سایتی که روی کارت یا فاکتور واقعی‌شان درج شده مراجعه کنند یا با شماره تلفن‌ آن تماس بگیرند.

    پاسخ: طبق گزارش اف‌بی‌آی، تقلب انواع دست‑به‑دست‌گیری حساب (Account takeover) در حال افزایش است، از جمله نوعی که شما را تحت تأثیر قرار می‌دهد — ایمیل فیشینگ و سم‌زدن سئو. سم‌زدن سئو به این معناست که جرایم سایبری تبلیغات آنلاین را خریداری می‌کنند و به‌عنوان کسب‌وکارهای واقعی تظاهر می‌کنند تا سایت‌های فیشینگ خود را تقویت کنند و مشتریانی که از موتور جستجو برای یافتن وب‌سایت یک شرکت استفاده می‌کنند فریب دهند. اف‌بی‌آی در اخطاریه‌ای که ماه گذشته منتشر کرد گفت: «زمانی که کاربران روی تبلیغ تقلبی موتور جستجو کلیک می‌کنند، به یک سایت فیشینگ پیشرفته هدایت می‌شوند که وب‌سایت واقعی را شبیه‌سازی می‌کند و کاربران را به ارائه اطلاعات ورودشان فریب می‌دهد.» نکات این آژانس برای جلوگیری از تقلب دست‑به‑دست‌گیری حساب شامل موارد زیر است:

    >> هنگام به اشتراک‌گذاری اطلاعات شخصی در اینترنت یا شبکه‌های اجتماعی احتیاط کنید. با آشکارا گذاشتن نام حیوان خانگی‌تان، مدارس پیشین‌تان، تاریخ تولد یا جزئیات دربارهٔ اعضای خانواده، ممکن است به کلاهبرداران کمک کنید تا رمز عبور یا پاسخ به سوالات امنیتی‌تان را حدس بزنند.

    >> به‌طور منظم حساب‌های مالی خود را بررسی کنید، حتی آنهایی که به‌ندرت استفاده می‌کنید، و تمام ویژگی‌های امنیتی را فعال کنید. هرگونه ناهماهنگی را فوراً گزارش دهید.

    >> از رمزهای عبور منحصر به فرد و پیچیده استفاده کنید. احراز هویت چندعاملی (MFA) را در هر حسابی که امکان‌پذیر است فعال کنید. اف‌بی‌آی می‌گوید: «هرگز آن را غیرفعال نکنید.»

    >> برای دسترسی به سایت‌های ورود، از بوکمارک یا فهرست علاقه‌مندی‌ها استفاده کنید. یا همان‌طور که خواننده اشاره کرد، وب‌سایت را در صورت‌حساب یا کارت اعتباری خود بررسی کنید. اف‌بی‌آی می‌گوید: «از کلیک روی نتایج جستجوی اینترنتی یا تبلیغات خودداری کنید. احراز هویت چندعاملی (MFA) در صورتی که به صفحه ورود تقلبی برسید، شما را محافظت نمی‌کند.»

    >> نسبت به هر تماس یا ایمیل ناخواسته‌ای که به‌دنبال دریافت اطلاعات مالی یا شخصی می‌گردد، محتاط باشید؛ شناسه تماس (Caller ID) را اعتماد نکنید. شرکت‌های معتبر معمولاً برای درخواست نام کاربری، رمز عبور یا رمز یکبار مصرف با شما تماس نمی‌گیرند. اگر اعتقاد دارید که تماس واقعی است، از طریق روشی که خودتان تأیید کرده‌اید با شرکت تماس بگیرید و نه با استفاده از شماره تلفن، آدرس ایمیل یا پرتال آنلاین ارائه‌شده توسط کلاهبردار.

    برای دریافت نکات بیشتر از اف‌بی‌آی، از جملهٔ راهنمایی‌های مربوط به اقدام پس از حملهٔ دست‑به‑دست‌گیری حساب (ATO)، به مرکز شکایت جرایم اینترنتی (Internet Crime Complaint Center) به آدرس ic3.gov/ مراجعه کنید.

    هوش مصنوعی جرم‌ سایبری را شتاب داده است، اما برخی چیزها هرگز تغییر نمی‌کنند: کلاهبردارها اغلب حس اضطراری کاذبی ایجاد می‌کنند — پس لحظه‌ای توقف کنید و فکر کنید — و پیشنهادی که بیش از حد خوب به نظر می‌رسد، احتمالاً تقلب است.

    انجمن پیشگیری از تقلب

    کلاهبردارها در تمام طول سال فعال هستند، اما مصرف‌کنندگان در فصل شلوغ تعطیلات ممکن است بیشتر تحت تأثیر قرار گیرند. AARP Hawai‘i یک نشست تلفنی (town hall) را شنبه صبح برگزار می‌کند تا به مردم در جلوگیری از جدیدترین تقلب‌های تعطیلاتی کمک کند؛ مانا موریارتی، مدیر اجرایی دفتر حمایت از مصرف‌کنندگان هوآی، و جنی یوکیموتو از اتحادیه اعتباری فدرال ایالات متحده هوآی، در خط تماس برای پاسخ به سوالات حضور دارند، طبق یک اطلاعیه خبری. «اگر پیش از این در یک نشست تلفنی AARP شرکت کرده‌اید، در روز 13 دسامبر ساعت 9 صبح یک تماس به تلفن ثابت‌تان می‌رسد تا بپرسد آیا می‌خواهید در تماس شرکت کنید. دیگران می‌توانند با شماره 866‑654‑9490 بدون هزینه تماس بگیرند»، این اطلاعیه می‌گوید. یا می‌توانید در صفحه فیسبوک AARP Hawaii دنبال کنید و سوالات خود را در نظرات بپرسید. این انجمن برای افراد تمامی سنین باز است و نیازی به عضویت در AARP ندارید.

    تشکر

    یک تشکر دیرهنگام به آنجل داگلاس که در یافتن خودرویم در Costco هوآی کای به من کمک کرد. آن روز پارکینگ شلوغ بود و در ناحیه‌ای که معمولاً پارک می‌کنم هیچ جای خالی نیافتم؛ بنابراين به اطراف مناطق دیگر گشتم. وقتی از Costco بیرون آمدم، نتوانستم به یاد بیاورم خودرو را کجا پارک کرده‌ام. با کلید خود سعی کردم صدای خودرو را بشنوم، اما بی‌نتیجه ماند. داگلاس در حال قرار دادن خرید خود در ماشینش بود و از او پرسیدم آیا می‌تواند مرا برای یافتن خودرویم بگرداند. او موافقت کرد و به‌زودی خودرویم را پیدا کردم. من واقعاً از مهربانی او قدر دانی می‌کنم. — گییل ی.

    به Kokua Line در Honolulu Star‑Advertiser، 500 Ala Moana Blvd., Suite 2‑200, Honolulu, HI 96813 بنویسید؛ با شماره 808‑529‑4773 تماس بگیرید؛ یا ایمیل kokualine@staradvertiser.com را بزنید.

  • آمازون خلاصه‌برداری هوش مصنوعی از سریال تلویزیونی فال‌آوت را پس از ارتکاب چندین خطا حذف کرد

    آمازون زن موهای بلند مشکی در وسط یک اتاق شبیه به استیم‌پانک ایستاده است. لوله‌ها و تیرهای فولادی به رنگ‌های زرد و خاکستری مشخص هستند. زن چشمان گسترده دارد و یک پوشاک یک‌پارچه عمیق آبی به تن دارد.
    الا پرنِل نقش لوسی را در نمایش پربازدید آمازون بر پایه سری بازی ویدئویی فال‌آوت ایفا می‌کند

    آمازون ویدئوی خلاصه‌ای که با هوش مصنوعی ساخته شده بود را از سریال موفق خود، فال‌آوت، حذف کرد، پس از اینکه کاربران اعلام کردند این خلاصه چندین حقیقت دربارهٔ این سریال را نادرست بیان کرده است.

    این شرکت در نوامبر گفت که در ایالات متحده ابزار «اولین از نوع خود» را آزمایش می‌کند تا به بینندگان کمک کند برخی از برنامه‌های خود را در سرویس پخش آنلاین Prime Video، از جمله فال‌آوت که اقتباسی از مجموعهٔ محبوب بازی‌های ویدئویی است، دنبال کنند.

    اما از آن زمان این خلاصه از سایت حذف شده است؛ زیرا کاربران اشتباهات موجود در ویدئوی خلاصه‌ساز رویدادهای فصل اول فال‌آوت را برجسته کردند، از جمله ادعای اینکه یک صحنه بیش از صد سال پیش از زمان واقعی تنظیم شده بود.

    شبکه بی‌بی‌سی برای دریافت اظهارنظر از آمازون تماس گرفته است.

    اقدامی که به‌نظر می‌رسد آمازون خلاصه‌های مبتنی بر هوش مصنوعی خود را متوقف کرده است، نخست توسط نشریهٔ فناوری The Verge گزارش شد.

    آمازون در نوامبر اعلام کرد که این خلاصه‌ها به‌عنوان یک ویژگی آزمایشی برای کاربران در دسترس خواهد بود و فقط «برای برخی سریال‌های اصلی انگلیسی‌زبان Prime در ایالات متحده» قابل استفاده است.

    “خلاصه‌های ویدئویی با هوش مصنوعی نکات کلیدی‌ترین بخش‌های داستان را خلاصه می‌کند و یک ویدئوی با کیفیت تئاتری شامل روایت، دیالوگ و موسیقی ارائه می‌دهد”، این شرکت گفت.

    با این حال، طرفداران مشتاق که انتظار انتشار سری جدید فال‌آوت را در تاریخ ۱۷ دسامبر داشتند، خطاهای موجود در خلاصهٔ ویدئویی برای سری اول را برجسته کردند.

    کاربران در Reddit گفتند که کلیپی که گول — یکی از شخصیت‌های مرکزی سری، با بازی والتون گوگینز — را نشان می‌دهد، به‌نادرست در روایت هوش مصنوعی به عنوان یک «یادآوری دههٔ ۱۹۵۰» توصیف شده است.

    اگرچه ظاهر این کلیپ حس نوستالژیک دارد، اما در واقع یک صحنه در سال ۲۰۷۷ را نشان می‌دهد — امری که طرفداران سری به سرعت می‌فهمند.

    طرفداران همچنین بیان کردند که خلاصه به‌درستی صحنه‌ای بین گول و شخصیت اصلی، لوسی مک‌لین که توسط الا پرنِل بازی می‌شود، را خلاصه نکرده و دینامیک آن‌ها را به‌گونه‌ای تغییر داده است که برای بینندگان جدید گیج‌کننده باشد.

    این مورد به فهرست بلندی از خطاهایی می‌پیوندد که هنگام استفاده از ابزارهای هوش مصنوعی تولیدی برای تهیه خلاصه‌های محتوا به وجود می‌آیند.

    در اوایل سال ۲۰۲۵، اپل ویژگی هوش مصنوعی برای خلاصه‌کردن اعلان‌ها را متوقف کرد، پس از آنکه شکایت‌های متعدد دربارهٔ اشتباهات مکرر در خلاصه‌برداری عناوین خبری دریافت کرد.

    شبکه بی‌بی‌سی نیز از جمله گروه‌های شکایت‌کننده از این ویژگی بود، پس از آنکه هشداری که توسط هوش مصنوعی اپل تولید شده بود، به‌نادرست به برخی خوانندگان اطلاع داد که لوئیجی مانژونه—که در ایالات متحده به قتل مدیرعامل UnitedHealthcare برایان تامپسون متهم شده است—خودکشی کرده است.

    «خلاصه‌های هوش مصنوعی» گوگل که هدفشان ارائهٔ خلاصه‌های مختصر از نتایج جستجو است، نیز به دلیل خطاها تحت انتقاد و تمسخر قرار گرفته است.

  • سرمایه‌گذاران نگرانند که مجله تایم صعود بازار سهام هوش مصنوعی را با انتخاب شخص سال ۲۰۲۵ خود نفرین کرده است

    آیا نفرین جلد مجله که به‌این‌صورت شناخته می‌شود، دوباره ظاهر می‌شود؟

    کلاژ دو پوشش مجله TIME با عنوان "شخص سال: معماران هوش مصنوعی". یک جلد گرافیک بزرگ هوش مصنوعی در حال ساخت را نشان می‌دهد. جلد دیگر نه نفر را نشان می‌دهد که بر روی یک تیر بالای شهر نشسته‌اند.
    آیا «نفرین جلد مجله» اکنون برای تجارت هوش مصنوعی می‌آید؟ تصویر: جلدهای جایگزین شماره شخص سال مجله تایم. عکس: مجله تایم

    در حدود یک ماه گذشته، سهام شرکت‌های متمرکز بر رونق هوش مصنوعی، با یک صدای ثابت از ترس، عدم‌اطمینان و تردید مواجه شده‌اند. در روز پنجشنبه، سرمایه‌گذاران مسأله‌ای دیگر برای نگرانی یافتند: احتمال وقوع یک «نفرین جلد مجله».

    پیش از زنگ شروع معاملات در وال‌استریت، مجله تایم انتخاب خود را برای شخص سال اعلام کرد. برای سال ۲۰۲۵، این جایزه را به گروهی از افراد اعطا کرد، همان‌طور که گاهی انجام می‌دهد: «معماران هوش مصنوعی».

    یک تصویر جلد شامل گروهی از مدیران اجرایی کلیدی هوش مصنوعی بود. نامزدهای این افتخار عبارتند از:

    • مارک زاکربرگ، مدیر عامل شرکت Meta Platforms Inc. (META)

    • لیسا سو، مدیر عامل شرکت Advanced Micro Devices Inc. (AMD)

    • ایلون ماسک، بنیان‌گذار xAI، به‌علاوه نقش‌های او در تسلا و SpaceX و سایر حوزه‌ها

    • جنسَن هوانگ، مدیر عامل شرکت Nvidia Corp. (NVDA)

    • سم آلتمن، مدیر عامل OpenAI

    • دیمیس هاسابیس، مدیر عامل DeepMind، زیرمجموعه Alphabet Inc. (GOOG, GOOGL)

    • داریو آمودی، مدیر عامل Anthropic

    • فی‑فی لی از مؤسسه هوش مصنوعی استنفورد

    نیاز به دانستن: بزوس و ماسک هوش مصنوعی را از طریق فضا هدف می‌گیرند. این سهام‌های زمینی می‌توانند سود ببرند.

    زمان انتشار این شماره مناسب نبود. سهام Oracle Corp. (ORCL) در روز پنجشنبه تقریباً ۱۱٪ سقوط کرد، پس از آنکه آخرین گزارش سودی آن، سرمایه‌گذاران را ناامید کرد. سهام سایر شرکت‌های هوش مصنوعی به دلیل همدردی نیز به سمت پایین کشیده شد. تا پایان جلسه پنجشنبه، شاخص ترکیبی فناوری‌محور Nasdaq (COMP) زیر سطوح رکوردی اکتبر باقی مانده بود، پس از یک فروش گسترده ماه گذشته که باعث شد این شاخص پس از هفت ماه پیروزی متوالی، قطع شود.

    ببینید: اوراکل باعث کاهش Nvidia و سایر سهام‌های هوش مصنوعی می‌شود، همان‌طور که ترس از حباب به‌شدت رو به افزایش است.

    در همین حین، شاخص صنعتی بلو‑چیپ Dow (DJIA) و شاخص مرجع بازار سهام S&P 500 (SPX) به بالاترین سطوح بسته شدن تاریخ خود دست یافتند.

    اکنون برخی افراد در حال فکر کردن به این هستند که آیا زمان فروش سهام این شرکت‌های متمرکز بر هوش مصنوعی رسیده است — یا حتی شرط‌بندی علیه آن‌ها. جیم بیانکو، رئیس Bianco Research، دقیقاً این سؤال را در یک پست در شبکه X مطرح کرد و اشاره کرد که «شخص سال» مجله تایم «سابقه‌ای طولانی در بودن به‌عنوان یک شاخص مخالف عالی دارد».

    برنت دونلی، رئیس Spectra Markets، اعداد را تجزیه و تحلیل کرد و دریافت که سابقه «شخص سال» به‌عنوان یک شاخص مخالف در واقع بسیار شگفت‌انگیز است. اگرچه تعداد نمونه‌ها کوچک است، اما برآورد دونلی نشان می‌دهد تا کنون تنها نه مورد (از جمله امسال) وجود داشته که جلد مجله تایم نمایانگر یک فرد، شرکت یا دستهٔ قابل سرمایه‌گذاری باشد — و این نتیجه به‌طور شگفت‌انگیزی مؤثر بوده است.

    بر اساس اطلاعات دونلی، سرمایه‌گذاری‌ها، چه در شرکت‌ها و چه در روندها، که مرتبط با انتخاب «شخص سال» بودند، یک‌سال پس از آن تنها در ۱۳٪ موارد رشد نشان دادند. پس از دو سال این رقم به ۲۵٪ رسید.

    تنها نمونه‌ای که در سال پس از آن دچار فروش نشد، شرکت اینتل (Intel Corp.) بود؛ مؤسس مشترک و سپس رئیس‌جمهور آن، اندی گروو، در سال ۱۹۹۷ به‌عنوان «شخص سال» انتخاب شد. چند سال پس از آن، سهام اینتل (INTC) در زمان فروپاشی حباب دات‑کام به‌شدت سقوط کرد.

    دونلی به MarketWatch گفت: «این قطعاً سؤال‌برانگیز است». «این یک قطعه دیگر از پازل است که نشان می‌دهد تم هوش مصنوعی به‌عنوان دانش عمومی شناخته شده است و به همین دلیل درک این‌که هنوز می‌توان در چیزی مانند موقعیت طولانی در Nvidia، بازده (آلفا) باقی‌مانده داشته باشد، دشوار است».

    او داده‌های خود را با MarketWatch به اشتراک گذاشت و در جدول زیر ارائه کرد:

    عملکرد سرمایه‌گذاری پس از اینکه پوشش شخص سال مجله تایم نمایانگر یک رهبر شرکت یا صنعت خاص باشد
    سال شخص سال شرکت تغییر قیمت سهام (سال پوشش) تغییر قیمت سهام (سال پس از پوشش) تغییر قیمت سهام (۲ سال پس از پوشش)
    1928 Walter Chrysler Chrysler 127.60% -49.20% -58.30%
    1929 Owen D. Young RCA -32.30% -59.10% -81.80%
    1955 Harlow Curtice General Motors Co. GM 41.60% -3.80% -21.10%
    1982 The Computer IBM Corp. IBM, HP , Apple Inc. AAPL, Texas Instruments TXN., Tandy, Commodore 61.50% -4.10% -20.10%
    1991 Ted Turner Turner Broadcasting System Inc. 70.90% -7.60% 17.80%
    1997 Andrew Grove Intel Corp. 7.00% 68.80% 134.40%
    1999 Jeff Bezos Amazon.com Inc. AMZN 35.20% -85.80% -75.20%
    2021 Elon Musk Tesla Inc. TSLA 40.40% -65.00% -29.50%
    2025 معماران هوش مصنوعی Nvidia Corp., Tesla, Meta Platforms Inc., Advanced Micro Devices Inc., Alphabet Inc. ? ? ?
    متوسط 44.00% -25.70% -16.70%
    میانه 40.40% -7.60% -21.10%
    % افزایش 88% 13% 25%
    منبع: Spectra Markets

    اد یاردنی، رئیس Yardeni Research، به MarketWatch گفت که احساس می‌کند «نفرین جلد مجله» می‌تواند دوباره رخ دهد. او اضافه کرد: «قطعا یک نفرین بالقوه است».

    بعداً، یاردنی توضیح داد که چرا احساساتش نسبت به سهام‌های فناوری به‌تازگی تغییر کرده است. او در اوایل این هفته توصیهٔ پرتفوی خود برای وزن‑بالای سهام‌های بخش فناوری و خدمات ارتباطی را پس از پانزده سال حذف کرد. این دو بخش به‌شدت در معرض هوش مصنوعی هستند.

    مدل‌های جدید هوش مصنوعی که گوگل ماه گذشته عرضه کرد، به‌نظر می‌رسد باعث به‌وجود آمدن تقابل در این تجارت شده‌اند؛ به‌طوری که سهام‌های مرتبط با «تیم گوگل» — شامل شرکت مادرش Alphabet و شریک تجاری‌اش Broadcom Inc. (AVGO) — به‌سرعت صعود کردند، در حالی که سهام‌های مرتبط با «تیم OpenAI» با مشکل مواجه شدند. این گروه شامل Nvidia و Microsoft Corp. (MSFT) بود.

    یاردنی در توضیح‌نویسی خود گفت: «تجارت هوش مصنوعی در حال تبدیل شدن به یک «بازی تاج و تخت» است. در گذشته، هفت شگفت‌انگیز هر کدام قلمروهای خود را داشتند که توسط خندق‌های بزرگ احاطه شده بود. هر یک از آن‌ها انحصارهای منحصربه‌فرد خود را داشتند. اما اکنون در مسابقهٔ هوش مصنوعی، با یکدیگر رقابت می‌کنند و یک‌دیگر را تهدید می‌سازند.»

    شاخص پوشش چیست؟

    این شاخص توسط تحلیل‌گر پل مک‌رِی مانتگومری در خبرنامه «Universal Economics» ابداع شد و به‌عنوان «شاخص جلد مجله تایم» — که به‌طور کلی به عنوان «شاخص جلد مجله» نیز شناخته می‌شود — بر این باور است که اگر یک تم سرمایه‌گذاری محبوب به جلد یک نشریه عمومی مثل مجله تایم برسد، احتمال پایان نزدیک است.

    مونتگومری بیش از یک دهه پیش درگذشت و مجلات چاپی سال‌ها برای حفظ مخاطبان خود با مشکل مواجه بوده‌اند. اگرچه دسترسی به نسخه‌های اصلی کار او دشوار است، نتایج او توسط افرادی نظیر باری ریثولت، هم‌بنیان‌گذار Ritholtz Wealth Management، که سال‌ها پیش گفت‌و‌گوهای متعددی با مونتگومری داشته‌اند، حفظ شده است. ریثولت سه معیار که به‌نظر وی برای اعمال این شاخص لازم است را بیان کرد.

    اولاً، این شاخص تنها زمانی کار می‌کند که جلد موردنظر متعلق به یک نشریهٔ عمومی و غیرتجاری باشد. ثانیاً، مفهوم یا تم باید به‌طور گسترده در میان عموم شناخته شده باشد. نهایتاً، باید رشد قابل‌توجهی در قیمت دارایی‌ها رخ داده باشد. حداقل این‌ها قوانین اصلی بودند که توسط مونتگومری تدوین شده بود.

    ریثولت درباره منطق این شاخص این‌گونه گفت: تا زمانی که یک روند سرمایه‌گذاری برای سردبیری یک نشریهٔ عمومی بزرگ مانند مجله تایم اهمیت پیدا می‌کند، اکثر پول‌ها قبلاً به‌دست آمده‌اند.

    دیگران در وال‌استریت این ایدهٔ شاخص جلد مجله را پذیرفته و آن را گسترش داده‌اند. چند سال پیش، دونلی از Spectra مطالعهٔ جامعی از جلدهای مجلات ارائه کرد تا ببینند آن‌ها به‌عنوان سیگنال‌های سرمایه‌گذاری چه عملکردی داشته‌اند. او دریافت که جلدهای مجله «اکانومیست» به‌ویژه شاخص‌های مخالف قدرتمندی هستند.

  • گوگل عمیق‌ترین نماینده تحقیقاتی هوش مصنوعی خود را راه‌اندازی کرد — در همان روزی که اوپن‌ ای‌آی GPT‑5.2 را منتشر کرد

    مدیر عامل گوگل سوندار پیچای
    اعتبار تصویر:جاستین سالیوان / گتی ایمیجز

    گوگل در روز پنجشنبه نسخه‌ای «بازطراحی‌شده» از نماینده تحقیقاتی Gemini Deep Research خود را که بر پایه مدل پایه‌ای پیشرفته و پر سر و صدا Gemini 3 Pro ساخته شده است، منتشر کرد.

    این نماینده جدید تنها برای تولید گزارش‌های تحقیقاتی طراحی نشده است — اگرچه هنوز قادر به انجام این کار است. اکنون به توسعه‌دهندگان امکان می‌دهد تا قابلیت‌های تحقیقاتی مدل SATA گوگل را در برنامه‌های خود ادغام کنند. این قابلیت از طریق API جدید Interthings گوگل فراهم می‌شود که برای دادن کنترل بیشتر به توسعه‌دهندگان در عصر هوش مصنوعی عامل‌محور آینده طراحی شده است.

    ابزار جدید Gemini Deep Research یک نماینده است که توانایی ترکیب انبوهی از اطلاعات و پردازش حجم بزرگی از زمینه (context) را در فرمان (prompt) دارد. گوگل می‌گوید مشتریان از آن برای وظایفی از بررسی دقیق (due diligence) تا تحقیق در زمینه ایمنی سمّیت داروها استفاده می‌کنند.

    گوگل همچنین اعلام کرد که به‌زودی این نماینده تحقیق عمیق جدید را در سرویس‌هایی مانند جستجوی گوگل، گوگل فاینانس، برنامه Gemini و NotebookLM محبوب خود ادغام خواهد کرد. این گامی دیگر به سمت آمادگی برای دنیایی است که در آن انسان‌ها دیگر چیزی را گوگل نمی‌کنند — بلکه نمایندگان هوش مصنوعی آنها این کار را انجام می‌دهند.

    این غول فناوری می‌گوید که Deep Research از وضعیت مدل Gemini 3 Pro به‌عنوان «دقیق‌ترین» مدل خود بهره می‌برد؛ مدلی که برای کاهش توهمات (hallucinations) در وظایف پیچیده آموزش دیده است.

    توهمات هوش مصنوعی — جایی که مدل زبان بزرگ (LLM) به‌صورت خودسرانه اطلاعاتی را اختراع می‌کند — مسأله‌ای به‌ویژه مهم برای وظایف طولانی‌مدت و استدلالی عمیق عامل‌محور است که در آن تصمیمات خودمختار فراوانی در طول دقیقه‌ها، ساعت‌ها یا بیش از آن اتخاذ می‌شود. هر چه تعداد گزینه‌های یک LLM بیشتر باشد، احتمال اینکه حتی یک گزینه توهمی کل خروجی را نامعتبر سازد، بیشتر می‌شود.

    برای اثبات ادعاهای پیشرفت خود، گوگل همچنین معیاری دیگر (گویا دنیای هوش مصنوعی به معیار دیگری نیاز دارد) ایجاد کرده است. این معیار جدید با نام بی‌خلاقیت DeepSearchQA شناخته می‌شود و برای آزمون نمایندگان در وظایف جستجوی اطلاعاتی چندمرحله‌ای و پیچیده طراحی شده است. گوگل این معیار را به‌صورت منبع باز منتشر کرده است.

    همچنین Deep Research را بر روی «آزمون نهایی بشریت» (Humanity’s Last Exam)، یک معیار مستقل با نام جذاب‌تر که شامل مجموعه‌ای از وظایف خاص و نایاب در حوزه دانش عمومی است، و همچنین بر روی BrowserComp، معیاری برای وظایف عامل‌محور مبتنی بر مرورگر، آزمایش کرد.

    همان‌طور که می‌توانید انتظار داشته باشید، نماینده جدید گوگل در معیار خودش و در آزمون نهایی بشریت برتری پیدا کرد. با این حال، ChatGPT 5 Pro شرکت اوپن‌ ای‌آی به‌صورت شگفت‌انگیزی دوم نزدیک شد و در مقایسه با گوگل، در BrowserComp کمی پیشی گرفت.

    اما این مقایسه‌های معیار تقریباً به محض انتشار توسط گوگل منسوخ شدند. چون در همان روز، اوپن‌ ای‌آی نسخه مورد انتظار GPT 5.2 را با نام رمزی «سیر» (Garlic) معرفی کرد. اوپن‌ ای‌آی می‌گوید مدل جدیدشان رقبای خود — به‌ویژه گوگل — را در مجموعه‌ای از معیارهای معمول، از جمله معیار داخلی اوپن‌ ای‌آی، پیشی می‌گیرد.

    شاید جذاب‌ترین بخش این اعلامیه زمان‌بندی آن بود. با دانستن این‌که جهان منتظر عرضه سیر (Garlic) بود، گوگل خبرهای هوش مصنوعی خود را هم‌زمان اعلام کرد.

  • ترامپ فرمان اجرایی امضا می‌کند که ایالت‌ها را از اجرای مقررات خود در زمینه هوش مصنوعی منع می‌کند

    نوشته سامانتا والدنبرگ سامانتا والدنبرگ، هاداس گلد هاداس گلد، کلیر دافی

    رئیس‌جمهور دونالد ترامپ در حال امضای یک فرمان اجرایی درباره هوش مصنوعی در دفتر بیضی در واشنگتن، دی‌سی، در تاریخ ۱۱ دسامبر ۲۰۲۵.
    رئیس‌جمهور دونالد ترامپ در حال امضای یک فرمان اجرایی درباره هوش مصنوعی در دفتر بیضی در واشنگتن، دی‌سی، در تاریخ ۱۱ دسامبر ۲۰۲۵. ال دراگو/رویترز

    دونالد ترامپ روز پنج‌شنبه فرمان اجرایی‌ای را امضا کرد که ایالات را از اجرای مقررات خود در زمینه هوش مصنوعی منع می‌کند و به‌جای آن هدف ایجاد یک «چارچوب ملی واحد» برای هوش مصنوعی را دنبال می‌نماید.

    «این یک فرمان اجرایی است که به بخش‌های مختلف دولت شما دستور می‌دهد تا اقدام قاطعی انجام دهند تا تضمین شود هوش مصنوعی در این کشور می‌تواند در چارچوب ملی واحد فعالیت کند، نه این‌که تحت مقررات ایالتی قرار گیرد که می‌تواند صنعت را به‌طور بالقوه به‌سختی بگیرد»، ویل شارف، دستیار کاخ سفید، درباره این فرمان اجرایی در دفتر بیضی گفت.

    این فرمان می‌تواند تأثیرات گسترده‌ای بر تلاش‌های آمریکا برای تسلط بر این فناوری نوظهور داشته باشد؛ فناوری‌ای که پیش از این بخش مهمی از اقتصاد و بازار بورس شده است، اما هنوز از بسیاری جهات به‌درستی آزمایش نشده است.

    دیوید ساکس، وزیر ارشد رمزارزها و هوش مصنوعی در کاخ سفید، در طول مراسم امضاء گفت که این فرمان اجرایی دولت را وادار می‌کند تا همراه با کنگره یک «چارچوب فدرالی» برای هوش مصنوعی ایجاد کند.

    «در این فاصله، این فرمان اجرایی ابزارهایی به دولت شما می‌دهد تا در برابر سخت‌گیرانه‌ترین و بیش از حد محدودکننده‌ترین مقررات ایالتی مقاومت کند»، ساکس گفت. به‌طور قابل‌توجهی، ساکس تأکید کرد که دولت در مقابل مقررات ایالتی درباره ایمنی کودکان و هوش مصنوعی مقاومت نخواهد کرد. او بعدها در یک پست در شبکه‌های اجتماعی نوشت که این فرمان اجرایی «به این معنی نیست که دولت قصد دارد هر قانون هوش مصنوعی ایالتی را به چالش بکشد».

    کنگره، در ماه ژوئیه، تلاش قبلی جمهوریخواهان برای جلوگیری از تنظیم هوش مصنوعی توسط ایالات را ناکام گذاشت. سنا ایالات متحده به‌طور تقریباً همه‌جانبه رأی داد تا تعلیق ۱۰ ساله‌ای که بر اجرای مقررات هوش مصنوعی ایالتی اعمال شده بود، از لایحه سیاست داخلی جامع ترامپ پیش از تصویب آن حذف شود.

    نمایندگان همچنین افزودن تعلیق درباره هوش مصنوعی به قانون مصوب ملی دفاع را رد کردند، علیرغم پیشنهاد ترامپ برای این کار.

    رهبران در سیلیکون‌والی، مانند سامی آلتمان، مدیرعامل OpenAI، استدلال کرده‌اند که عبور از قطعه‌قطعه‌ای مقررات ایالتی می‌تواند نوآوری را کند کند و رقابت‌پذیری آمریکا در مسابقه جهانی هوش مصنوعی با چین را تحت تأثیر قرار دهد؛ امری که به‌نظر آن‌ها پیوندهای مهمی با اقتصاد و امنیت ملی دارد.

    منتقدان نگرانند که فشار برای کاهش مقررات می‌تواند به شرکت‌های هوش مصنوعی این امکان را بدهد که در صورت آسیب به مصرف‌کنندگان، از مسئولیت‌پذیری فرار کنند.

    هوش مصنوعی در حال حاضر تحت نظارت کلی کمی قرار دارد، در حالی که به حوزه‌های بیشتری از زندگی آمریکایی گسترش می‌یابد — از ارتباطات و روابط شخصی تا مراقبت‌های بهداشتی و پلیس‌داری.

    در غیاب قانون‌گذاری فدرال گسترده، برخی ایالات قوانینی تصویب کرده‌اند تا استفاده‌های پرخطر و زیان‌بار هوش مصنوعی، از جمله ایجاد «دیپ‌فیک»های گمراه‌کننده و تبعیض در استخدام، را مورد رسیدگی قرار دهند.

    اما بحث درباره چگونگی تنظیم هوش مصنوعی باعث ایجاد شکاف‌هایی نه تنها در صنعت، بلکه در داخل جنبش محافظه‌کار و حزب جمهوری‌خواه شده است.

    از یک‌سو، افرادی مثل ساکس و معاون رئیس‌جمهور جی‌دی وانس در دولت حضور دارند که از چارچوب نظارتی سبک‌تری حمایت می‌کنند. از سوی دیگر، شخصیت‌هایی همچون فرماندار فلوریدا رون دسنتیس و استراتژیست پیشین کاخ سفید استیو بانون، که به‌صراحت از حمایت از مقررات ایالتی حمایت می‌نمایند و استدلال می‌کنند این موانع برای فناوری که به‌سرعت در حال پیشرفت است، ضروری هستند.

    برد کارسون، رئیس سازمان آمریکاییان برای نوآوری مسئولانه و یکی از رهبران سوپراستیک حمایت‌گر مقررات هوش مصنوعی Public First، در بیانیه‌ای گفت که این فرمان اجرایی «در دادگاه‌ها به دیوار آجری می‌خورد».

    کارسون افزود که این فرمان «مستقیماً به محافظت‌های تصویب‌شده توسط ایالت‌ها که در طول سال گذشته حمایت عمومی شدیدی برایشان دیده‌ایم، حمله می‌کند، بدون اینکه هیچ جایگزینی در سطح فدرال ارائه شود».

    در مقابل، کولین مک‌کون، رئیس امور دولتی در شرکت سرمایه‌گذاری خطرپذیر Andreessen Horowitz، این فرمان را «گامی بسیار مهم و اساسی» توصیف کرد، اما از کنگره خواست تا خلاهای نظارتی را پر کند.

    «ایالت‌ها نقش مهمی در رفع ضررها و حفاظت از مردم ایفا می‌کنند، اما نمی‌توانند وضوح بلندمدت یا جهت‌گیری ملی که تنها کنگره می‌تواند ارائه دهد، فراهم آورند»، او در پلتفرم X نوشت.