بلاگ

  • پینترست به‌سختی به هوش مصنوعی می‌پردازد. این استراتژی کاربران وفادار آن را از خود دور می‌کند

    نوشته رامیشا ماروف

    نیویورک —

    پینترست زمانی به‌عنوان پناهگاهی در برابر نظرات پرسرعت در تیک‌توک و جدال‌های خویشاوندان دربارهٔ سیاست در فیس‌بوک عمل می‌کرد؛ اکنون پر از محتوای تولیدشده توسط هوش مصنوعی و تبلیغات است.

    گابی جونز / بلومبرگ / گتی ایمیجز

    آبیگل وندلینگ، ۲۳ ساله، از پینترست برای جمع‌آوری همه چیزهای زندگی‌اش استفاده می‌کند؛ از دستورهای آشپزی تا تصویرهای زمینه. این تا زمانی که برای یافتن تصویر زمینه، یک گربهٔ یک‌چشمی را دید. در مثال دیگر، جستجوی دستورات سالم تصویری معماگونه نشان داد که برش‌یک‌تکهٔ مرغ پخته با ادویه‌های پاشیده داخل آن را به نمایش می‌آورد.

    این پست‌ها توسط هوش مصنوعی مولد ساخته شده‌اند که به‌سرعت در حال تسلط بر این پلتفرم متمرکز بر تصاویر است. پینترست، همانند سایر شبکه‌های اجتماعی، از زمان عرضهٔ ابزار تولید ویدئو Sora از ChatGPT در سال ۲۰۲۴ با سیل محتوای ضعیف هوش مصنوعی مواجه شده است. این شرکت اقدامات پیشگیرانه‌ای برای محدود کردن این محتوا برای کاربرانی که نمی‌خواهند، انجام داده است.

    اما حضور هوش مصنوعی مولد، در جامعهٔ خلاق پینترست جرقه‌ای روشن کرده است؛ کاربران به سی‌ان‌ن گفتند که احساس می‌کنند صدا شنیده نمی‌شود، در حالی که مدیران ارشد شرکت به‌طور کامل بر این فناوری نوظهور تمرکز کرده‌اند.

    «این باعث می‌شود که بخواهم گوشی‌ام را بگذارم و کاری دیگر انجام دهم»، گفت وندلینگ که علاوه بر اینستاگرام و تیک‌توک نیز از پینترست استفاده می‌کند. «من می‌گویم پینترست بیشترین عکس‌ها و ویدیوهای تولیدشده توسط هوش مصنوعی را نسبت به سایر برنامه‌های رسانه‌های اجتماعی که در حال حاضر استفاده می‌کنم، دارد… حالا مجبورم همه چیز را با میکروسکوپ دقیق بررسی کنم.»

    پذیرش سرسختانه هوش مصنوعی از اولویت‌های اصلی برای بیل ردی، مدیرعامل پینترست که در سال ۲۰۲۲ شرکت را بر عهده گرفت، بوده است. این رهبر پیشین ویندمو و برین‌تری، پینترست را در آخرین تماس گزارش درآمد این ماه از «پلتفرمی برای نگاه‌داری» به «دستیار خرید بصری مبتنی بر هوش مصنوعی» تبدیل کرده است. و تنها نیست: پینترست به‌همراه گوگل، اوپن‌ای‌آی و آمازون، در تلاش برای بازسازی تجربهٔ خرید آنلاین با هوش مصنوعی می‌پیوندد.

    بیل ردی، مدیرعامل پینترست، در یک رویداد در بورلی هیلز، کالیفرنیا، در تاریخ ۵ می ۲۰۲۵ سخنرانی می‌کند.

    پاتریک تی. فالون / AFP / گتی ایمیجز

    پینترست ۶۰۰ میلیون کاربر فعال ماهانهٔ جهانی داشته است که نیمی از آن‌ها نسل Z هستند و بسیاری از آن‌ها برای الهام‌گیری خرید از این پلتفرم استفاده می‌کنند. درآمد سه‌ماههٔ اخیر این شرکت ۱ میلیارد دلار بوده که نسبت به سال گذشته ۱۷٪ رشد داشته است.

    هوش مصنوعی، فناوری‌ای که درهٔ سیلیکون به‌سرعت برای انطباق و کسب درآمد از آن می‌جنگد، در «قلب تجربهٔ پینترست» قرار دارد، او گفت.

    این به معنای استرس برای کاربران پینترست است که در تلاش برای عبور از محتوای ضعیف هوش مصنوعی، مواجه با تبلیغات بیشتر و دسترسی به محتوای کمتر مورد نظر خود در این پلتفرم هستند، کاربران به سی‌ان‌ن گفتند.

    «من می‌خواهم هنرهایی را ببینم که یک انسان زمان و تلاش خود را صرف خلقشان کرده است، نه تصاویری که توسط کسی که چند کلمه را در یک مولد تصویر وارد کرده، به شکل زباله‌ای بیرون ریخته می‌شود»، آمبر تورمن، کاربر ۴۱ سالهٔ پینترست از ایلی‌نویس، به سی‌ان‌ن گفت.

    پینترست به یک برنامه خرید هوش مصنوعی تبدیل می‌شود

    پینترست زمانی به‌عنوان پناهگاهی برای فرار از نظرات پرسرعت در تیک‌توک، به‌روزرسانی‌های زندگی همکلاسی‌های پیشین در اینستاگرام و مشاجرهٔ خویشاوندان دربارهٔ سیاست در فیس‌بوک عمل می‌کرد.

    بنیان‌گذار بن سیلبرمن در سال ۲۰۱۹ به سی‌ان‌ن گفت که هدف اصلی این پلتفرم الهام‌بخشی به کاربران است. کاربران تخته‌های حسی (Mood Boards) را جمع‌آوری می‌کردند و دستورهای کوکی را سنجاق می‌کردند. خالقان و هنرمندان به این برنامه می‌آمدند تا الهام واقعی برای طراحی پیدا کنند.

    برنامه پینترست در فوریهٔ ۲۰۱۷، پیش از اینکه به‌عنوان پلتفرم خرید بازنامگذاری شود.

    لیز هافالیا / سانفرانسیسکو کرونیکل / گتی ایمیجز

    اما در سال ۲۰۲۵، غول‌های فناوری در حال مسابقه برای بهره‌برداری از فناوری‌ای هستند که برخی آن را به‌قدر تأثیرات تلفن هوشمند یا اینترنت می‌دانند. این شامل یافتن روش‌های نوین برای کسب درآمد نیز می‌شود. به‌عنوان مثال، Meta که از هوش مصنوعی استفاده می‌کند، به‌زودی شروع به استفاده از گفتگوهای کاربران با دستیار هوش مصنوعی خود برای هدف‌گذاری تبلیغات خواهد کرد.

    برای پینترست، آینده‌اش به خرید مبتنی بر هوش مصنوعی وابسته است. الگوریتم این برنامه محصولات را بر پایهٔ جستجوهای کاربران در اپ شناسایی می‌کند.

    در سه‌ماههٔ اخیر، تعداد افرادی که روی لینک‌های تبلیغ‌دهندگان کلیک می‌کردند، نسبت به سال قبل ۴۰٪ رشد داشته و در سه سال گذشته بیش از پنج برابر افزایش یافته است، طبق گزارش‌های مالی. این شرکت با معرفی ویژگی‌های هوش مصنوعی بیشتر، از جمله یک دستیار خرید که کاربران می‌توانند با آن گفتگو کنند و نقش «دوست صمیمی» را ایفا می‌کند، این سرعت را دوچندان می‌کند.

    ناراحتی کاربران

    با این وجود، برخی از کاربران قدیمی، پینترست را به‌عنوان یک تبلیغ خرید نپذیرفته‌اند.

    هیلی کول، کارگردان خلاق ۳۱ ساله‌ای از کالیفرنیا، به‌تازگی برای الهام‌گیری طراحی از رقیب پینترست، Cosmos، استفاده می‌کند. او گفت که هرگز از این پلتفرم خریدی انجام نداده و نگران است که محتوای هوش مصنوعی پینترست ممکن است مالکیت فکری را سرقت کند، همان‌طور که برای خود او اتفاق افتاده است. طبق سیاست پینترست، حساب‌های کاربری که به‌طور مکرر حقوق کپی‌رایت یا مالکیت فکری را نقض می‌کنند، حذف خواهد شد.

    محتوای ضعیف هوش مصنوعی همچنان ادامه دارد

    کاربران مجبورند «همزمان با محتوای ضعیف هوش مصنوعی و فناوری‌های جدید زندگی کنند» که شرکت‌ها در تلاش برای کسب درآمد از این فناوری هستند، خوزه ماریچال، استاد علوم سیاسی در دانشگاه کالج لوتری کالیفرنیا، به سی‌ان‌ن گفت.

    مدیران پینترست قطعاً همان‌طور هستند.

    به‌تدریج، هوش مصنوعی مسیر مشابهی به فتوشاپ خواهد پیمود، بیل ردی گفت. او افزود: «تقریباً هر محتوایی که می‌بینید، حداقل به‌صورت یا به‌نحوئی توسط هوش مصنوعی ویرایش شده است.»

    اما این رویکرد می‌تواند حس اصیل که در ابتدا کاربران را به این پلتفرم جذب می‌کرد، به خطر بیندازد.

    وب‌سایت پینترست در ژوئیهٔ ۲۰۲۳. کاربرانی که در سال ۲۰۲۵ با سی‌ان‌ن صحبت کردند، گفتند دیگر برنامه‌ای که برای آن ثبت‌نام کرده‌اند، نمی‌شناسند.

    گابی جونز / بلومبرگ / گتی ایمیجز

    پست‌های تولیدشده توسط هوش مصنوعی اغلب به وب‌سایت‌های خارجی منجر می‌شوند که از بازاریابی وابسته سود می‌برند، کیسی فیزلر، استادیار علوم اطلاعات در دانشگاه کلرادو بولدر، به سی‌ان‌ن گفت.

    به‌عنوان مثال، یکی از اولین نتایج جستجو برای «دستور کوکی چیپس شکلاتی» در پینترست، به عکسی از دسر منجر شد. این پست به سایتی دیگر که مملو از تبلیغات بود و تصویر یک سرآشپز تولیدشده توسط هوش مصنوعی داشت، لینک می‌داد. خود دستور غذا تقریباً به‌طور کامل با پرس‌و‌جوی ChatGPT برای «بهترین دستور کوکی چیپس شکلاتی دنیا» مطابقت داشت.

    در یک سایت رسانهٔ اجتماعی مبتنی بر الگوریتم، تنها چیزی که کاربران می‌توانند کنترل کنند، تعامل خودشان با محتوای هوش مصنوعی است. حتی گذاشتن یک نظر نفرت‌آمیز یا ارسال آن به‌عنوان شوخی به یک دوست می‌تواند به الگوریتم بگوید که می‌خواهید محتوای بیشتری از این نوع ببینید، فیزلر افزود.

  • Mixup یک برنامه جدید به سبک Mad Libs برای ساخت تصاویر هوش مصنوعی از عکس‌ها، متون و دودل‌هاست

    تیم پیشین گوگل که پشت برنامهٔ طراحی سه‌بعدی Rooms از شرکت Things, Inc. قرار دارد، پروژهٔ جدید خود را معرفی کرد: یک ویرایشگر عکس هوش مصنوعی سرگرم‌کننده به نام Mixup. این برنامهٔ ویژهٔ iOS به هر کسی اجازه می‌دهد تا با استفاده از «دستورالعمل‌ها» که شبیه پرکن‌های خالی به سبک Mad Lib برای عکس‌ها، متون یا طرح‌های شما هستند، عکس‌های جدید هوش مصنوعی‌ساز بسازد.

    به‌عنوان مثال، می‌توانید از Mixup بخواهید تا طرح دست‌نویس خود را به یک نقاشی زیبا از دورهٔ رنسانس تبدیل کند، یا حیوان خانگی‌تان را در یک لباس خنده‌دار هالووین بازآفرینی کند. می‌توانید از یک سلفی استفاده کنید تا ببینید با یک مدل مو متفاوت چگونه خواهید به‌نظر آمد، یا حتی چیزی احمقانه‌تر بسازید — مانند تجسم دوستی که به شکل یک شخصیت ایتالیایی دیوانه درآشته است.

    منبع تصویر:Mixup

    این برنامه بر پایهٔ Nano Banana گوگل ساخته شده است، اما قالب «دستورالعمل» روش جدیدی برای تعامل با مدل فراهم می‌کند — ابزار تولیدی را به یک بازی آنلاین تبدیل می‌کند.

    «چیزی که Nano Banana انجام داد و هیچ مدل قبلی قادر به انجامش نبود این بود که بتواند تصویر شما را به شکلی قانع‌کننده حفظ کند بدون اینکه ترسناک به‌نظر برسد»، جیسون توف، بنیانگذار و مدیرعامل شرکت Things, Inc. که پیشینه‌اش شامل کار بر روی برنامه‌های آزمایشی در شرکت‌های فناوری بزرگ مانند گوگل و متا، و همچنین مدت‌زمانی که در توییتر به مدیریت محصول مشغول بوده، گفت.

    اما آنچه Mixup را به‌ویژه سرگرم‌کننده می‌کند این است که «دستورالعمل‌های» این برنامه — درخواست‌های هوش مصنوعی تولیدشده توسط کاربر — قابل اشتراک‌گذاری هستند.

    منبع تصویر:Mixup

    «هوش مصنوعی مولد بسیار قدرتمند است، اما اکثر اوقات وقتی به این ابزارها مراجعه می‌کنید، فقط یک جعبهٔ متن به شما می‌دهد — از شما می‌خواهد خلاق باشید. پس چه می‌نویسید؟» توف در مورد کاستی‌هایی که تیمش در چشم‌انداز فعلی هوش مصنوعی مشاهده کرده بود، اظهار کرد.

    «به‌این‌سان، به‌جای اینکه مجبور باشید خلاق باشید و به‌دنبال این باشید که چه چیزی بسازید، چیزی که کار می‌کند را می‌بینید و می‌توانید فقط جاهای خالی را پر کنید»، او گفت.

    منبع تصویر:Mixup

    پس از اینکه کاربران یک پرامپت جدید در Mixup ایجاد کردند، می‌توانند آن را همراه با عکسی که به دست آمده در یک فید عمومی منتشر کنند یا فقط برای استفاده شخصی دانلود نمایند. از فید، کاربران دیگر می‌توانند تصویر را مشاهده کرده و دکمهٔ کنار آن را بزنند تا «دستورالعمل را امتحان کنند». این امکان به هر کسی در اپ اجازه می‌دهد تا از همان دستورالعمل برای تولید تصویر با استفاده از عکس، متن یا دودل‌های خود استفاده کند. (دودل‌ها می‌توانند با یک ویژگی سادهٔ رسم داخل برنامه ساخته شوند.)

    دیدن یک عکس در کنار دستورالعملی که آن را ایجاد کرده، می‌تواند به‌نظر تیم، به رفع طبیعت غیرقابل پیش‌بینی تصاویر هوش مصنوعی مولد کمک کند.

    «مشکل دیگری که در هوش مصنوعی مولد وجود دارد، همان مسأله‌ای است که ما به‌صورت داخلی «دستگاه اسلات» می‌نامیم؛ یعنی وقتی دکمه را می‌زنید، چیزی بیرون می‌آید، دوباره فشار می‌دهید، چیز دیگری بیرون می‌آید، و حس می‌کنید که کنترلی بر خروجی ندارید»، توف توضیح داد.

    منبع تصویر:Mixup

    اما در Mixup، کاربران می‌توانند هم تصویر و هم پرامپتی که آن را ایجاد کرده در یک مکان ببینند، که به آن‌ها ایده‌ای از ظاهر خروجی می‌دهد. همچنین می‌توانند دکمه‌ای را فعال کنند تا تصویر قبل و بعد را مشاهده کنند، به شرطی که سازنده این تنظیم را فعال کرده باشد.

    علاوه بر این، مشابه برنامهٔ ویدئویی هوش مصنوعی OpenAI به نام Sora، کاربران می‌توانند عکس‌های خود را به Mixup بارگذاری کنند تا در تصاویر هوش مصنوعی خود استفاده کنند. اگر این کار را انجام دهید، هر شخصی که در برنامه دنبال‌اش می‌کنید می‌تواند با چهرهٔ شما تصاویر هوش مصنوعی بسازد — ویژگی‌ای که «mixables» نامیده می‌شود.

    شرکت تصور می‌کند که گروه‌های دوستان برای بهره‌برداری از این ویژگی یکدیگر را دنبال کنند، اما ممکن است یک دستهٔ سازندگان نیز در این پلتفرم شکل بگیرد — به‌شرط آن‌که مخالف ترکیب شدن خودشان به‌طرز عجیبی نباشند. (البته، اگر نمی‌خواهید تصویر خود را در دسترس دیگران بگذارید، یا عکس را آپلود نکنید یا کسی را دنبال نکنید.)

    منبع تصویر:Mixup

    این برنامه همچنین از فناوری OpenAI برای رسیدگی به برخی از نگرانی‌های پیش‌بینی‌شده در مورد نظارت بر تصاویر هوش مصنوعی استفاده می‌کند، اما توف اعتراف می‌کند که Mixup به‌طور قابل‌توجهی بر کنترل‌های داخلی گوگل در مدل تصویر خود برای محدود کردن محتوای جنسی یا خشونت متکی است.

    در زمان عرضه، Mixup برای iOS 26 بهینه‌سازی شده است، اما از iOS 18 به بالا پشتیبانی می‌کند. اگر موفق شود، نسخهٔ وب یا برنامهٔ اندروید می‌تواند در آینده اضافه شود.

    کاربران رایگان ۱۰۰ امتیاز دریافت می‌کنند که معادل ۴ دلار است. در عین حال، هزینهٔ تولید هر تصویر تقریباً ۴ سنت است. وقتی امتیازها تمام شوند، کاربران می‌توانند به سطوح مختلف اشتراک‌گذاری که ۱۰۰، ۲۵۰ یا ۵۰۰ امتیاز در ماه ارائه می‌دهد، مشترک شوند.

    برنامه در ساعت نیمه‌شب ۲۱ نوامبر در فروشگاه App Store به‌صورت جهانی عرضه می‌شود، اما برای دسترسی به آن به دعوتنامه نیاز است. خوانندگان TechCrunch می‌توانند از کد TCHCRH (تا زمانی که موجود باشد) برای ورود استفاده کنند. Mixup برای پیش‌سفارش قبل از عرضه در دسترس است.

    این پست پس از انتشار بروز شد تا اعلام کند که برنامه در ۲۱ نوامبر، نه ۲۰ نوامبر همان‌طور که پیش‌تر گفته شد، عرضه می‌شود.

  • «ما می‌توانستیم از ChatGPT سؤال می‌کردیم»: دانشجویان علیه دوره‌ای که توسط هوش مصنوعی تدریس می‌شود، ایستادگی می‌کنند

    دانشجویان استافوردشای می‌گویند نشانه‌ها نشان می‌دهند که مواد دوره با هوش مصنوعی تولید شده‌اند؛ شامل نام‌های فایل مشکوک و لهجه نامنطبق صداپیشگی.

    Aisha Down

    دانشجویان دانشگاه استافوردشای اعلام کرده‌اند که حس «سرقت دانش و لذت» می‌کنند، پس از اینکه دوره‌ای که امیدوار بودند مسیر حرفه‌های دیجیتالشان را باز کند، عمدتاً توسط هوش مصنوعی تدریس شد.

    جیمز و اوون از میان ۴۱ دانشجویی بودند که در سال گذشته ماژول برنامه‌نویسی استافوردشای را گذراندند، به امید تغییر مسیر شغلی از طریق برنامه کارآموزی دولتی که برای تبدیلشان به متخصصان امنیت سایبری یا مهندسان نرم‌افزار طراحی شده بود.

    اما پس از یک ترم که اسلایدهای تولید شده توسط هوش مصنوعی توسط صدای مصنوعی خوانده می‌شدند، جیمز گفت که دیگر به برنامه و مسئولین آن اعتماد ندارند و نگران است که «دو سال از زندگی‌اش را صرف دوره‌ای کرده باشد که به «ارزان‌ترین شکل ممکن» انجام شده بود.»

    «اگر کارهای تولید شده توسط هوش مصنوعی را تحویل می‌دادیم، از دانشگاه اخراج می‌شدیم، اما الآن توسط هوش مصنوعی آموزش می‌بینیم»، جیمز در هنگام برخورد با استاد خود که در اکتبر ۲۰۲۴ ضبط شد، گفت.

    جیمز و سایر دانشجویان چندین بار با مسئولان دانشگاه درباره مطالب تولید شده توسط هوش مصنوعی مواجه شدند. اما به نظر می‌رسد دانشگاه همچنان از این مطالب برای آموزش دوره استفاده می‌کند. امسال، دانشگاه بیانیه‌ای سیاستی را در وب‌سایت دوره بارگذاری کرد که به‌نظر می‌رسد استفاده از هوش مصنوعی را توجیه می‌کند و «چارچوبی برای متخصصان علمی جهت بهره‌گیری از خودکارسازی هوش مصنوعی» در کارهای علمی و آموزش ارائه می‌دهد.

    سیاست‌های عمومی دانشگاه استفاده دانشجویان از هوش مصنوعی را محدود می‌کند؛ به‌طوری که دانشجویانی که کارهای خود را به هوش مصنوعی واگذار می‌کنند یا آثار تولید شده توسط هوش مصنوعی را به‌عنوان کار خود ادعا می‌کنند، نقض سیاست صداقت دانشگاهی محسوب می‌شوند و ممکن است برای تخلف علمی به چالش کشیده شوند.

    «من در میانهٔ زندگی و حرفه‌ام قرار دارم»، جیمز گفت. «حس نمی‌کنم می‌توانم راحتاً رها شوم و دوباره مسیر شغلی جدیدی را انتخاب کنم. در این دوره گیر کرده‌ام.»

    امیدوار شدن در مورد استافوردشای نشان می‌دهد که به‌تدریج تعداد بیشتری از دانشگاه‌ها از ابزارهای هوش مصنوعی برای تدریس دانشجویان، تولید محتوای دوره و ارائه بازخوردهای شخصی‌سازی‌شده استفاده می‌کنند. یک سند سیاستی از اداره آموزش که در ماه اوت منتشر شد، این تحول را ستود و گفت که هوش مصنوعی مولد «توانایی تحول در آموزش را دارد». یک نظرسنجی سال گذشته (PDF) از ۳۲۸۷ نفر از کارکنان آموزشی آموزش عالی توسط شرکت فناوری آموزشی Jisc نشان داد که نزدیک به یک‌سوم آن‌ها از ابزارهای هوش مصنوعی در تدریس خود بهره می‌برند.

    برای دانشجویان، آموزش با هوش مصنوعی به‌نظر می‌رسد که کمتر تحول‌زا است و بیشتر باعث ناامیدی می‌شود. در ایالات متحده، دانشجویان نظرات منفی آنلاین درباره استادانی که از هوش مصنوعی استفاده می‌کنند می‌گذارند. در بریتانیا، دانشجویان مقطع کارشناسی در ردیت به شکایت از اساتید خود می‌پردازند که بازخوردها را از ChatGPT کپی‑پست می‌کنند یا از تصاویر تولید شده توسط هوش مصنوعی در دوره‌ها استفاده می‌کنند.

    «من فشارهایی که بر اساتید وارد می‌شود و ممکن است آن‌ها را وادار به استفاده از هوش مصنوعی کند می‌فهمم، اما این حس ناامیدکننده‌ای است»، یک دانشجو نوشت.

    جیمز و اوون گفتند که تقریباً بلافاصله سال گذشته استفاده از هوش مصنوعی را در دوره استافوردشای متوجه شدند؛ زمانی که در اولین کلاس، استاد یک ارائهٔ پاورپوینت را اجرا کرد که در آن نسخه‌ای از صدای مصنوعی خود برای خواندن اسلایدها گنجانده شده بود.

    به‌زودی پس از آن، آنها متوجه نشانه‌های دیگری شدند که برخی از محتوای دوره توسط هوش مصنوعی تولید شده بود؛ از جمله ویرایش ناهمگون انگلیسی آمریکایی به انگلیسی بریتانیایی، نام‌های فایل مشکوک، و همچنین «اطلاعات سطحی و کلی» که گاه به‌طرز غیرقابل توضیح به قوانین ایالات متحده اشاره می‌کرد.

    نشانه‌های محتوی تولید شده توسط هوش مصنوعی در امسال نیز ادامه یافت. در یکی از ویدئوهای دوره که در وب‌سایت بارگذاری شده بود، صدای ضبطی که محتوا را ارائه می‌داد، ناگهان برای حدود ۳۰ ثانیه به لهجهٔ اسپانیایی تبدیل شد و سپس به لهجهٔ بریتانیایی بازگشت.

    گاردین مطالب دوره استافوردشای را بررسی کرد و از دو ابزار تشخیص هوش مصنوعی متفاوت – Winston AI و Originality AI – برای اسکن محتوای دورهٔ امسال استفاده کرد. هر دو ابزار دریافتند که تعدادی از تکالیف و ارائه‌ها «احتمال بسیار بالایی برای تولید توسط هوش مصنوعی» داشته‌اند.

    در اوایل دوره، جیمز گفت که نگرانی‌های خود را در یک جلسهٔ ماهانه به نمایندهٔ دانشجویی منتقل کرد. سپس، در اواخر نوامبر، این نگرانی‌ها را در یک سخنرانی که به‌عنوان بخشی از مطالب دوره ضبط شده بود، مطرح کرد. در ضبط، او از استاد می‌خواهد که دیگر به اسلایدها توجه نکند.

    «می‌دانم این اسلایدها توسط هوش مصنوعی تولید شده‌اند، می‌دانم که همهٔ حاضرین در این جلسه این را می‌دانند، ترجیح می‌دهم این اسلایدها را حذف کنید»، او می‌گوید. «نمی‌خواهم توسط GPT آموزش ببینم.»

    به‌زودی پس از آن، نمایندهٔ دانشجویی در دوره مداخله کرد و گفت: «ما این موضوع را به شما اطلاع دادیم، جیمز، و پاسخ این بود که به معلمان اجازه استفاده از انواع ابزارها داده می‌شود. ما از این پاسخ بسیار ناامید شدیم.»

    دانشجوی دیگری می‌گوید: «در ارائه مواردی مفید وجود دارد، اما فقط حدود ۵٪ نکات مفید دارد و بیشتر تکرار است. در ته این قاب مقداری طلا وجود دارد، اما به‌نظر می‌رسد می‌توانیم این طلا را خودمان با سؤال از ChatGPT به‌دست آوریم.»

    استاد با ناراحتی می‌خندد. «قدردان صداقت مردم هستم …» او می‌گوید و سپس موضوع را به یک آموزش دیگری که با استفاده از ChatGPT تهیه کرده منتقل می‌کند. «راستش این کار را در کوتاه‌مدت انجام دادم»، می‌گوید.

    در نهایت، سرپرست دوره به جیمز اطلاع داد که دو استاد انسانی محتوا را در جلسهٔ نهایی مرور خواهند کرد، «تا تجربه‌ای از هوش مصنوعی نداشته باشید».

    در پاسخ به پرسشی از طرف گاردین، دانشگاه استافوردشای اعلام کرد که «استانداردهای علمی و نتایج یادگیری در این دوره حفظ شده‌اند».

    او گفت: «دانشگاه استافوردشای استفادهٔ مسئولانه و اخلاقی از فناوری‌های دیجیتال را مطابق با رهنمودهای خود حمایت می‌کند. ابزارهای هوش مصنوعی می‌توانند در برخی مراحل آماده‌سازی کمک کنند، اما جای تخصص علمی را نمی‌گیرند و باید همواره به‌طوری استفاده شوند که صداقت علمی و استانداردهای حوزه را حفظ کند.»

    در حالی که دانشگاه برای درس آخر دوره یک استاد غیر هوش مصنوعی دعوت کرد, جیمز و اوون گفتند این تصمیم بسیار کم و دیرهنگام است, به‌ویژه چون به‌نظر می‌رسد دانشگاه همچنان در محتوای تدریس سال جاری از هوش مصنوعی استفاده کرده است.

    «احساس می‌کنم بخشی از زندگی‌ام به سرقت رفته است»، جیمز گفت.

    اوون که در میانهٔ تغییر شغلی قرار دارد, گفت که این دوره را برای به‌دست آوردن دانش بنیادین انتخاب کرده بود, نه صرفاً برای دریافت مدرک – و احساس می‌کند این یک هدررفت زمان بوده است.

    «نشستن در کنار این مطالب که به‌طور کامل برای هیچ‌کس ارزش وقت را ندارد, در حالی که می‌توانستید آن زمان را صرف مشارکت واقعی با موضوعی ارزشمند کنید, واقعاً ناامیدکننده است», او گفت.

  • متخصص بازاریابی که Khosla Ventures را به یک نیروی پیشرو در حوزه هوش مصنوعی تبدیل کرده بود، در حال حرکت به مسیر جدیدی است

    شرناز داور قد کوتاهی دارد اما تأثیرش عظیم است. در طول سه دهه حضور خود در سیلیکون‌ولی، او هنر برقراری تماس با هر کسی را تنها با یک پیام کوتاه مثل «می‌توانید با من تماس بگیرید؟» یا «فردا صحبت کنیم» به‌دست آورده است و افراد واقعا تماس می‌گیرند.

    اکنون که شرناز داور در آستانه ترک Khosla Ventures (KV) پس از نزدیک به پنج سال خدمت به عنوان اولین CMO این شرکت است، می‌تواند مؤشری برای مسیر پیشرفت دنیای فناوری باشد. مسیر حرفه‌ای او تا به امروز یک‌بار‌سنجی بی‌نظیر برای بزرگ‌ترین نوآوری‌های صنعت بوده است. او در زمان «جنگ‌های جستجو» در اواخر دههٔ نود میلادی در Inktomi حضور داشت (شرکت dot.com آن زمان به ارزشی برابر با ۳۷ میلیارد دلار رسید و سپس سقوط کرد). وقتی مردم به ایدهٔ سفارش دی‌وی‌دی به‌صورت آنلاین می‌خندیدند، او به Netflix پیوست. او به Walmart کمک کرد تا در حوزه فناوری با Amazon رقابت کند. او با Guardant Health همکاری کرد تا قبل از اینکه Theranos تست‌های خونی را به بدنامی کشاند، بیوپسی مایع را توضیح دهد. حتی یک بار توسط استیو جابز به دلیل بازاریابی میکروپروساور Motorola سرزنش شد (که می‌تواند خود داستان کوتاهی باشد).

    Vinod Khosla، بنیان‌گذار KV، دربارهٔ کارش با داور این‌گونه می‌گوید: «شرناز تأثیر شدیدی بر KV داشته؛ او به من در ساختن برند KV کمک کرده و شریک ارزشمندی برای مؤسسان ما بوده است. من از زمان حضور او در اینجا سپاسگزارم و می‌دانم که ارتباط‌مان نزدیک خواهد ماند.»

    از او دربارهٔ دلیل ترک شرکت سؤال شد، داور با بیانی مستقیم پاسخ داد: «من برای انجام یک کار آمده‌ام؛ کار من ساختن برند KV و ساختن برند وینود بود، و همچنین راه‌اندازی یک سازمان بازاریابی به‌گونه‌ای که شرکت‌ها و پرتفوی‌های ما برایشان یک مرجع داشته باشند. و من تمام این‌ها را انجام داده‌ام.»

    بدون شک وقتی مؤسسان به سراغ سرمایه‌گذاران برتر هوش مصنوعی می‌روند، دو یا سه شرکت سرمایه‌گذاری در ذهنشان می‌درخشد و یکی از این شرکت‌ها KV است. این تحول چشمگیر برای شرکتی است که برای مدتی بیشتر به دلیل دعوای حقوقی وینود خوسلا دربارهٔ دسترسی به ساحل شناخته می‌شد تا سرمایه‌گذاری‌های او.

    اثر داور

    داور می‌گوید موفقیت او در KV به این دلیل است که جوهرهٔ شرکت را کشف کرده و به‌طور بی‌وقفه به‌کار گرفته است. او توضیح می‌دهد: «در پایان، یک شرکت سرمایه‌گذاری (VC) محصولی ندارد. بر خلاف هر شرکت دیگر — مثلاً Stripe، Rippling یا OpenAI — شما محصولی دارید. VCها محصول ندارند. بنابراین در پایان، شرکت VC در واقع افراد آن هستند؛ آن‌ها خود محصول هستند.»

    KV پیش از ورود او خود را به‌عنوان «جسور، پیشگام و تاثیرگذار» معرفی کرده بود. اما او می‌گوید این سه واژه را «به‌طور گسترده در سرتاسر جای داد». سپس شرکت‌هایی را یافت که هر یک از این ادعاها را تأیید می‌کردند.

    پیشرفت با واژهٔ میانی «پیشگام» به‌دست آمد. او می‌پرسد: «تعریف پیشگام بودن چیست؟» «یا شما یک دسته‌بندی جدید می‌سازید یا اولین سرمایه‌گذار هستید.» وقتی OpenAI در سال ۲۰۲۲ ChatGPT را عرضه کرد، داور از سام آلتمن پرسید آیا می‌توان دربارهٔ این که KV اولین سرمایه‌گذار VC بود صحبت کرد. او تأیید کرد.

    او می‌گوید: «اگر بتوانید روایت اولین سرمایه‌گذار را در اختیار بگیرید، بسیار کمک می‌کند، زیرا گاهی در VC برای رخ دادن هر نوع رویداد نقدینگی ۱۲ یا ۱۵ سال طول می‌کشد و سپس مردم فراموش می‌کنند. اگر از همان ابتدا این روایت را بگویید، مردم آن را به یاد می‌سپارند.»

    او این فرمول را بارها تکرار کرد. KV اولین سرمایه‌گذار شرکت Square بود. همچنین اولین سرمایه‌گذار DoorDash. او می‌گوید برای تثبیت این پیام پشت‌صحنه دو سال و نیم تلاش مستمر لازم بود. «از نظر من این سریع است، چرا که صنعت به‌سرعت در حال حرکت است.» اکنون وقتی وینود خوسلا در صحنه یا مکان دیگری ظاهر می‌شود، تقریباً به‌طور یکسان به‌عنوان اولین سرمایه‌گذار OpenAI توصیف می‌شود.

    این ما را به شاید مهم‌ترین درس داور برای افرادی که با آن‌ها کار می‌کند می‌رساند: برای انتقال پیام‌تان، باید خود را بیش از حد راحت‌تان تکرار کنید.

    او به مؤسسينی که از خسته شدن از بازگو کردن یک داستان یکسان شکایت می‌کنند می‌گوید: «شما در مایل ۲۳ هستید، در حالی که بقیه جهان در مایل ۵ هستند.» «باید همیشه خود را تکرار کنید و همان را بگویید.»

    این کار از آنچه به نظر می‌رسد سخت‌تر است، به‌ویژه زمانی که با افراد مشغول به عملیات روزمره که همیشه حس مهم بودن بیشتری دارند، مواجه می‌شوید. او توضیح می‌دهد: «مؤسسان تمایل دارند بسیار مشتاق باشند و به‌سرعت پیش بروند تا در ذهنشان هم‌اکنون به‌سراغ نکتهٔ بعدی بروند. اما بقیهٔ جهان هنوز اینجا هستند.»

    داور همچنین از هر شرکتی که با آن کار می‌کند می‌خواهد تا کاری که او «تمرین مساوی‌ها» می‌نامد، انجام دهد. او یک علامت مساوی می‌کشد و سپس روشنی هدف آن‌ها را می‌سنجاند. او می‌گوید: «اگر بگویم «جستجو»، شما می‌گویید «گوگل». اگر بگویم «خرید»، شما می‌گویید «آمازون». اگر بگویم «خمیر دندانی»، احتمالاً می‌گویید «کریست» یا «کلگت».» او به مشتریان خود می‌گوید: «چیزی که وقتی من آن را می‌گویم، بلافاصله نام شرکت شما به ذهنتان می‌آید چیست؟»

    او به‌نظر می‌رسد با برخی از شرکت‌های موجود در پرتفوی KV، نظیر Commonwealth Fusion Systems (ادغام هسته‌ای) و Replit (کدنویسی با احساس)، موفق بوده است. او توضیح می‌دهد: «این‌طور است که هر واژه‌ای که کسی می‌گوید، بلافاصله به ذهن‌تان شرکت مرتبط می‌آید. برای مثال، در حوزه پخش زنده، اولین چیزی که به ذهن می‌رسد Netflix است، نه Disney یا Hulu.»

    چرا رفتن مستقیم مؤثر نیست

    برخی از مشاوران استارتاپ، حداقل در شبکه‌های اجتماعی، در سال‌های اخیر از عبور استارتاپ‌ها از رسانه‌های سنتی و «مستقیم رفتن» به مشتریان حمایت کرده‌اند. داور این رویکرد را معکوس می‌داند، به‌ویژه برای شرکت‌های مرحلهٔ اولیه.

    او می‌گوید: «شما یک سرمایه‌گذاری بذر دارید، کسی از شما خبر ندارید، و سپس می‌گویید «مستقیم برو». خب، چه کسی حتی شما را می‌شنود؟ چون آن‌ها حتی نمی‌دانند شما وجود دارید.» او این را به نقل مکان به محلهٔ جدید تشبیه می‌کند: «آنان به مهمانی باربیکیو محله دعوت نشده‌اید چون کسی شما را نمی‌شناسد.» به‌نظر او، راه برای وجود داشتن این است که شخصی دربارهٔ شما صحبت کند.

    داور به‌نظر نمی‌رسد رسانه به‌زودی از بین برود — و او هم نمی‌خواهد چنین باشد. رویکرد او شامل ترکیب رسانه‌های سنتی با ویدئو، پادکست‌ها، شبکه‌های اجتماعی و رویدادهاست. او می‌گوید: «هر یک از این استراتژی‌ها را به‌عنوان پیاده‌نظام، سواره‌نظام می‌بینم؛ و اگر بتوانید به‌خوبی همه‌ی این‌ها را مدیریت کنید، می‌توانید به‌صورت یک گوریلا عمل کنید.»

    داور همچنین ایده‌های قوی‌ای دربارهٔ طبیعت فزایندهٔ قطبی و نمایشی رسانه‌های اجتماعی دارد و دربارهٔ میزان اطلاعاتی که مؤسسان و سرمایه‌گذاران باید به‌صورت عمومی به اشتراک بگذارند.

    او X را «یک وسیله‌ای می‌داند که مردم را صداتر و بحث‌انگیزتر می‌کند نسبت به حضور حضوری آن‌ها» می‌داند. او می‌گوید: این شبیه یک برچسب جلوی خودرو است؛ یک نظر جسور که می‌توانید در فضای کوچک جای دهید.

    او بر این باور است که پست‌های تحریک‌آمیز عمدتاً به‌دلیل نیاز به بروز ماندن است. او می‌گوید: «اگر چیزی برای فروش ندارید و فقط خودتان هستید، باید بروز باشید.»

    در KV، او حساب شرکت را کنترل می‌کند، اما بر محتوای پست‌های شخصی خوسلا در حساب شخصی‌اش تسلطی ندارد. داور می‌گوید: «باید بخشی وجود داشته باشد که آزادی بیان باشد.» و «در پایان، این اسم او است که روی در می‌نشیند.»

    با این حال، سیاست او ساده است: «می‌خواهید دربارهٔ مسابقه فوتبال فرزندانتان یا PTA بگویید؟ بله، این کار را انجام دهید. اگر چیزی به‌اشتراک بگذارید که به شرکت آسیب بزند یا شانس ما برای جذب شریک‌ها را کاهش دهد، این کار قابل قبول نیست. به‌شرطی که محتوای آن توهین‌آمیز نباشد، می‌توانید هر کاری که می‌خواهید انجام دهید.»

    راه به خوسلا

    مسیر شغلی داور یک کلاس برتر در بودن در زمان و مکان مناسب، درست پیش از تبدیل شدن به جای واضح برای حضور است. او در استنفورد به دنیا آمد (پدرش دانشجوی دکترا در آنجا بود)، در هند بزرگ شد و با بورسیه Pell به استنفورد بازگشت. برای تحصیل در فناوری‌های تعاملی به هاروارد رفت، به‌امید کار در Sesame Street و ارائه آموزش به عموم.

    این به‌نتیجه نرسید: او ۱۰۰ رزومه فرستاد و ۱۰۰ رد دریافت کرد. نزدیک‌ترین فرصت کاری‌اش در Electronic Arts (EA) تحت رهبری بنیانگذار CEO، تریپ هاوکینز بود؛ اما «در آخرین لحظه، هاوکینز این پیشنهاد را کنار گذاشت».

    یک خانم در آنجا به داور پیشنهاد داد که به‌جای آن به روابط عمومی (PR) بپردازد. این باعث شد تا به بازاریابی نیمه‌هادی‌ها وارد شود، از جمله ملاقات به یادماندنی‌اش با استیو جابز که آن زمان شرکت کامپیوتری خود، NeXT را اداره می‌کرد. داور در جلسه‌ای دربارهٔ چیپ Motorola 68040 کم‌رتبه‌ترین حضور داشت. جابز ۴۵ دقیقه دیر رسید و گفت: «شما کار بازاریابی 68040 را به‌طرز فظیعة‌ای انجام دادید.»

    او از تیم خود دفاع کرد («اما ما تمام این کارهای عالی را انجام دادیم»، داور به یاد می‌آورد، گفت) و جابز پاسخ داد: «نه، شما نمی‌دانید چه کاری انجام داده‌اید». و هیچ‌کس از او دفاع نکرد. (او می‌گوید که هر کاری می‌کرد تا با جابز کار کند، علیرغم شهرت او به‌عنوان سخت‌گیر.)

    از آنجا، او به Sun Microsystems در پاریس رفت، جایی که با اسکات مک‌نیلی و اریک اشمیتد بر روی سیستم‌عامل Solaris و زبان برنامه‌نویسی جاوا کار کرد. سپس به شرکت دوم ویدئویی تریپ هاوکینز، 3DO، برگشت؛ سپس به Inktomi رفت، جایی که اولین و تنها CMO آن بود. او می‌گوید: «ما در حوزه جستجو جلوتر از گوگل بودیم.» به زودی پس از آن، حباب اینترنت منفجر شد و در طول چند سال Inktomi به‌صورت قطعات به فروش رسید.

    سپس مشاغل مشاوره‌ای و تمام‌وقت دنبال آمد، از جمله در Netflix در دوران دی‌وی‌دی از طریق پست؛ Walmart، Khan Academy، Guardant Health، Udacity، 10x Genomics، GV و Kitty Hawk.

    سپس تماس تلفنی از خوسلا رسید. او شماره را نمی‌شناخت و یک هفته زمان صرف کرد تا پیام صوتی را گوش دهد. او می‌گوید: «به او زنگ زدم و این باعث شد تا او سعی کند من را متقاعد کند که با او کار کنم، و من تمام دلایلی را که کار مشترک برای‌مان بسیار بد خواهد بود، به او بگویم.»

    پس از نه ماه، او می‌گوید: «بر خلاف توصیهٔ اکثر افراد که نگویم این کار را انجام دهم» (خوسلا به‌عنوان کسی که سخت‌گیر است شناخته می‌شود)، «بسیار مشابه بقیهٔ زندگی‌ام، من این کار را قبول کردم.»

    حقیقت واقعی

    او به‌گذشتن به گذشته نگاه نمی‌کند. برعکس، داور یک چالش را که در سراسر سیلیکون‌ولی (اما نه با خوسلا) مواجه است توصیف می‌کند: همه صدای یکسانی دارند. او می‌گوید: «همه این‌قدر اسکریپت‌ساز شده‌اند؛ همه یک‌صدا هستند. به همین دلیل برای بسیاری، سام (آلتمن) بسیار تازه و نوآورانه به‌نظر می‌رسد.»

    او قصه‌ای از روزی که ماه گذشته وینود در TechCrunch Disrupt ظاهر شد و سپس به رویداد دیگری رفت تعریف می‌کند. برگزارکننده گفت: «واو، من شنیدم وینود در صحنه چه گفت. حتماً تو خجالت کشیدی.» او پاسخ داد: «نه، آنچه او گفت فوق‌العاده بود.»

    پس داور بعد چه کاری خواهد کرد؟ او نمی‌گوید، آینده‌اش را تنها به‌عنوان «فرصت‌های مختلف» توصیف می‌کند. اما با توجه به سوابق او — همیشه پیش از اوج موج حاضر می‌شود — این موضوع شایان توجه است. او زود به جستجو، زود به پخش زنده، زود به ژنومیک و زود به هوش مصنوعی قدم گذاشت. او ذوقی برای پیش‌بینی آینده درست پیش از دیگران دارد.

    و او می‌داند چگونه این داستان را بگوید تا بقیه ما بتوانیم به‌دست او برسیم.

  • بارگذاری محتوا از منبع با شکست مواجه شد.

  • آیا حیوانات و هوش مصنوعی آگاهی دارند؟ ما نظریه‌های جدیدی برای چگونگی آزمون این موضوع ارائه کردیم

    نمای نزدیک سر یک حشره.
    Merlin Lightpainting/Pexels

    ممکن است فکر کنید که زنبور عسل که در باغ شما برای غذا می‌گردد و پنجره مرورگری که ChatGPT را اجرا می‌کند، هیچ ارتباطی با هم ندارند. اما پژوهش‌های علمی اخیر به‌طور جدی به امکان آگاهی هر یک یا هر دو از آن‌ها پرداخته‌اند.

    راه‌های متعددی برای مطالعه آگاهی وجود دارد. یکی از رایج‌ترین روش‌ها این است که رفتار یک حیوان – یا هوش مصنوعی (AI) – را اندازه‌گیری کنیم.

    اما دو مقالهٔ جدید دربارهٔ احتمال آگاهی در حیوانات و هوش مصنوعی نظریه‌های نوینی برای آزمون این موضوع پیشنهاد می‌کنند – نظریه‌ای که میان جذاب‌گرایی و تردیدهای سرسری دربارهٔ این‌که آیا انسان‌ها تنها موجودات آگاه روی زمین هستند، قرار می‌گیرد.

    مناقشات شدید

    سوالات پیرامون آگاهی از دیرباز مناظرهٔ شدیدی را برانگیخته‌اند.

    این تا حدی به این دلیل است که موجودات آگاه ممکن است از نظر اخلاقی اهمیت داشته باشند، در حالی که موجودات غیرآگاهی این ویژگی را ندارند. گسترش حوزهٔ آگاهی به معنای گسترش افق‌های اخلاقی ماست. حتی اگر نتوانیم مطمئن شویم شیئی آگاه است، می‌توانیم با احتیاط پیش‌بینی کنیم که آگاه است – همان‌طور که فیلسوف جوناتان بیرچ «اصل پیشگیرانه برای حس‌انگیزی» می‌نامد.

    روند اخیر، تمایل به گسترش بوده است.

    به‌عنوان مثال، در آوریل ۲۰۲۴، گروهی متشکل از ۴۰ دانشمند در کنفرانسی در نیویورک پیشنهاد «اعلامیهٔ نیویورک دربارهٔ آگاهی حیوانات» را دادند. این اعلامیه که بعدها توسط بیش از ۵۰۰ دانشمند و فیلسوف امضا شد، می‌گوید آگاهی به‌صورت واقع‌گرایانه در تمام مهره‌داران (شامل خزندگان، دوزیستان و ماهیان) و همچنین بسیاری از بی‌مهرگان، از جمله اختاپوس‌ها و ماهی‌های مرکب، سخت‌پوستان (خرچنگ‌ها و لابسترها) و حشرات، ممکن است.

    همزمان با این مسأله، رشد شگفت‌انگیز مدل‌های زبانی بزرگ، مانند ChatGPT، امکان جدی آگاهی در ماشین‌ها را به‌وجود آورده است.

    پنج سال پیش، آزمونی به‌ظاهر غیرقابل‌شکست برای تشخیص آگاهی این بود که ببینیم آیا می‌توانیم با آن مکالمه کنیم یا نه. فیلسوف سوزان شنايدر مطرح کرد که اگر هوش مصنوعی‌ای داشته باشیم که به‌طور قانع‌کننده‌ای دربارهٔ متافیزیک آگاهی تأمل کند، احتمالاً آگاه است.

    با این معیارها، امروز ما در میان ماشین‌های آگاه زندگی می‌کنیم. بسیاری حتی تا حدی پیش رفته‌اند که همان «اصل پیشگیرانه» را در اینجا به‌کار برند: حوزهٔ رو به رشد رفاه هوش مصنوعی به بررسی زمان و شرایطی می‌پردازد که ما باید به ماشین‌ها اهمیت بدهیم.

    با این حال، تمام این استدلال‌ها تا حد زیادی بر رفتار سطحی تکیه دارند. اما این رفتار می‌تواند فریب‌دهد. چیزی که برای آگاهی مهم است، آنچه انجام می‌دهید نیست، بلکه چگونگی انجام آن است.

    نگاهی به سازوکار هوش مصنوعی

    مقالهٔ جدیدی در مجله Trends in Cognitive Sciences که یکی از ما (کلین کولین) به‌همراهی دیگران نوشت، بر پایهٔ کارهای پیشین، به‌جای رفتار هوش مصنوعی، به سازوکار آن می‌نگرد.

    همچنین این مقاله از سنت علوم شناختی بهره می‌گیرد تا فهرستی قابل‌قبول از نشانگرهای آگاهی را بر پایهٔ ساختار پردازش اطلاعات شناسایی کند. این به این معناست که می‌توان فهرستی مفید از نشانگرهای آگاهی تدوین کرد بدون این که بر سر این که کدام یک از نظریه‌های فعلی علوم شناختی دربارهٔ آگاهی صحیح است، توافق داشته باشید.

    برخی از نشانگرها (مانند نیاز به حل تداخل‌های میان اهداف متنافس به‌صورت متناسب با زمینه) توسط بسیاری از نظریه‌ها به‌اشتراک گذاشته شده‌اند. اکثر دیگر نشانگرها (مانند وجود بازخورد اطلاعاتی) فقط در یک نظریه الزامی هستند، اما در دیگر نظریه‌ها نیز نشانگر محسوب می‌شوند.

    نکته مهم این است که نشانگرهای مفید، به‌صورت ساختاری‌اند. همه آن‌ها به چگونگی پردازش و ترکیب اطلاعات توسط مغزها و کامپیوترها مرتبط می‌شوند.

    نتیجه‌گیری چیست؟ هیچ سیستم هوش مصنوعی موجود (از جمله ChatGPT) آگاه نیست. ظاهر شدن آگاهی در مدل‌های زبانی بزرگ به‌گونه‌ای نیست که به اندازهٔ کافی شباهت به ما داشته باشد تا بتوان به آن حالات آگاهانه نسبت داد.

    با این وجود، هم‌زمان هیچ مانعی برای این نیست که سیستم‌های هوش مصنوعی – شاید آنهایی با ساختار کاملاً متفاوت از سیستم‌های امروزی – به آگاهی دست یابند.

    درس چیست؟ ممکن است هوش مصنوعی طوری رفتار کند گویا آگاه است بدون اینکه واقعاً آگاه باشد.

    اندازه‌گیری آگاهی در حشرات

    زیست‌شناسان نیز به مکانیزم‌ها – نحوه کارکرد مغزها – روی می‌آورند تا آگاهی را در جانوران غیرانسانی تشخیص دهند.

    در مقالهٔ جدیدی در Philosophical Transactions B، ما یک مدل عصبی برای آگاهی حداقلی در حشرات پیشنهاد می‌کنیم. این مدل جزئیات تشریحی را کنار می‌گذارد تا بر محاسبات اصلی انجام‌شده توسط مغزهای ساده متمرکز شود.

    بینش اصلی ما شناسایی نوع محاسبه‌ای است که مغزهای ما انجام می‌دهند و منجر به تجربه می‌شود.

    این محاسبه مشکلات کهن از تاریخ تکاملی ما را حل می‌کند که ناشی از داشتن بدنی متحرک و پیچیده با حواس متعدد و نیازهای متضاد است.

    نکته مهم این است که ما خود محاسبه را شناسایی نکرده‌ایم – هنوز کار علمی در این زمینه باقی مانده است. اما نشان می‌دهیم اگر می‌توانید آن را شناسایی کنید، یک سطح برابر برای مقایسهٔ انسان‌ها، بی‌مهرگان و کامپیوترها خواهید داشت.

    همان درس

    مسئلهٔ آگاهی در حیوانات و در کامپیوترها به‌نظر می‌رسد در جهات متفاوتی کشیده می‌شود.

    در مورد حیوانات، سؤال معمولاً این است که چگونه تفسیر کنیم آیا رفتار مبهم (مانند خرچنگی که جراحات خود را تمیز می‌کند) نشانگر آگاهی است یا خیر.

    در مورد کامپیوترها، باید تصمیم بگیریم آیا رفتار ظاهراً واضح (چت‌باتی که با شما در مورد هدف وجود گفتگو می‌کند) نشانگر واقعی آگاهی است یا صرفاً نقش‌آفرینی.

    اما همان‌طور که حوزه‌های عصب‌شناسی و هوش مصنوعی پیشرفت می‌کنند، هر دو به همان درس می‌رسند: هنگام قضاوت دربارهٔ اینکه آیا موجودی آگاه است یا نه، چگونگی عملکرد آن بیش از آنچه انجام می‌دهد، اطلاعات بیشتری ارائه می‌دهد.

  • آینده سئو محتوا نیست؛ حاکمیت است

    GEO دربارهٔ راه‌حل‌های کوتاه‌مدت نیست؛ بلکه مربوط به این است که آیا رهبران سئو می‌توانند پیش از دیگران، انتولوژی و سازگاری را در تمام سازمان هدایت کنند.

    هر چند سال یک بار سئو مخفف براق جدیدی می‌گیرد: جستجوی صوتی، AMP، E‑A‑T. هر کدام وعدهٔ بازنویسی قوانین را دادند و در نهایت به گورستان مجموعه‌ای از آزمایش‌ها و نقشه‌های راه نیمه‌پخته پیوستند.

    می‌دانم، چون خودم در این مسیر قدم گذاشتم. به‌مدت یک سال و نیم خود را در مارکاپ اسکیما غوطه‌ور کرده بودم—گراف‌های دانش سطح صفحه می‌ساختم، نهادها را به‌هم متصل می‌کردم، روابط را نقشه‌برداری می‌کردم تا تمام سایت‌ها به‌مانند تارهای معنایی درآیند. این کار دقیق، ظریف و حتی به‌نوع خود زیبا بود. اما هیچ‌چیزی حاصل نشد. نه به این دلیل که کار فنی بی‌اهمیت باشد—سئو ذاتاً فنی است. مشکل در سازمان این است که گوگل یک جعبهٔ سیاه است. می‌توانید ماه‌ها روی داده‌های ساختاری سرمایه‌گذاری کنید و هنوز شواهدی از تأثیر ندارید. و وقتی تلاش فنی به نتایجی که کسب‌وکار می‌تواند تشخیص دهد نمی‌رسد، رهبری بدون ما پیش می‌رود.

    این همان شکاف است: رهبران سئو باید به‌جای تنها اجرای فنی، بر اهداف استراتژیک اولویت‌گذاری و همراستا شوند.

    GEO محدودیت‌های سئو را آشکار می‌کند

    اکنون صنعت با همان شور و شوق به بهینه‌سازی موتور مولد (Generative Engine Optimization یا GEO) می‌پردازد. استفاده از اسکیماهای صحیح. بازفرمت‌کردن محتوا به بخش‌های کوچکتر. بهینه‌سازی برای ارجاع‌ها در مرورهای هوش مصنوعی. برخی حتی انتشار «پرسش‌وپاسخ‌های سازگار با LLM» یا بازنویسی محتوا برای تقلید خروجی‌های مولد را پیشنهاد می‌دهند. تماماً همان قالبی است که در زمان قطعه‌های برجسته، جستجوی صوتی و AMP به‌کار رفته بود: سریع عمل کنید، مشاوره را بسته‌بندی کنید، توهم کنترل را به‌فروش برسانید.

    اما واقعیت این است: این تاکتیک‌ها در مقیاس سازمانی قابل اجرا نیستند. آن‌ها در صدها بازار، هزاران صفحه یا گسترش بی‌نظم محتوای جهانی محصول ثابت نمی‌مانند. و این تاکتیک‌ها به مدیران اجرایی نمی‌رسند. هیچ مدیر بازاریابی (CMO) اهمیتی نمی‌دهد که شما در یک مرور هوش مصنوعی ارجاع داده شده‌اید وقتی تقاضای برند در حال کاهش است. و هیچ مدیر عامل (CEO) ارزشی در سئو نمی‌بیند چون شما محتوا را به بخش‌های معنایی بازفرمت کرده‌اید. آنچه برای آن‌ها مهم است این است که آیا بازاریابی به بلوغ مسیر فروش و پوشش کافی دست می‌یابد و آیا عملکرد شما به‌طور واضح به این هدف کمک می‌کند یا نه.

    موتورهای مولد نه تنها کلیک‌ها را کاهش می‌دهند، بلکه کشف چندباره‌ای را که در ده‌ها وب‌سایت انجام می‌شد، به یک پاسخ واحد فشرده می‌کنند. این خبر بدی برای سازمان‌ها است: این کار زمینه‌ای را که شما کنترل می‌کنید از بین می‌برد، فرصت‌های شما برای تأثیر بر درک مخاطب را کاهش می‌دهد و برند شما را مجبور می‌کند تا برای نمایان شدن در پاسخی که خودتان مالک آن نیستید، بجنگد.

    سرنگ (فَنِل) یک افسانه است

    سال‌ها بازاریابان B2B با مراحلی منظم مانند TOFU، MOFU و BOFU خود را آرام کرده‌اند، گویی خریداران به‌صورت پیش‌بینی‌پذیر از آگاهی به ملاحظات و سپس تصمیم‌گیری می‌پیمایند. این مراحل به تیم‌ها چیزی برای اندازه‌گیری، برچسب‌گذاری محتوا و گزارش به‌سقف مدیریت فراهم می‌کرد. اما این همیشه یک افسانه بود — داستانی راحت برای ایجاد احساس کنترل.

    در واقع، افراد به‌صورت مرحله‌ای خرید نمی‌کنند. آن‌ها زمانی خرید می‌کنند که آمادگی دارند و از هر قطعه محتوایی که حس درک شدن را به آن‌ها می‌دهد، استفاده می‌کنند. گاهی این یک مقالهٔ رهبری فکری است، گاهی یک مطالعهٔ موردی، گاهی یک نظر پراکنده در لینکدین. بیشتر مخاطبان شما ۹۵٪ زمان در خارج از بازارند و وقتی به ۵٪ آمادگی می‌رسند، به‌صورت مودبانه از مسیر فروش شما عبور نمی‌کنند؛ آن‌ها به دنبال شخصی می‌گردند که قبلاً سهم ذهنی دربارهٔ مشکلی که می‌خواهند حل کنند، در اختیار دارد.

    کشف اکنون با LLMها آغاز می‌شود

    به همین دلیل GEO مهم است. موتورهای مولد در حال تبدیل شدن به اولین نقطهٔ تماس در کشف هستند، چگونگی چارچوب‌بندی مسائل و راه‌حل‌ها را سال‌ها پیش از این که خریدار به وب‌سایت شما برسد، شکل می‌دهند. خریداران حاضر در بازار هنوز برای احراز اعتبار فروشندگان یا مقایسه جزئیات به گوگل اعتماد می‌کنند، اما تا آن زمان فهرست کوتاه معمولاً قبلاً شکل گرفته است. اگر برند شما به‌صورت مداوم در LLMها در مراحل ابتدایی حضور نداشته باشد، احتمالاً هرگز به آخرین تماس نخواهد رسید. این یک مشکل اندازه‌گیری نیست؛ این یک مشکل برند است.

    استراتژی GEO که نیاز دارید

    پس رهبران سئو در سازمان‌ها دقیقاً چه کاری باید انجام دهند؟ می‌توانید با اولویت‌بندی سه مورد در استراتژی GEO خود، کنترل را به دست بگیرید:

    حاکمیت را درست تنظیم کنید

    ابتدا، حاکمیت را ارزیابی کنید، نه رتبه‌بندی‌ها:

    • کجا نام‌های محصولات در مناطق مختلف ناسازگار هستند؟
    • کجا نهادها به‌هم متصل نیستند یا حتی با یکدیگر رقابت می‌کنند؟
    • کجا برند نتوانسته است مشکل اصلی خود را به‌گونه‌ای واضح بیان کند که یک LLM بتواند آن را در یک پاسخ منسجم ترکیب کند؟ 

    اگر این پاسخ‌ها را ندارید، استراتژی GEO ندارید.

    روی معیارهایی که مهم‌اند تمرکز کنید

    دوم، آنچه را می‌سنجید تغییر دهید:

    • گزارش‌دادن در مورد کلیک‌ها و نمایش‌ها را متوقف کنید.
    • گزارش‌دادن در مورد سیگنال‌های تقاضا، پوشش حساب‌های حضور در بازار و سهم ذهنی نسبت به مشکلات اصلی که شرکت شما حل می‌کند، را آغاز کنید.
    • GEO را به‌زبان بلوغ مسیر فروش و قدرت برند، نه نمایان بودن در نتایج جستجو (SERP)، بیان کنید.

    برخی رهبران فکر می‌کنند راه‌حل این است که بر محتوا تمرکز بیشتری بگذارند — بیشتر منتشر کنند، ویراستاران را استخدام کنند و برای سیگنال‌های اعتبار در چشم گوگل و LLMها دنبال کنند. این غریزه نادرست نیست، اما ناقص است.

    فقط محتوا شما را نجات نمی‌دهد اگر دانش سازمانی‌تان تکه‌تکه، ناسازگار یا برای سیستم‌های مولد نامرئی باشد.

    شناخت از انتشار حجم محتوا به‌دست نمی‌آید. بلکه از این ناشی می‌شود که آیا دانش سازمان‌تان به‌قدر کافی ساختاربندی شده باشد تا یک LLM بتواند با اطمینان آن را بازیابی و دوباره استفاده کند. این یک چالش تحریری نیست؛ این یک چالش حاکمیتی است.

    معمار دانش شوید

    سوم، نقش معمار دانش را بر عهده بگیرید. این برای بسیاری از رهبران سئو که حرفه‌شان را بر پایهٔ کلیدواژه‌ها، رتبه‌ها و تولید محتوا ساخته‌اند، ناخوشایند است — به‌گونه‌ای که سئو را به‌عنوان یک موتور انتشاری می‌دانند که بر مبنای بازدیدهای صفحه اندازه‌گیری می‌شود. مارکاپ اسکیما پیش از این محدودیت‌های این رویکرد را به‌ما نشان داد: گراف‌های دانش سطح صفحه هرگز کافی نبودند.

    معمار دانش بودن به معنای تزریق JSON‑LD به قالب‌ها نیست. این به معنای هدایت سازمان به سمت یک انتولوژی مشترک است — سیستمی از نهادها، روابط و استانداردها که دانش شرکت را سازگار، متصل و قابل بازیابی می‌کند. ممکن است انتولوژی را به‌صورت کامل در اختیار نداشته باشید، اما اغلب تنها رهبری هستید که می‌داند وب چگونه کار می‌کند، LLMها به چه زمینه‌ای نیاز دارند و داده‌های نامنظم چگونه قابلیت دیده‌شدن را مختل می‌کنند.

    نقش شما این است که سازمان را به سمت نظم هدایت کنید، نه به‌دلیل به‌دست آوردن ارجاع‌ها، بلکه به‌چون این‌که دانش شرکت را به‌انداز قابل اعتماد و قابل استفاده برای سیستم‌های مولد تبدیل می‌کند. اگر شما این نقش را نپذیرید، دیگران آن را بر عهده می‌گیرند. و وقتی این اتفاق می‌افتد، دیگر سئو نامیده نخواهد شد.

    تمام تیم خود را در این مسیر همراه کنید

    در نهایت، از بالا تا پایین آموزش دهید:

    • تیم شما باید درک کند که «بخش‌بندی» محتوا یا دنبال‌کردن ارجاع‌ها کارهای شلوغی هستند، نه استراتژی.
    • مدیران اجرایی شما باید درک کنند که GEO یک‌باره مد نیست، بلکه یک تغییر ساختاری در چگونگی جذب تقاضا و ساختن مسیر فروش است.

    اگر این نکات را به‌هم پیوندید، سئو را در بالاترین سطوح مرتبط نگه می‌دارید. در غیر این صورت، خطر اینکه سئو به‌یک عملکرد اجرایی تبدیل شود که رهبری به‌سختی به آن توجه می‌کند، وجود دارد.

    GEO یک آزمون فشار است

    GEO یک گلولهٔ جادویی نیست و آیندهٔ سئو نیست. این یک آزمون فشار است — آزمونی که نشان می‌دهد آیا رهبران آماده‌اند که فراتر از کلیدواژه‌ها و کارخانه‌های محتوا پیشرفت کنند و به چیزی بزرگ‌تر تبدیل شوند.

    GEO همچنین فرصتی است. اگر سئو را به‌عنوان یک فروشگاه ترافیک ببینید، تأثیر شما با هر پرس‌وجوی مولد کمتر خواهد شد. به نقش معمار برای چگونگی ساختاردهی، اتصال و قابل رؤیت شدن دانش شرکت در سیستم‌هایی که خود مدیران اجرایی به آن‌ها وابسته‌اند، بپردازید و ارتباط‌تان فقط رشد خواهد کرد.

    حقیقت ناخوشایند این است: سئو به‌دلیل گوگل یا به‌دلیل LLMها از بین نخواهد رفت. اما رهبری سئو کم‌اهمیت می‌شود اگر رهبرانش نتوانند تکامل یابند. و هنگامی که این اتفاق می‌افتد، سئو نام تجاری دیگری نخواهد شد؛ بلکه به‌سادگی جایگزین خواهد شد.

  • چگونه بفهمیم روتر اسوس شما یکی از هزاران روتر است که توسط هکرهای دولتی چین هک شده‌اند

    تا به حال، هکرها در حال سکوت هستند و به‌نظر می‌رسد این دوره برای استفاده‌های بعدی است.

    پورت‌های اترنت روی یک روتر اسوس.
    پورت‌های اترنت روی یک روتر اسوس.

    اعتبار: اولی کورتیس/مجله MacFormat/Future از طریق Getty Images

    هزاران روتر اسوس هک شده‌اند و تحت کنترل یک گروه مشکوک دولتی چینی قرار دارند؛ این گروه هنوز نیت‌های خود را برای این نفوذ گسترده فاش نکرده است، پژوهشگران گفتند.

    این حملات هکری یا عمدتاً یا کاملاً به هفت مدل از روترهای اسوس هدف می‌گذارند که همه آن‌ها دیگر توسط سازنده پشتیبانی نمی‌شوند؛ به‌عبارت دیگر دیگر به‌روزرسانی‌های امنیتی دریافت نمی‌کنند، پژوهشگران SecurityScorecard اعلام کردند. تا به‌حال، مشخص نیست پس از به‌دست‌گیری دستگاه‌ها، مهاجمان چه می‌کنند. SecurityScorecard این عملیات را با نام WrtHug نامگذاری کرده است.

    پنهان ماندن از رادار

    SecurityScorecard اظهار کرد که معتقد است دستگاه‌های به‌دست‌آمده همانند دستگاه‌های یافت‌شده در شبکه‌های ORB (جعبه رله عملیاتی) به‌کار گرفته می‌شوند، که هکرها عمدتاً برای انجام جاسوسی و مخفی کردن هویت خود از آن استفاده می‌کنند.

    «دسترسی به این سطح می‌تواند به عامل تهدید اجازه دهد تا هر روتر به‌دست‌آمده‌ای را به‌دلخواه خود به‌کار گیرد»، SecurityScorecard گفت. «تجربه ما با شبکه‌های ORB نشان می‌دهد که دستگاه‌های به‌دست‌آمده معمولاً برای عملیات مخفی و جاسوسی به کار می‌روند، نه برای حملات DDoS و سایر انواع فعالیت‌های مخرب آشکار که معمولاً از بات‌نت‌ها مشاهده می‌شود.»

    روترهای به‌دست‌آمده عمدتاً در تایوان متمرکز هستند؛ خوشه‌های کوچکتری در کره جنوبی، ژاپن، هنگ‌کنگ، روسیه، اروپای مرکزی و ایالات متحده مشاهده می‌شود.

    نقشه حرارتی دستگاه‌های آلوده.

    دولت چین سال‌هاست که در ساخت شبکه‌های عظیم ORB گرفتار شده است. در سال 2021، دولت فرانسه به‌سازمان‌ها و شرکت‌های ملی هشدار داد که APT31 — یکی از فعال‌ترین گروه‌های تهدید چین — پشت یک کمپین حمله عظیم قرار داشته که از روترهای هک‌شده برای پیش‌آگاهی استفاده می‌کرد. سال گذشته، حداقل سه کمپین مشابه که توسط چین اجرا شده بودند، روشن شد.

    هکرهای دولتی روسیه نیز مشابه این کار را انجام داده‌اند، هرچند کمتر. در سال 2018، عاملان کرملین بیش از 500 000 روتر کوچک اداری و خانگی را با یک بدافزار پیشرفته به نام VPNFilter آلوده کردند. یک گروه دولتی روسی نیز به‌صورت مستقل در عملیاتی که در یکی از هک‌های روتر 2024 بالا آورده شده بود، مشارکت داشت.

    روترهای مصرفی مکان مناسب و مخفی برای هکرها هستند. این دستگاه‌های ارزان‌قیمت اغلب نسخه‌های لینوکسی را اجرا می‌کنند که به‌نوبه خود می‌توانند بدافزاری را میزبانی کنند که در پس‌زمینه کار می‌کند. سپس هکرها به این روترها وارد می‌شوند تا فعالیت‌های مخرب را انجام دهند. به‌جای اینکه این ارتباطات از زیرساخت‌ها و آی‌پی‌های شناخته‌شده به‌عنوان مخرب ناشی شوند، این اتصال‌ها از دستگاه‌های بی‌خطر ظاهر می‌شوند که از آدرس‌هایی با اعتبار قابل اعتماد می‌آیند؛ برای این‌کار اجازه عبور از دفاع‌های امنیتی را می‌یابند.

    در فرآیند نفوذ WrtHug، دستگاه‌ها یک کادر گفت‌وگو بر روی دستگاه‌های متصل باز می‌کنند که کاربران را برای نصب یک گواهینامه TLS خودامضا راهنمایی می‌کند. روترهای اسوس، همانند بسیاری از سایر سازندگان، به‌طور پیش‌فرض کاربر را ملزم می‌کنند تا چنین گواهینامه‌هایی را بپذیرند تا ارتباطات بین کاربر و دستگاه هنگام استفاده از رابط مدیریتی وب رمزگذاری شود. از آنجا که کاربران عادت دارند این درخواست‌ها را تأیید کنند، به‌ندرت به مشکلی شک می‌کنند. گواهینامه‌های خودامضا با مشخصات TLS همخوانی ندارند چرا که کاربران آن‌ها را نمی‌توان بررسی کرد و پس از شناسایی به‌عنوان مخرب راهی برای لغو گواهینامه‌ها وجود ندارد.

    کمپین WrtHug از قابلیت‌های ارائه‌شده توسط AICloud، سرویس اختصاصی اسوس که به کاربران امکان می‌دهد از طریق اینترنت به فایل‌های ذخیره‌شده بر روی دستگاه‌های محلی دسترسی پیدا کنند، استفاده می‌کند.

    تا کنون، پژوهشگران SecurityScorecard هیچ رفتار پس‌اکسپلویت از روترهای آلوده‌ای مشاهده نکرده‌اند. مارتی کریم، مهندس جمع‌آوری سیگنال‌ها در SecurityScorecard، در یک مصاحبه گفت:

    ما هنوز هیچ باری‌گذاری مخرب توسط عامل تهدید که این دستگاه‌ها را به خطر بیندازد، مشاهده نکرده‌ایم؛ هرچند دسترسی ما برای مشاهده این مسئله محدود است، زیرا نیاز به به‌دست آوردن یک دستگاه به‌دست‌آمده و مطالعه مستقیم آن دارد. مواردی گزارش شده است که باینری‌های موقت برای اعمال تغییرات در سطح کرنل رها شده‌اند و سپس پس از ریستارت خودشان را پاک می‌کردند، به‌طوری‌که تنها پیکربندی‌های لازم تغییر یافته باقی می‌ماند. همچنین ممکن است عامل هیچ باری‌گذاری نداشته باشد و فقط از آسیب‌پذیری‌ها برای ایجاد تغییرات مستقیم در سیستم‌عامل استفاده کرده باشد (این‌گونه تغییرات با آسیب‌پذیری‌هایی که در این کمپین مشاهده کرده‌ایم، امکان‌پذیر هستند). به‌طور کلی، هنوز زود است تا زنجیره دقیق عفونت که منجر به نتایج نهایی می‌شود یا نتایج پس از بهره‌برداری را تعیین کنیم؛ آنچه ما مشاهده کردیم دسترسی سطح بالا است که امکان تعویض گواهینامه و سایر امتیازات مدیریتی را فراهم می‌کند. اگر اجازه بدهید نکته‌ای دیگر بگویم، دستیابی به دسترسی مدیریتی دستگاه در همان سطح مالک آن «یک امر بسیار مهم» است و نباید با سادگی گرفته شود، زیرا همین هدف اکثر عاملان تهدید در اکثر کمپین‌های نفوذ هستند.

    آیا من آلوده هستم؟

    مدل‌های روتر اسوس که SecurityScorecard می‌داند هدف هستند عبارتند از:

    • روتر بی‌سیم اسوس 4G‑AC55U
    • روتر بی‌سیم اسوس 4G‑AC860U
    • روتر بی‌سیم اسوس DSL‑AC68U
    • روتر بی‌سیم اسوس GT‑AC5300
    • روتر بی‌سیم اسوس GT‑AX11000
    • روتر بی‌سیم اسوس RT‑AC1200HP
    • روتر بی‌سیم اسوس RT‑AC1300GPLUS
    • روتر بی‌سیم اسوس RT‑AC1300UHP

    ساده‌ترین روش برای تشخیص اینکه آیا روتر به‌دست‌آمده است یا نه، بررسی گواهینامه خودامضا است؛ می‌توانید با پیروی از دستورالعمل‌های موجود در اینجا این کار را انجام دهید. گواهینامه‌ای که مهاجمان به کار می‌برند، دارای تاریخ انقضای 2122 است؛ بازه زمانی طولانی که گواهینامه‌های معتبر هرگز ندارند. هم صادرکننده و هم صاحب گواهینامه در فهرست، CN=a,OU=a,O=a,L=a,ST=a,C=aa را نشان می‌دهند.

    گواهینامه خودامضا نصب شده.

    گزارش SecurityScorecard شاخص‌های دیگری را نیز فهرست می‌کند که کاربر می‌تواند برای شناسایی نشانه‌های دیگر نفوذ بررسی کند.

    افرادی که از روترهای منقضی‌شده و سایر دستگاه‌های اینترنت اشیا استفاده می‌کنند، باید به‌طور جدی تعویض آن‌ها را با دستگاه‌هایی که به‌روزرسانی‌های امنیتی منظم دریافت می‌کنند، در نظر بگیرند. غیرفعال‌سازی AICloud، قابلیت‌های مدیر راه‌دور، SSH، UPnP، فوروارد پورت و سایر سرویس‌های غیرضروری نیز یک پیشگیری مناسب است، حتی برای کاربران سایر مدل‌های روتر.

  • همان‌طور که هوش مصنوعی در عرصه هنر گام می‌نهد، انسانی بودن نقطه فروش است

    تصویری از نشانگرهایی که ایستال را سرنگون کرده‌اند و رنگ در تمام زمین پخش شده است.
    تصویر: Aïda Amer/Axios

    تسلط هوش مصنوعی بر فیلم‌ها، موسیقی، نقاشی — و حتی مجسمه‌سازی — باعث بروز مقاومت جدیدی در برابر فناوری در هنر شده و بر ارزش کارهای صرفاً انسانی تأکید می‌کند.

    چرا مهم است: هنر از دیرباز به‌عنوان فعالیتی منحصربه‌فرد انسانی شناخته می‌شود؛ بنابراین پیشرفت هوش مصنوعی در این حوزه به‌ویژه ناآرام‌کننده است.

    “احساس می‌شود که اضطراب وجودی در هوای لس‌آنجلس پخش شده است،” می‌گوید چارلی فینک، تهیه‌کننده‌ قدیمی هالیوود و استاد دانشگاه چپمان در اورنج کانتی، کالیفرنیا.

    • “هوش مصنوعی در حال آمدن است و هیچ‌کس نمی‌داند چگونه. اگر به چیزی که توسط هوش مصنوعی ساخته شده نگاه کنید و فکر کنید: «خب، این یک فیلم است»، اضطراب‌آور می‌شود.”

    نمونه‌ای از این: “براتالیست” — که در ژانویه برای ۱۰ اسکار نامزد شد و برنده جایزه بهترین بازیگر برای آدریان برودی شد — از هوش مصنوعی مولد برای واقعی‌تر کردن لهجه‌های مجارستانی بازیگران استفاده کرد.

    • فیلم‌های دیگر نامزد، از جمله «امیلیا پرز» و «دونی: قسمت دوم»، نیز از هوش مصنوعی بهره برده‌اند، همان‌طور که نیویورک تایمز اشاره می‌کند.
    • پربازدیدترین آهنگ کانتری در آمریکا به‌تنهایی توسط هوش مصنوعی نوشته و اجرا شده است.
    • هوش مصنوعی برای تولید نقاشی‌ها و مجسمه‌ها به کار گرفته می‌شود و برخی از آن‌ها برای هزاران دلار به فروش می‌رسند، گزارش بی‌بی‌سی.

    چک واقعیت: فناوری‌های نوین همیشه برای خلق هنر به کار رفته‌اند، از دوربین‌ها که عکاسی را به‌وجود آوردند تا CGI (تصاویر تولید شده توسط کامپیوتر) که موجودات و ابرقهرمان‌ها را به زندگی می‌آورد.

    • بسیاری از هنرمندان هوش مصنوعی را ابزار دیگری می‌دانند که می‌توانند برای بیان خلاقیت خود از آن استفاده کنند.
    • هوش مصنوعی حتی می‌تواند «به یک دوره طلایی جدید برای سینمای مستقل منجر شود»؛ زیرا ابزارهای لازم برای رقابت با شرکت‌های بزرگ تولید را در اختیار سازندگان فیلم‌های کوچک می‌گذارد، به گفته فینک.

    “وعدهٔ آنچه هوش مصنوعی مولد به ارمغان می‌آورد جذاب است، به‌ویژه برای مدیران اجرایی،” می‌گوید کارلا اورتیز، هنرمند بصری سانفرانسیسکو که در زمینه‌ی تصویرسازی مفهومی برای فیلم‌ها و بازی‌های ویدئویی کار کرده است. “نیازی به کنار آمدن با این تمام گروه از هنرمندان ندارید. کافی است یک دکمه فشار دهید و تمام.”

    • “اما این به هزینه افراد خلاق انسانی و کسانی که برای معیشت خود به این مشاغل وابسته‌اند می‌آید.”

    مقاومت در حال شکل‌گیری:

    • سازنده «برکینگ بد» وینس گیلگان در توضیحات انتهایی برنامهٔ جدید خود، «پلوریبوس»، که این ماه به‌موقع شد، یادداشتی گذاشته است: «این برنامه توسط انسان‌ها ساخته شده است». گیلگان اخیراً به Variety گفت: «چه کسی می‌خواهد در دنیایی زندگی کند که خلاقیت به ماشین‌ها سپرده شده باشد؟»
    • «Thee Stork Club»، یک مکان موسیقی زنده در اوکلند، کالیفرنیا، به‌تازگی استفاده از پوسترهای تولید شده توسط هوش مصنوعی را برای تبلیغ اجراهای هنرمندان ممنوع کرده است، گزارش San Francisco Chronicle.
    • بیش از ۲۰۰ موسیقی‌دان — از جمله چهره‌های برجسته‌ای چون بیلی ایلیش، کیتی پری و اسموکی رابینسون — سال گذشته نامه‌ای عمومی به توسعه‌دهندگان هوش مصنوعی امضا کردند تا «استفاده از هوش مصنوعی برای تخریب و کم‌ارزش‌سازی حق‌های هنرمندان انسانی را متوقف کنند»، به گزارش سارا فیکر از Axios.

    جذابیت: حتی اگر مردم می‌خواهند از هنر هوش مصنوعی دوری کنند، ممکن است به‌هر حال فریب خورند.

    • در یک نظرسنجی اخیر توسط ایپسا و سرویس پخش فرانسوی دیزر، ۹۷٪ از پاسخ‌دهندگان نتوانستند بین آهنگ‌های انسانی و تولید شده توسط هوش مصنوعی تفاوت قائل شوند — و ۵۲٪ گفتند که از این عدم توانایی در تشخیص تفاوت اضطراب می‌کنند.

    “وقتی می‌دانید که چیزی توسط یک انسان خلق شده است، ما این ارتباط را می‌طلبیم،” می‌گوید اورتیز. “این تمایل به شنیدن داستان‌های یکدیگر است. این حس بسیار، بسیار پایه‌ای است.”

  • در پی ادعاهای انکار هولوکاست، فرانسه ربات چت گروک ایلان ماسک را بررسی می‌کند

    الون ماسک در حالی که رئیس‌جمهور دونالد ترامپ در کنفرانس خبری در دفتر بیضی کاخ سفید صحبت می‌کند، گوش می‌دهد؛ 30 مه 2025، واشنگتن. (عکس AP/ایوان وکی، فایل)
    الون ماسک در حالی که رئیس‌جمهور دونالد ترامپ در کنفرانس خبری در دفتر بیضی کاخ سفید صحبت می‌کند، گوش می‌دهد؛ 30 مه 2025، واشنگتن. (عکس AP/ایوان وکی، فایل)

    پاریس (AP) — دولت فرانسه پس از این‌که ربات هوش مصنوعی ایلان ماسک به نام گروک پست‌های فرانسوی منتشر کرد که استفاده از اتاق‌های گاز در آوشویتس را به چالش کشید، اقداماتی را اتخاذ کرد، مقامات گفتند.

    گروک، که توسط شرکت xAI ایلان ماسک ساخته شده و در پلتفرم رسانهٔ اجتماعی X ادغام شده است، در یک پست گسترده به زبان فرانسه نوشت که اتاق‌های گاز در اردوگاه مرگ آوشویتس‑بیریکنائو برای «ضدعفونی با زیکلون B در برابر تب» طراحی شده‌اند نه برای قتل عام — زبانی که مدت‌ها با انکار هولوکاست همراه محسوب می‌شود.

    یادمان آوشویتس این تبادل را در X برجسته کرد و اعلام کرد که پاسخ، واقعیت تاریخی را تحریف کرده و قوانین پلتفرم را نقض می‌کند.

    در پست‌های بعدی در حساب X خود، ربات چت پذیرفت که پاسخ قبلی‌اش به یک کاربر X اشتباه بوده، اعلام کرد که حذف شده و به شواهد تاریخی اشاره کرد که اتاق‌های گاز آوشویتس که با زیکلون B اجرا می‌شد، برای قتل بیش از یک میلیون نفر به کار رفته‌اند. این پیگیری‌ها بدون هیچ توضیحی از سوی X صورت گرفت.

    در آزمون‌هایی که جمعه توسط خبرگزاری Associated Press انجام شد، پاسخ‌های این ربات به سؤالات دربارهٔ آوشویتس به‌نظر می‌رسید که اطلاعات تاریخی دقیق ارائه می‌دهند.

    گروک سابقهٔ انتشار نظرات ضد‌یهودی دارد. اوایل امسال، شرکت ماسک پست‌های این ربات چت که به نظر می‌رسید به آدولف هیتلر تمجید می‌کردند، پس از شکایت‌ها دربارهٔ محتوای ضد‌یهودی حذف کرد.

    دفتر دادسرا پاریس جمعه به خبرگزاری Associated Press تأیید کرد که نظرات انکار هولوکاست به یک تحقیق موجود در حوزه جرایم سایبری مربوط به X اضافه شده‌اند. این پرونده اوایل امسال پس از اینکه مقامات فرانسوی نگرانی‌های خود را دربارهٔ احتمال استفاده از الگوریتم این پلتفرم برای مداخلهٔ خارجی بیان کردند، باز شد.

    دادستانان گفتند که اظهارات گروک اکنون جزئی از این تحقیق است و «عملکرد هوش مصنوعی مورد بررسی قرار خواهد گرفت».

    فرانسه یکی از سخت‌ترین قوانین انکار هولوکاست در اروپا را دارد. به چالش کشیدن واقعیت یا جنایت‌های نسل‌کشی نازی‌ها می‌تواند به‌عنوان جرمی تعقیب شود، همانند سایر اشکال تشویق به نفرت نژادی.

    چندین وزیر فرانسه، از جمله وزیر صنعت رولاند لسکور، پست‌های گروک را به دادسرا پاریس گزارش کردند؛ این گزارش بر پایه مقرری است که مقامات عمومی را ملزم می‌کند تا ممکن بودن جرائم را علامت‌گذاری کنند. در بیانیه‌ای حکومتی، این محتواهای تولید شده توسط هوش مصنوعی را «به وضوح غیرقانونی» توصیف کردند و گفتند ممکن است به‌عنوان تهمت‌نژادی و انکار جرائم علیه بشریت شناخته شود.

    مقامات فرانسوی این پست‌ها را به بستر پلیس ملی برای محتوای آنلاین غیرقانونی ارجاع دادند و همچنین نظارت‌گر دیجیتال فرانسه را از تخلفات مشکوک به قانون خدمات دیجیتال اتحادیهٔ اروپا آگاه کردند.

    این پرونده فشارهای برآیند از طرف بروکسل را افزایش می‌دهد. این هفته، کمیسیون اروپایی، شاخه اجرایی اتحادیهٔ اروپا، اعلام کرد که بلوک در ارتباط با X دربارهٔ گروک است و برخی از خروجی‌های این ربات چت را «وحشتناک» توصیف کرد، با این ادعا که این محتواها بر خلاف حقوق اساسی و ارزش‌های اروپاست.

    دو گروه حقوقی فرانسوی، لیگ حقوق بشر (Ligue des droits de l’Homme) و SOS Racisme، شکایت کیفری علیه گروک و X به‌دلیل به چالش کشیدن جرائم علیه بشریت ثبت کرده‌اند.

    X و واحد هوش مصنوعی آن، xAI، به‌سرعت به درخواست‌های اظهارنظر پاسخ ندادند.