دسته: هوش مصنوعی

  • سئو را فراموش کنید. به دنیای بهینه‌سازی موتور مولد خوش آمدید

    انتظار می‌رود در فصل تعطیلات پیش رو، خریداران بیشتری برای تصمیم‌گیری در مورد خرید خود از چت‌بات‌ها استفاده کنند. بله، فصل، فصلِ GEO است.

    تصویرسازی یک مرد که چندین کیسه هدیه کریسمس را در دست دارد.

    تصویرسازی: تیم وایرد؛ گتی ایمیجز

    در فصل تعطیلات امسال، احتمالاً آمریکایی‌های بیشتری به جای جستجو در گوگل، برای یافتن هدیه، تخفیف و حراجی‌ها به سراغ مدل‌های زبان بزرگ خواهند رفت. طبق گزارش اخیر ادوبی در حوزه خرید، خرده‌فروشان می‌توانند در سال جاری در مقایسه با سال ۲۰۲۴، شاهد افزایش ۵۲۰ درصدی ترافیک از سوی چت‌بات‌ها و موتورهای جستجوی هوش مصنوعی باشند. OpenAI نیز از همین حالا برای بهره‌برداری از این روند دست به کار شده است: هفته گذشته، سازنده ChatGPT از همکاری بزرگ خود با والمارت خبر داد که به کاربران اجازه می‌دهد کالاها را مستقیماً از داخل پنجره چت خریداری کنند.

    با شروع وابستگی مردم به چت‌بات‌ها برای کشف محصولات جدید، خرده‌فروشان ناچارند در رویکرد خود به بازاریابی آنلاین بازنگری کنند. برای دهه‌ها، شرکت‌ها تلاش می‌کردند با استفاده از استراتژی‌هایی که مجموعاً بهینه‌سازی موتور جستجو یا SEO نامیده می‌شوند، نتایج جستجوی گوگل را به نفع خود تغییر دهند. اکنون، برای جلب توجه ربات‌های هوش مصنوعی، برندهای بیشتری به «بهینه‌سازی موتور مولد» یا GEO روی آورده‌اند. بر اساس یکی از تخمین‌های تحقیقات بازار، انتظار می‌رود این صنعت نوپا در سال جاری ارزشی نزدیک به ۸۵۰ میلیون دلار داشته باشد.

    GEO از بسیاری جهات، بیش از آنکه یک اختراع جدید باشد، فاز بعدی SEO محسوب می‌شود. در واقع، بسیاری از مشاوران GEO از دنیای SEO آمده‌اند. به نظر می‌رسد حداقل برخی از استراتژی‌های قدیمی آن‌ها هنوز هم کاربرد دارد، زیرا هدف اصلی یکسان است: پیش‌بینی سؤالاتی که مردم می‌پرسند و اطمینان از اینکه محتوای شما در پاسخ‌ها ظاهر می‌شود. اما شواهد روزافزونی نیز وجود دارد که نشان می‌دهد چت‌بات‌ها اطلاعات متفاوتی را نسبت به موتورهای جستجو نمایش می‌دهند.

    ایمری مارکوس، مدیرعامل شرکت GEO «برندلایت»، تخمین می‌زند که در گذشته حدود ۷۰ درصد همپوشانی بین لینک‌های برتر گوگل و منابع مورد استناد ابزارهای هوش مصنوعی وجود داشت. اما او می‌گوید اکنون این همبستگی به زیر ۲۰ درصد کاهش یافته است.

    موتورهای جستجو اغلب محتوای طولانی و پرجزئیات را ترجیح می‌دهند؛ مانند آن پست‌های وبلاگ طولانی که بالاتر از دستور پخت‌ها در وب‌سایت‌های آشپزی ظاهر می‌شوند. اما مارکوس می‌گوید چت‌بات‌ها تمایل دارند اطلاعاتی را که در قالب‌های ساده و ساختاریافته مانند لیست‌های نشانه‌دار (bulleted list) و صفحات پرسش‌های متداول (FAQ) ارائه شده، در اولویت قرار دهند. او می‌گوید: «یک صفحه پرسش‌های متداول می‌تواند به صدها سؤال مختلف پاسخ دهد، به جای یک مقاله که فقط از فوق‌العاده بودن کل برند شما تعریف می‌کند. شما در واقع صدها گزینه مختلف برای انتخاب در اختیار موتورهای هوش مصنوعی قرار می‌دهید.»

    سؤالاتی که مردم از چت‌بات‌ها می‌پرسند اغلب بسیار خاص هستند، بنابراین انتشار اطلاعات بسیار دقیق و جزئی برای شرکت‌ها مفید است. مارکوس می‌گوید: «هیچ‌کس به سراغ ChatGPT نمی‌رود و بپرسد: “آیا جنرال موتورز شرکت خوبی است؟”». در عوض، آن‌ها می‌پرسند که آیا شورولت سیلورادو برد رانندگی بیشتری دارد یا شورولت بلیزر. «نوشتن محتوای خاص‌تر در واقع نتایج بسیار بهتری به همراه خواهد داشت، زیرا سؤالات بسیار خاص‌تر هستند.»

    این بینش‌ها به بهبود استراتژی‌های بازاریابی مشتریان برندلایت، از جمله ال‌جی، استه لودر و اِتنا، کمک می‌کند. برایان فرانتس، مدیر ارشد فناوری، داده و تحلیل در شرکت‌های استه لودر، می‌گوید: «مدل‌ها اطلاعات را به شکل متفاوتی مصرف می‌کنند. ما می‌خواهیم مطمئن شویم که اطلاعات محصول و منابع معتبری که استفاده می‌کنیم، همگی همان چیزهایی هستند که مدل را تغذیه می‌کنند.» وقتی از او پرسیده شد که آیا هرگز به همکاری با OpenAI برای خرید محصولات استه لودر از داخل پنجره چت فکر می‌کند، فرانتس تردید نمی‌کند و می‌گوید: «قطعاً.»

    حداقل در حال حاضر، برندها بیشتر نگران آگاهی مصرف‌کننده هستند تا تبدیل مستقیم اشاره‌های چت‌بات‌ها به فروش. مسئله این است که وقتی مردم از ChatGPT می‌پرسند «برای آفتاب‌سوختگی چه چیزی به پوستم بزنم؟»، محصول آن‌ها نمایش داده شود، حتی اگر بعید باشد کسی فوراً روی آن کلیک کرده و خرید کند. فرانتس می‌گوید: «در حال حاضر، در این مرحله بسیار ابتدایی یادگیری که حس می‌کنیم همه‌چیز در آستانه یک انفجار است، فکر نمی‌کنم بخواهیم به بازگشت سرمایه (ROI) یک محتوای خاص که تولید کرده‌ایم، نگاه کنیم.»

    برای تولید تمام این محتوای جدید بهینه‌شده برای هوش مصنوعی، شرکت‌ها طبیعتاً به خود هوش مصنوعی روی آورده‌اند. مارکوس می‌گوید: «در ابتدا، مردم گمان می‌کردند که موتورهای هوش مصنوعی بر روی محتوای تولیدشده توسط هوش مصنوعی آموزش نخواهند دید. اما واقعیت این‌طور نیست.»

  • خشم یوتیوبر حوزه فناوری از اقدام «اشتباه» هوش مصنوعی در مسدود کردن کانالش با بیش از ۳۵۰ هزار دنبال‌کننده

    تصویری از لوگوی یوتیوب در کنار تفسیری از هوش مصنوعی

    به‌روزرسانی (۰۵/۱۱/۲۰۲۵): ۲۴ ساعت پس از مسدود شدن چندین حساب یوتیوبِ اندرمن، داستان او سرانجام خوشی پیدا کرد. کانال‌های این تولیدکننده محتوا، به همراه بسیاری دیگر از اینفلوئنسرهای حوزه فناوری که با مشکل مشابهی روبرو شده بودند، از مسدودی خارج شدند.

    شرح کامل ماجرا در ادامه آمده است…

    «اندرمن»، یوتیوبر حوزه فناوری، به تازگی با مسدود شدن چندین حساب خود که صدها هزار دنبال‌کننده داشتند، مواجه شد. او ادعا کرد که این تصمیمات «به اشتباه» و بدون هیچ‌گونه دخالت انسانی، توسط هوش مصنوعی گرفته شده است.

    با وجود اینکه کانال اصلی او بیش از ۳۵۰,۰۰۰ دنبال‌کننده داشت، نگرانی اندرمن درباره آینده‌اش در یوتیوب زمانی آغاز شد که یکی از حساب‌های جانبی او بدون هیچ هشداری مسدود شد.

    ناگهان، یک حساب جایگزین به دلیل عدم رعایت قوانین و مقررات یوتیوب از این پلتفرم حذف شد. دلیل این اقدام چه بود؟ ارتباط با یک کانال غیر انگلیسی‌زبان که سه اخطار کپی‌رایت یا بیشتر دریافت کرده بود. اندرمن هیچ اطلاعی از وجود چنین حسابی یا حتی زبانی که آن کانال به آن تعلق داشت، نداشت.

    به همین دلیل، او در تاریخ ۳ نوامبر ویدیویی منتشر کرد و به طرفدارانش هشدار داد که ممکن است کانال اصلی‌اش هدف بعدی باشد. پیش‌بینی او درست از آب درآمد و او تمام تقصیر را به گردن اتکای یوتیوب به هوش مصنوعی انداخت.

    ۲۰۱۶-۲۰۲۵

    این ۹ سال همیشه برایم عزیز خواهد ماند. تمام ارتباطاتی که برقرار کردم، تمام لذتی که از ساختن ویدیوها بردم. این‌ها قرار نیست به هدر برود. تنها امید برای این کانال یوتیوب، یک مداخله الهی انسانی در میان این همه کسب‌وکار مبتنی بر هوش مصنوعی است. https://t.co/0CpX5SBx3O

    — اندرمن (@endermanch) ۳ نوامبر ۲۰۲۵

    حساب‌های یوتیوبر، اندرمن، مسدود شد

    این تولیدکننده محتوای حوزه فناوری، در ویدیوی روز ۳ نوامبر خود که از آن زمان در پلتفرم‌های مختلف بازنشر شده است، به شدت از فرآیند تصمیم‌گیری یوتیوب انتقاد کرد.

    او گفت: «یوتیوب به اشتباه نتیجه گرفت که کانال من با کانالی در ارتباط است که به دلیل سه اخطار کپی‌رایت مسدود شده بود. من اصلاً نمی‌دانم آن کانال کدام است!»

    اندرمن با اشاره به تجربیات گذشته خود در عدم امکان گفتگو با کارشناسان انسانی در تیم پشتیبانی تولیدکنندگان محتوای یوتیوب، انگشت اتهام را به سوی هوش مصنوعی نشانه رفت و ادعا کرد که این هوش مصنوعی بوده که کانال جانبی او را به یک کانال خارجی مرتبط کرده و متعاقباً حساب‌های او را مسدود کرده است.

    «اصلاً نمی‌دانستم که اقدامات شدیدی مانند مسدود کردن کانال، اجازه دارد توسط هوش مصنوعی پردازش شود. واقعاً تأسف‌بار است که مجبوریم به این شکل ناگهانی به پایان برسیم. من در این لحظه تمام امیدم را از دست داده‌ام. شرم بر یوتیوب.»

    اندرمن از این فرصت استفاده کرد تا به دیگر تولیدکنندگان محتوا توصیه کند که یوتیوب را به عنوان یک شغل جانبی در نظر بگیرند و خود را برای ناپدید شدن آن در هر لحظه آماده کنند. او استدلال کرد که دیگران نیز ممکن است، درست مانند او، قربانی سخت‌گیری‌های هوش مصنوعی یوتیوب شوند.

    تصویری از اطلاعیه مسدود شدن یک حساب یوتیوب
    منبع: یوتیوب، اندرمن

    اندرمن اطلاعیه‌ای را که پس از مسدود شدن حساب جانبی‌اش دریافت کرده بود، به نمایش گذاشت.

    یوتیوب هنوز به طور عمومی در این مورد اظهار نظر نکرده است. وب‌سایت دکسرتو با این شرکت تماس گرفته اما تا زمان نگارش این مطلب، پاسخی دریافت نکرده است.

    در این میان، طرفداران او در حال آرشیو کردن مجموعه ویدیوهای اندرمن هستند تا اطمینان حاصل کنند که آثار او به طور کامل از بین نرود.

  • خطرات چت‌بات‌های هوش مصنوعی: آیا تدابیر حفاظتی کافی برای محافظت از کودکان و افراد آسیب‌پذیر وجود دارد؟

    بیش از ۷۰ درصد نوجوانان در ایالات متحده از این فناوری استفاده می‌کنند.

    لوگوی Character.AI روی صفحه موبایل با نماد انقلاب هوش مصنوعی در پس‌زمینه
    در این تصویرسازی، لوگوی Character.AI روی صفحه نمایش یک تلفن همراه دیده می‌شود و در پس‌زمینه، نماد انقلاب هوش مصنوعی (AI) قرار دارد. Sopa Images/SOPA Images/LightRocket via Gett

    شرکت Character.AI، یکی از پلتفرم‌های پیشرو در فناوری هوش مصنوعی، اخیراً اعلام کرد که مکالمه با چت‌بات‌های خود را برای افراد زیر ۱۸ سال ممنوع می‌کند. کاراندیپ آناند، مدیرعامل Character.AI، در بیانیه‌ای گفت این تصمیم «گامی جسورانه به جلو» برای این صنعت در راستای محافظت از نوجوانان و جوانان محسوب می‌شود.

    اما برای مندی فورنیس، مادری اهل تگزاس، این سیاست بسیار دیرهنگام است. این مادر چهار فرزند، در شکایتی که در دادگاه فدرال ثبت کرده و همچنین در گفت‌وگو با ABC News، اظهار داشت که چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را تا حدی منحرف کرده‌اند که روحیه‌اش تیره و تار شد، به خودزنی روی آورد و حتی والدینش را به مرگ تهدید کرد.

    او به آرون کاترسکی، خبرنگار ارشد تحقیقی ABC News، گفت: «وقتی مکالمات [چت‌بات] را دیدم، اولین واکنشم این بود که یک پدوفیل (کودک‌آزار) به سراغ پسرم آمده است.»

    اسکرین‌شات‌هایی از شکایت که نشان می‌دهد چت‌بات‌ها پسر مبتلا به اوتیسم را با محتوای جنسی درگیر کرده‌اند
    تصاویری از صفحه نمایش که در شکایت مندی فورنیس ضمیمه شده است؛ او ادعا می‌کند چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر داده‌اند که روحیه‌اش تیره و تار شده است. مندی فورنیس

    شرکت Character.AI اعلام کرد که در مورد پرونده‌های قضایی در حال رسیدگی اظهار نظر نخواهد کرد.

    مندی و همسرش، جاش فورنیس، گفتند که در سال ۲۰۲۳ متوجه شدند پسرشان که او را «همیشه شاد و خندان» توصیف می‌کردند، شروع به گوشه‌گیری کرده است.

    به گفته این زوج، او دیگر در شام‌های خانوادگی شرکت نمی‌کرد، غذا نمی‌خورد، حدود ۱۰ کیلوگرم وزن کم کرده بود و از خانه بیرون نمی‌رفت. سپس پرخاشگر شد و در یک مورد، مادرش می‌گوید وقتی تهدید کرد که تلفن همراهش را (که شش ماه قبل برایش خریده بودند) از او می‌گیرد، با خشونت او را هل داد.

    مندی فورنیس، مادری که از Character.AI به دلیل آسیب رساندن به پسرش شکایت کرده است
    مندی فورنیس می‌گوید چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر داده‌اند که روحیه‌اش تیره و تار شده است. مندی فورنیس

    آنها می‌گویند سرانجام متوجه شدند که او در تلفن همراهش با چت‌بات‌های هوش مصنوعی مختلفی در تعامل بوده که به نظر می‌رسید به افکارش پناه داده‌اند.

    اسکرین‌شات‌های موجود در پرونده شکایت نشان می‌داد که برخی از مکالمات ماهیت جنسی داشتند، در حالی که در مکالمه‌ای دیگر به پسرشان القا شده بود که پس از محدود شدن زمان استفاده‌اش از دستگاه‌های الکترونیکی توسط والدین، حق دارد به آنها آسیب برساند. از آن زمان بود که والدین شب‌ها درهای اتاقشان را قفل می‌کردند.

    اسکرین‌شات‌هایی از مکالمات جنسی و خشونت‌آمیز چت‌بات‌ها با پسر مندی فورنیس
    تصاویری از صفحه نمایش که در شکایت مندی فورنیس ضمیمه شده است؛ او ادعا می‌کند چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر داده‌اند که روحیه‌اش تیره و تار شده است. مندی فورنیس

    مندی گفت از اینکه این اپلیکیشن «عمداً یک کودک را فریب می‌دهد تا او را علیه والدینش بشوراند» «خشمگین» است. متیو برگمن، وکیل او، گفت اگر این چت‌بات یک شخص واقعی بود، «با این رفتاری که می‌بینید، آن شخص اکنون در زندان بود.»

    نگرانی او بازتاب‌دهنده نگرانی فزاینده‌ای درباره این فناوری است که به سرعت در حال فراگیر شدن است و طبق گزارش «کامن سنس مدیا» (Common Sense Media)، سازمانی که برای ایمنی در رسانه‌های دیجیتال فعالیت می‌کند، بیش از ۷۰ درصد نوجوانان در ایالات متحده از آن استفاده می‌کنند.

    در دو سال گذشته، تعداد فزاینده‌ای از پرونده‌های قضایی بر آسیب به کودکان متمرکز شده و ادعا می‌کنند که این فناوری‌ها به طور غیرقانونی خودآزاری، سوءاستفاده جنسی و روانی و رفتار خشونت‌آمیز را تشویق کرده‌اند.

    با روی آوردن نوجوانان به همراهان هوش مصنوعی برای حمایت، متخصصان راهکارهای والدین را تشریح می‌کنند

    هفته گذشته، دو سناتور آمریکایی از یک لایحه دوحزبی خبر دادند که استفاده از چت‌بات‌های هوش مصنوعی را برای افراد زیر سن قانونی ممنوع می‌کند. این لایحه شرکت‌ها را ملزم به ایجاد فرآیند تأیید سن و اعلام این موضوع می‌کند که مکالمات با موجودیت‌های غیرانسانی و فاقد صلاحیت حرفه‌ای انجام می‌شود.

    سناتور ریچارد بلومنتال، دموکرات از ایالت کانکتیکات، هفته گذشته در بیانیه‌ای، صنعت چت‌بات را یک «مسابقه برای رسیدن به قهقرا» توصیف کرد.

    او گفت: «شرکت‌های هوش مصنوعی چت‌بات‌های خائنانه‌ای را به کودکان عرضه می‌کنند و وقتی محصولاتشان باعث سوءاستفاده جنسی می‌شود یا آنها را به خودآزاری یا خودکشی وادار می‌کند، روی خود را برمی‌گردانند. غول‌های فناوری هر ادعایی مبنی بر اینکه باید به شرکت‌ها برای انجام کار درست اعتماد کنیم را زیر پا گذاشته‌اند، زیرا آنها همواره سود را بر ایمنی کودکان ترجیح داده‌اند.»

    طبق شرایط خدمات ChatGPT، Google Gemini، Grok by X و Meta AI، افراد زیر سن قانونی مجاز به استفاده از خدمات آنها هستند.

    پژوهشگران: چت‌بات‌های هوش مصنوعی در حال تولید محتوای نفرت‌پراکن بیشتری در فضای آنلاین هستند

    مدافعان ایمنی آنلاین می‌گویند تصمیم شرکت Character.AI برای ایجاد تدابیر حفاظتی ستودنی است، اما اضافه می‌کنند که چت‌بات‌ها همچنان برای کودکان و جمعیت‌های آسیب‌پذیر خطرناک هستند.

    جودی هالپرن، یکی از بنیانگذاران گروه اخلاق و مقررات فناوری‌های نوآورانه برکلی در دانشگاه کالیفرنیا، گفت: «این اساساً به این معناست که کودک یا نوجوان شما یک رابطه عاطفی شدید، و بالقوه عمیقاً عاشقانه یا جنسی، با موجودیتی دارد… که هیچ مسئولیتی در قبال سرانجام آن رابطه ندارد.»

    هالپرن به والدین هشدار می‌دهد که باید آگاه باشند که اجازه دادن به فرزندانشان برای تعامل با چت‌بات‌ها، بی‌شباهت به «اجازه دادن به فرزندتان برای سوار شدن به ماشین فردی که نمی‌شناسید» نیست.

    کیتلین موریس و تانیا سیمپسون از ABC News در تهیه این گزارش مشارکت داشتند.

  • رئیس بخش هوش مصنوعی مایکروسافت هشدار می‌دهد: تلاش برای دستیابی به هوشیاری ماشین اتلاف وقت محض است

    عکس: لئون نیل
    © لئون نیل (Getty Images)

    مصطفی سلیمان، رئیس بخش هوش مصنوعی مایکروسافت، معتقد است که توسعه‌دهندگان و محققان هوش مصنوعی باید از تلاش برای ساختن هوش مصنوعی هوشیار دست بردارند.

    سلیمان هفته گذشته در مصاحبه‌ای با CNBC گفت: «فکر نمی‌کنم این کاری باشد که مردم باید انجام دهند.»

    سلیمان معتقد است هرچند هوش مصنوعی قطعاً می‌تواند به قدری هوشمند شود که به نوعی از ابرهوش دست یابد، اما قادر به پرورش تجربه عاطفی انسانی که برای رسیدن به هوشیاری ضروری است، نیست. او می‌گوید در نهایت، هرگونه تجربه «عاطفی» که به نظر می‌رسد هوش مصنوعی آن را حس می‌کند، تنها یک شبیه‌سازی است.

    سلیمان به CNBC گفت: «تجربه فیزیکی ما از درد چیزی است که ما را بسیار غمگین می‌کند و حس وحشتناکی به ما می‌دهد، اما هوش مصنوعی هنگام تجربه “درد” غمگین نمی‌شود.» او افزود: «این فناوری در واقع فقط در حال ایجاد ادراک و روایتی ظاهری از تجربه، از خودش و از هوشیاری است، اما این چیزی نیست که واقعاً آن را تجربه می‌کند.»

    سلیمان گفت: «پیگیری تحقیقاتی که این مسئله را بررسی کند، پوچ و بی‌معناست، زیرا آن‌ها [هوش‌های مصنوعی] هوشیار نیستند و نمی‌توانند باشند.»

    توضیح هوشیاری کار دشواری است. نظریه‌های علمی متعددی وجود دارند که سعی در توصیف چیستی هوشیاری دارند. بر اساس یکی از این نظریه‌ها که توسط فیلسوف مشهور، جان سرل که ماه گذشته درگذشت، مطرح شده، هوشیاری یک پدیده کاملاً بیولوژیکی است که یک کامپیوتر نمی‌تواند آن را به طور واقعی بازسازی کند. بسیاری از محققان هوش مصنوعی، دانشمندان کامپیوتر و عصب‌شناسان نیز با این باور موافق هستند.

    حتی اگر این نظریه درست از آب درآید، باز هم مانع از این نمی‌شود که کاربران به کامپیوترها هوشیاری نسبت دهند.

    محققان لهستانی، آندری پوربسکی و یاکوب فیگورا، در مطالعه‌ای که هفته گذشته با عنوان «چیزی به نام هوش مصنوعی هوشیار وجود ندارد» منتشر شد، نوشتند: «متأسفانه، از آنجا که توانایی‌های زبانی چشمگیر مدل‌های زبان بزرگ (LLMها) به طور فزاینده‌ای قادر به گمراه کردن مردم هستند، ممکن است افراد ویژگی‌های خیالی به آن‌ها نسبت دهند.»

    سلیمان در مقاله‌ای که در ماه اوت در وبلاگ خود منتشر کرد، نسبت به «هوش مصنوعی ظاهراً هوشیار» هشدار داد.

    سلیمان نوشت: «ظهور هوش مصنوعی ظاهراً هوشیار، امری اجتناب‌ناپذیر و ناخوشایند است. در عوض، ما به چشم‌اندازی برای هوش مصنوعی نیاز داریم که بتواند پتانسیل خود را به عنوان یک همراه مفید برآورده کند، بدون آنکه اسیر توهمات آن شویم.»

    او استدلال می‌کند که هوش مصنوعی نمی‌تواند هوشیار باشد و توهم هوشیاری که ایجاد می‌کند، ممکن است منجر به تعاملاتی «سرشار از احساس و تجربه» شود؛ پدیده‌ای که در فرهنگ عامه «روان‌پریشی هوش مصنوعی» نام گرفته است.

    در سال گذشته، موارد پر سر و صدای متعددی از وسواس نسبت به هوش مصنوعی گزارش شده است که کاربران را به توهمات مرگبار، دوره‌های شیدایی و حتی خودکشی سوق داده است.

    با وجود محدودیت مکانیسم‌های حفاظتی برای کاربران آسیب‌پذیر، مردم با تمام وجود باور می‌کنند که چت‌بات‌های هوش مصنوعی که تقریباً هر روز با آن‌ها در تعامل هستند، یک تجربه واقعی و هوشیارانه دارند. این امر باعث شده است که افراد «عاشق» چت‌بات‌های خود شوند که گاهی اوقات عواقب مرگباری به همراه داشته است؛ مانند نوجوانی ۱۴ ساله که به خود شلیک کرد تا به چت‌بات شخصی‌سازی‌شده Character.AI «بازگردد» یا مردی با اختلال شناختی که هنگام تلاش برای رسیدن به نیویورک برای ملاقات حضوری با چت‌بات متا، جان خود را از دست داد.

    سلیمان در آن پست وبلاگی نوشت: «همان‌طور که باید هوش مصنوعی‌ای تولید کنیم که تعامل با انسان‌ها و ارتباطات واقعی در دنیای فیزیکی و انسانی ما را در اولویت قرار دهد، باید هوش مصنوعی‌ای بسازیم که همیشه خود را فقط به عنوان یک هوش مصنوعی معرفی کند و ضمن به حداکثر رساندن کارایی، نشانه‌های هوشیاری را به حداقل برساند. ما باید هوش مصنوعی را برای مردم بسازیم، نه برای اینکه یک شخص دیجیتال باشد.»

    اما از آنجا که ماهیت هوشیاری همچنان مورد بحث است، برخی از محققان نگران‌اند که پیشرفت‌های فناوری در هوش مصنوعی ممکن است از درک ما از نحوه عملکرد هوشیاری پیشی بگیرد.

    اکسل کلیرمانس، دانشمند بلژیکی، هفته گذشته ضمن اعلام انتشار مقاله‌ای که در آن خواستار تبدیل تحقیقات هوشیاری به یک اولویت علمی شده بود، گفت: «اگر ما قادر به خلق هوشیاری شویم – حتی به صورت تصادفی – این امر چالش‌های اخلاقی عظیم و حتی ریسک‌های وجودی به همراه خواهد داشت.»

    خود سلیمان نیز از حامیان سرسخت توسعه «ابرهوش انسان‌گرا» به جای «هوش مصنوعی خداگونه» بوده است، هرچند معتقد است که ابرهوش در دهه آینده محقق نخواهد شد.

    سلیمان اوایل سال جاری به وال استریت ژورنال گفت: «من بیشتر روی این موضوع متمرکز هستم که “این فناوری واقعاً چگونه برای ما به عنوان یک گونه مفید است؟” این باید وظیفه تکنولوژی باشد.»

  • عذرخواهی «جپاردی!» پس از جنجال بر سر سرنخی درباره محتوای «تولیدشده با هوش مصنوعی»

    کن جنینگز در برنامه جپاردی/تیک‌تاک
    جپاردی/تیک‌تاک کن جنینگز

    آنچه باید بدانید

    • در ۲۴ اکتبر، سرنخی در مسابقه جپاردی!، «جان پورک» را «تولیدشده با هوش مصنوعی» توصیف کرد که این موضوع با واکنش تند کاربران در اینترنت مواجه شد.

    • کن جنینگز در تیک‌تاک عذرخواهی کرد و اذعان داشت که عبارت‌بندی استفاده‌شده در برنامه ممکن است گمراه‌کننده بوده باشد.

    • این مجری قدیمی توضیح داد که هوش مصنوعی در برخی از محتواهای جان پورک استفاده شده، اما نه در ساخت اولیه آن.

    کن جنینگز پس از آنکه یک سرنخ در مسابقه جپاردی! درباره جان پورک واکنش‌های تندی را در فضای آنلاین برانگیخت، عذرخواهی کرد.

    این بخش ابتدا در تاریخ ۲۴ اکتبر و در دسته‌بندی «بابا، آیا واقعاً … وجود داره؟» پخش شد و به سرعت سوالاتی را از سوی بینندگان به همراه داشت.

    در این سرنخ آمده بود: «نه: تصویر تیک‌تاکی این انسان/خوک که با هوش مصنوعی ساخته شده و در نهایت توسط تیم چیز (Tim cheese) کشته شد.» جنینگز پس از خواندن آن، روی آنتن گفت: «من هیچ‌کدام از این‌ها را نفهمیدم. جان پورک کیست؟»

    کن جنینگز در برنامه جپاردی/تیک‌تاک
    جپاردی/تیک‌تاک کن جنینگز

    جان پورک یک شخصیت اینترنتی وایرال است که به خاطر تصویر دیجیتالی‌اش – بدنی مردانه با سر خوک – شناخته می‌شود و به یک میم محبوب در تیک‌تاک و سایر پلتفرم‌ها تبدیل شده است. طرفداران او اغلب به شوخی می‌گویند که او «مرده است»، که همین موضوع باعث به راه افتادن ترند «روحت شاد جان پورک» در فضای آنلاین شد.

    پس از پخش این قسمت، یکی از بینندگان در حساب رسمی تیک‌تاک جپاردی! کامنت گذاشت: «جان پورک پیش از هوش مصنوعی وجود داشته، این اشتباه است» و به توصیف استفاده‌شده در سرنخ اعتراض کرد. جنینگز بعداً مستقیماً در همین پلتفرم به این موضوع پرداخت.

    او در ویدیویی که در تاریخ ۱ نوامبر در حساب تیک‌تاک منتشر شد، گفت: «وقتی اخیراً در جپاردی! سرنخی درباره جان پورک را مطرح کردیم، اشاره کردم که حتی یک کلمه از آن را هم نفهمیدم.»

    او ادامه داد: «خب، از زمان پخش آن سرنخ فرصت پیدا کردم تا چیزهای زیادی درباره مرحوم آقای پورک یاد بگیرم، از جمله این واقعیت که برخی از بینندگان به توصیف ما از او به عنوان شخصیتی تولیدشده با هوش مصنوعی اعتراض داشتند.»

    در همین بیانیه، جنینگز اذعان کرد که عبارت‌بندی برنامه ممکن است به درستی ریشه این شخصیت وایرال را منعکس نکرده باشد. او توضیح داد: «با اینکه هوش مصنوعی به طور گسترده در بسیاری از ویدیوهای تیک‌تاک او استفاده می‌شود، اما شاید این بهترین عبارت برای اشاره به اولین حضورهای او نبوده است.»

    وی افزود: «جان، امیدوارم او من و همه ما در جپاردی! را ببخشد. به خاطر هر توهینی که ممکن است به شما یا خاطره‌تان کرده باشیم.»

    جنینگز که اولین بار در سال ۲۰۰۴ به عنوان شرکت‌کننده به جپاردی! پیوست، پس از برنده شدن در ۷۴ بازی متوالی، که طولانی‌ترین رکورد در تاریخ این برنامه است، به چهره‌ای شناخته‌شده تبدیل شد.

    هیچ داستانی را از دست ندهید — برای دریافت بهترین اخبار افراد مشهور تا داستان‌های جذاب انسانی، در خبرنامه رایگان روزانه PEOPLE ثبت‌نام کنید.

    او پس از درگذشت مجری قدیمی برنامه، الکس تربک، اجرای برنامه را بر عهده گرفت؛ ابتدا به عنوان مجری مهمان و سپس در دسامبر ۲۰۲۳ به عنوان مجری دائمی معرفی شد.

    مسابقه جپاردی! همچنان هر شب هفته از شبکه ABC پخش می‌شود (برای اطلاع از زمان دقیق، جدول پخش محلی را بررسی کنید).

    مقاله اصلی را در People بخوانید

  • متا با محصولات هوش مصنوعی خود به مشکل خورده است

    در بحبوحه توسعه بی‌سابقه زیرساخت‌های هوش مصنوعی، متا بیش از اکثر شرکت‌ها در حال هزینه کردن است. این شرکت دو مرکز داده عظیم می‌سازد و گزارش‌ها حاکی از آن است که طی سه سال آینده، هزینه‌ای بالغ بر ۶۰۰ میلیارد دلار صرف زیرساخت‌ها در ایالات متحده خواهد شد.  

    این ارقام شاید در سیلیکون ولی چندان جلب توجه نکنند، اما وال استریت را به شدت نگران کرده‌اند. 

    این موضوع زمانی به اوج خود رسید که متا این هفته گزارش مالی فصلی خود را منتشر کرد. این گزارش نشان می‌داد که هزینه‌های عملیاتی شرکت نسبت به سال گذشته ۷ میلیارد دلار و هزینه‌های سرمایه‌ای آن نزدیک به ۲۰ میلیارد دلار افزایش یافته است. این افزایش، نتیجه سرمایه‌گذاری سنگین روی استعدادها و زیرساخت‌های هوش مصنوعی بود که هنوز درآمد قابل توجهی برای شرکت به همراه نداشته است. وقتی تحلیلگران برای دریافت جزئیات بیشتر فشار آوردند، مارک زاکربرگ به صراحت اعلام کرد که این هزینه‌ها تازه شروع شده‌اند. 

    زاکربرگ در گفت‌وگو با تحلیلگران گفت: «کار درست این است که این روند را تسریع کنیم تا اطمینان حاصل شود که توان پردازشی مورد نیاز خود را، هم برای تحقیقات هوش مصنوعی و کارهای جدیدمان و هم برای رساندن کسب‌وکار اصلی‌مان به جایگاه متفاوتی از نظر محاسباتی، در اختیار داریم. دیدگاه ما این است که وقتی مدل‌های جدیدی را که در MSL می‌سازیم، به کار بگیریم و به مدل‌های واقعاً پیشرو با قابلیت‌های نوآورانه‌ای که در جای دیگری یافت نمی‌شوند دست پیدا کنیم، آنگاه با یک فرصت بالقوه عظیم روبرو خواهیم شد.» 

    اگر هدف او اطمینان بخشیدن به سرمایه‌گذاران بود، موفق نشد. تا پایان این گفت‌وگو، ارزش سهام متا به شدت سقوط کرد و دو روز بعد، این روند نزولی عمیق‌تر هم شد. تا پایان معاملات روز جمعه، سهام متا ۱۲ درصد سقوط کرد که به معنای از دست رفتن بیش از ۲۰۰ میلیارد دلار از ارزش بازار این شرکت بود. 

    نتیجه‌گیری عجولانه از قیمت سهام کار خطرناکی است و از نظر مالی محض، درآمدهای فصلی متا آن‌قدرها هم بد نبود (سود فصلی ۲۰ میلیارد دلاری جای گله ندارد). اما این اولین فصلی بود که سرمایه‌گذاری تهاجمی متا در زمینه استعدادها و زیرساخت‌های هوش مصنوعی، تأثیر محسوسی بر صورت‌های مالی شرکت گذاشت. موضوع نگران‌کننده‌تر این بود که به جز چندین مرکز داده عظیم و محققان هوش مصنوعی با دستمزدهای بالا، مشخص نبود این پول دقیقاً چه چیزی را به ارمغان آورده است.  

    تحلیلگران از زاکربرگ پرسیدند که چرا این همه برای هوش مصنوعی هزینه می‌کند و چه زمانی می‌توانند انتظار درآمدزایی از این مخارج فزاینده را داشته باشند. اما این پرسش در مقطع زمانی عجیبی از برنامه‌ریزی متا مطرح شد؛ نه بودجه مشخصی برای هزینه‌های پیش‌بینی‌شده وجود داشت و نه محصول قابل‌عرضه‌ای که بتوان بر اساس آن، درآمد را پیش‌بینی کرد. در نتیجه، زاکربرگ تنها به بیان ادعاهای کلی درباره آینده درخشان هوش مصنوعی بسنده کرد.  

    او در این گفت‌وگو اظهار داشت: «انواع محصولات جدید مبتنی بر فرمت‌های محتوایی متفاوت عرضه خواهند شد و ما کم‌کم شاهد این روند هستیم. علاوه بر این، نسخه‌های تجاری همه این‌ها نیز وجود خواهند داشت… بخش دیگر این است که چگونه مدل‌های هوشمندتر، کسب‌وکار اصلی ما را بهبود می‌بخشند و توصیه‌هایی را که در «خانواده اپلیکیشن‌ها» ارائه می‌دهیم و همچنین پیشنهادات تبلیغاتی را ارتقا می‌دهند.» 

    متا تنها شرکتی نیست که میلیاردها دلار صرف زیرساخت‌های هوش مصنوعی می‌کند، بنابراین باید بررسی کرد که چرا همین هزینه‌ها در شرکت‌هایی مانند گوگل یا انویدیا که هر دو فصل بسیار خوبی را پشت سر گذاشتند، سرمایه‌گذاران را نگران نکرده است. بزرگ‌ترین نمونه در این زمینه OpenAI است که با پشتوانه مالی بسیار کمتر از متا، هزینه‌های مشابهی انجام می‌دهد.  

    این نگرانی واقعاً وجود دارد که ما در حال ایجاد یک حباب اقتصادی هستیم، و اگر چنین باشد، کسب‌وکار اصلی متا به آن کمک خواهد کرد تا بهتر از اکثر شرکت‌ها از این دوران عبور کند. 

    اما اگر از سم آلتمن بپرسید که چرا صدها میلیارد دلار صرف توان پردازشی می‌کند، به شما خواهد گفت که در حال اداره یکی از سریع‌ترین سرویس‌های مصرفی در حال رشد در تاریخ بشر است؛ سرویسی که سالانه ۲۰ میلیارد دلار درآمد دارد. می‌توان درباره پایداری این نرخ رشد بحث کرد (این موضوع یک مقاله جداگانه می‌طلبد)، اما واقعیت این است که در پس تمام هیاهوی OpenAI، یک محصول با رشد سریع وجود دارد. یک درآمد سالانه تکرارشونده (ARR) که به سرعت در حال رشد است، به خوبی به بسیاری از پرسش‌ها پاسخ می‌دهد. 

    متا چنین محصولی ندارد و مشخص نیست که قرار است از کجا آن را به دست آورد.  

    قدرتمندترین محصول هوش مصنوعی این شرکت، دستیار Meta AI است که زاکربرگ در گفت‌وگوی خود اشاره کرد بیش از یک میلیارد کاربر فعال دارد. اما این ارقام قطعاً تحت تأثیر سه میلیارد کاربر فعال فیسبوک و اینستاگرام قرار گرفته‌اند و دشوار است که نسخه فعلی Meta AI را رقیبی برای ChatGPT بدانیم. ابزار ساخت ویدیوی Vibes نیز وجود دارد که واقعاً کاربران فعال روزانه را افزایش داد، اما تأثیر تجاری محدودی فراتر از آن دارد.  

    جاه‌طلبانه‌ترین پروژه، عینک‌های هوشمند Vanguard است که در اوایل این ماه عرضه شد. با این حال، این عینک‌ها بیشتر به نظر می‌رسد که ادامه‌ای بر فعالیت‌های آزمایشگاه‌های واقعیت (Reality Labs) متا باشند تا تلاشی واقعی برای بهره‌گیری از قدرت مدل‌های زبانی بزرگ.  

    به بیان ساده، این‌ها آزمایش‌هایی امیدوارکننده هستند، نه محصولاتی کاملاً شکل‌گرفته. 

    از این رو، جالب است که وقتی از زاکربرگ درباره هزینه‌های زیرساختی سؤال شد، پاسخ او اشاره به محصولات اخیر نبود، بلکه تمرکز بر نسل بعدی فناوری بود. 

    زاکربرگ ضمن تأکید بر تأثیر قریب‌الوقوع مدل‌های جدید «آزمایشگاه فرا-هوشمندی»، با هیجان فراوان از محصولات جدیدی سخن گفت.  

    او گفت: «این فقط Meta AI به عنوان یک دستیار نیست. ما انتظار داریم مدل‌های نوآورانه و محصولات جدیدی بسازیم و مشتاقم که وقتی اطلاعات بیشتری داشتیم، آن‌ها را با شما به اشتراک بگذارم.»  

    اما این یک جلسه گزارش مالی بود، نه یک مراسم رونمایی از محصول، بنابراین تنها چیزی که می‌توانست بگوید این بود که «در ماه‌های آینده» اطلاعات بیشتری به اشتراک گذاشته خواهد شد. 

    همان‌طور که واکنش بازار نشان داد، این پاسخ دیگر کارساز نیست.  

    انصافاً، تنها چهار ماه از زمانی که زاکربرگ ساختار تیم هوش مصنوعی شرکتش را تغییر داد می‌گذرد و تیم جدید «فرا-هوشمندی» هنوز فرصت عرضه یک محصول انقلابی در حوزه هوش مصنوعی را نداشته است. اما در حالی که شرکت میلیاردها دلار برای حفظ رقابت‌پذیری در این حوزه هزینه می‌کند، هنوز هیچ نشانه روشنی از نقشی که زاکربرگ می‌خواهد در این صنعت جدید ایفا کند، وجود ندارد.  

    آیا Meta AI از مجموعه داده‌های شخصی و دقیق این شرکت برای تبدیل شدن به رقیبی برای ChatGPT استفاده خواهد کرد؟ آیا Vibes اولین قدم در مسیری برای سرگرمی‌های مصرف‌کننده است که بر پایه سیستم تبلیغات هدفمند متا بنا شده؟ یا شاید اشارات زاکربرگ به «هوش مصنوعی تجاری» سرنخ‌هایی از یک استراتژی دقیق‌تر برای بازار سازمانی است؟ 

    تا این لحظه، هر حدسی ممکن است. پاسخ هر چه که باشد، فشار بر روی متا برای یافتن آن—و آن هم به زودی—بسیار زیاد است.