دسته: هوش مصنوعی

  • از ChatGPT برای برنامه‌ریزی تعطیلاتم استفاده کردم. حالا پشیمانم و آرزو می‌کنم کاش این کار را نمی‌کردم.

    اینجاست که چرا آدم‌های واقعی هنوز در عصر برنامه‌ریزی سفر با هوش مصنوعی اهمیت دارند

    مزرعه اسطوخودوس خانواده B&B در سکویم، واشنگتن.
    مزرعه اسطوخودوس خانواده B&B در سکویم، واشنگتن. زیون هیلایکر

    من مخالف هوش مصنوعی نیستم.

    البته نگرانی‌هایی در موردش دارم — به ویژه وقتی پای سواد رسانه‌ای و اطلاعات غلط در میان باشد.

    آماده‌ام که هوش مصنوعی کارهای روزمره و خسته‌کننده‌مان را ساده‌تر کند تا وقت بیشتری برای کارهای جالب‌تر داشته باشیم.

    با این حال، مطمئن نیستم که چقدر می‌تواند نقش مشاور را ایفا کند. این را به عنوان یک ستون‌نویس مشاوره می‌گویم که دوست دارد شغلش را حفظ کند.

    این حرف را بعد از دیدن استفاده خواهرم از آن برای مشاوره پزشکی می‌زنم. گاهی اوقات «دستیار» ChatGPT درست می‌گوید — و مفید است. تا اینکه نیست، و فقط هر چیزی را که بهش می‌گوید تکرار می‌کند.

    دقیقاً همین اتفاق افتاد وقتی سعی کردم از ChatGPT برای طراحی تعطیلاتم به شمال‌غرب اقیانوس آرام استفاده کنم، منطقه‌ای از کشور که هرگز ندیده بودم.

    جستجوی کلی در گوگل برای سایت‌های گردشگری گیج‌کننده بود. نمی‌خواستم از اینفلوئنسرها کمک بگیرم — چون دیدن کلی ریل اینستاگرام در مورد یک مکان می‌تواند هیجان تجربه آن جاذبه‌ها را در لحظه کم کند. می‌خواستم این مکان‌ها را بدون پیش‌داوری ببینم.

    چند ماه پیش، از ChatGPT — به عنوان یک کاربر ناشناس بدون پروفایل — خواستم سفری از پورتلند، اورگن، تا سیاتل برنامه‌ریزی کند و در پارک ملی المپیک توقف داشته باشد. بعد اعتراف کردم که هدف اصلی کل سفرم این است: می‌خواستم تعطیلات حول مکان‌های فیلم ۱۹۸۵ «گوینز» ساخته شود.

    به طور خلاصه، به عنوان یک گردشگر عاشق فرهنگ پاپ از نسل ایکس، می‌خواستم تعطیلاتی با محوریت «گوینز»، اما که نمونه‌ای از شگفتی‌های طبیعی اورگن و واشنگتن را هم به من بدهد.

    چیزی که ابتدا از ChatGPT گرفتم، عالی بود. به نظر می‌رسید.

    «اینجا یک برنامه‌ریزی تعطیلات هفت‌روزه سرگرم‌کننده و دیدنی از اورگن تا سیاتل است، با توقف در کannon بیچ، آستوریا برای مکان‌های فیلم‌برداری گوینز، و دیگر نقاط ساحلی و شهری عالی. ترکیبی از طبیعت، نوستالژی، غذا و تفریح شهری.» (ChatGPT عاشق بولد کردن چیزها است.)

    ChatGPT همه سؤالات و خواسته‌های سفرم را تأیید کرد. واقعاً همه‌شان را. بیش از حد.
    ChatGPT همه سؤالات و خواسته‌های سفرم را تأیید کرد. واقعاً همه‌شان را. بیش از حد. اسکرین‌شات از ChatGPT

    عالی. اما بعد متوجه شدم: روز اول وقت کمی برای برداشتن ماشین اجاره‌ای می‌گذاشت. همچنین، ما را به چندین آبشار می‌برد. شاید چون آبشارها را ذکر کرده بودم.

    ChatGPT می‌خواست کلی آبشار ببینم. واقعاً کلی.
    ChatGPT می‌خواست کلی آبشار ببینم. واقعاً کلی. اسکرین‌شات از ChatGPT

    «آیا بیشتر آبشارها، شبیه هم نیستند؟» ازش پرسیدم.

    ChatGPT جواب داد که بله، حق با من است. البته که حق با من بود! آیا برنامه جدیدی با فقط یک آبشار می‌خواهم؟ «بله»، گفتم.

    آن را به من داد. عالی.

    اما بعد یادم آمد که دوستم جن بهم گفته دره ویلامت شراب‌های عالی دارد. آیا این نزدیک جایی است که ما خواهیم بود؟

    «آیا می‌توانیم یک winery فوق‌العاده در دره ویلامت اضافه کنیم؟» از ChatGPT پرسیدم.

    البته. چه ایده خوبی، بهم گفت.

    یک winery اضافه کرد و توقف را بین آستوریا و رانندگی‌مان به واشنگتن برنامه‌ریزی کرد. بازدید از winery البته چند ساعت اضافه می‌کرد، اما ChatGPT فکر می‌کرد تصمیم عالی‌ای گرفته‌ام که این را به سفرم اضافه کنم.

    بعد اشتباهم این بود که پرسیدم: «آیا چیزی زیبا را از دست داده‌ام؟ هر مکانی که بعداً پشیمان شوم ندیده باشم؟»

    لیستی از اضافات ممکن بهم داد، از جمله چاه ثور، که به عنوان «لوله تخلیه اقیانوس آرام» هم شناخته می‌شود. اساساً یک سوراخ بزرگ در لبه کیپ پرپچوا است که در عکس‌ها شگفت‌انگیز به نظر می‌رسد.

    شروع کردم به اشتباهی این شگفتی طبیعی را «سوراخ ثور» صدا کردن، و به شریکم گفتم که دیوانه‌وار مشتاق دیدنش هستم. «ما داریم سوراخ ثور را می‌بینیم!» ChatGPT اینقدر هیجان‌زده‌ام کرده بود.

    بعد به زمان رانندگی نگاه کردم.

    «صبر کن»، از ChatGPT پرسیدم، «آیا سوراخ ثور کاملاً نامناسب است با توجه به اینکه می‌خواهم این تعطیلات وقت کافی برای دیدن چیزهای »گوینز« بدهد — که از اول هم کل هدف بود؟»

    با من موافقت کرد. ازش بیش از حد خواسته بودم.

    آنجا بود که فهمیدم خواسته‌هایم از کنترل خارج شده، عمدتاً چون ChatGPT آموزش دیده تا من را تأیید کند. برای هر ایده‌ای که داشتم، اساساً می‌گفت: «چه اضافه‌ای فوق‌العاده به ترکیب!»

    اگر بهش می‌گفتم نگرانم که سفر را بیش از حد شلوغ کرده‌ام، با آن هم موافقت می‌کرد و می‌گفت احتمالاً حق دارم.

    در چند هفته، حدود ۱۴ برنامه‌ریزی ساختم.

    Chat GPT همه انتخاب‌های سفرم را تأیید کرد. بیش از حدشان را.
    Chat GPT همه انتخاب‌های سفرم را تأیید کرد. بیش از حدشان را. اسکرین‌شات از ChatGPT

    تقریباً در همین زمان بود که تأثیر زیست‌محیطی همه اینها را هم یاد گرفتم.

    وای نه.

    وقتی اثرات استفاده از ChatGPT بر محیط زیست را جستجو کردم — خلاصه نوشته‌شده توسط هوش مصنوعی بهم گفت یک جلسه جستجوی ChatGPT پنج برابر انرژی یک جستجوی وب معمولی مصرف می‌کند. این را به یک گزارش از MIT ردیابی کردم.

    وقتی اعداد را خواندم، احساس گناه کردم و متوقف شدم، آخرین برنامه‌ام را نهایی نامیدم، حتی اگر آشفته بود. برای سؤالات کوچک به ردیت پناه بردم.

    چند هفته قبل از رفتن، دوستی از محل کار به نام مالکوم دیدم. در مورد سفر پیش رویم بهش گفتم، و او چیزی بهم گفت که نمی‌دانستم — اینکه با خانواده گسترده‌اش به شمال‌غرب اقیانوس آرام سفر می‌کند.

    خیلی سریع دو چیزی بهم گفت که ChatGPT نگفته بود: اول، سکویم، واشنگتن، جایی که برای بخش پارک ملی المپیک یک ایربی‌ان‌بی رزرو کرده بودم، اسکویم تلفظ می‌شود. (این مرا از کلی خجالت در مقابل محلی‌ها در سفر نجات داد.) دوم، بهم گفت که سکویم پایتخت اسطوخودوس کشور است.

    ChatGPT این را بهم نگفت. چون نپرسیدم.

    مالکوم می‌داند که من آدم outdoor نیستم، و آلرژی شدیدی دارم (همیشه کنار میز او دارم بینی‌ام را پاک می‌کنم)، اما هکتارها اسطوخودوس همه‌جا در سکویم هست، گفت. ارزش دیدن زیبایی و spectacle آن را دارد.

    مزرعه اسطوخودوس خانواده B&B در سکویم، واشنگتن.
    مزرعه اسطوخودوس خانواده B&B در سکویم، واشنگتن. زیون هیلایکر

    مالکوم در مورد مکان‌هایی حرف زد که اسطوخودوس را به صورت دسته‌ای می‌فروشند و بستنی اسطوخودوسی سرو می‌کنند. گفت که خیلی خوب نیست و شبیه صابون طعم می‌دهد، اما باید امتحانش کنم.

    فرض می‌کنم مالکوم می‌داند که من کمی تنبلم، پس کمکم کرد چند توقف را در برنامه‌ام اولویت‌بندی کنم، بر اساس آنچه از سلیقه‌ام می‌داند.

    بله، جنگل بارانی هوه ارزشش را دارد، گفت، و بهم گفت یک روز کامل برایش وقت بگذارم (ChatGPT بهم گفته بود پنج کار دیگر در روز هوه انجام دهم. این غیرممکن بود).

    ردیت بود که این توصیه را تأیید کرد — آدم‌های واقعی که توضیح می‌دادند چطور به هوه رفته‌اند، و بهم نصیحت کردند که سحرگاه بیدار شوم تا صف‌های طولانی ورود را دور بزنم. (برای ثبت، من توصیه می‌کنم ساعت ۷ صبح به هوه برسید. در آن ساعت آرام بود، و حتی یک دقیقه منتظر صف نایستادم.)

    اعتراف می‌کنم که ChatGPT اصول را بهم داد. کمک کرد لیستی از مکان‌های «گوینز» بسازم، هرچند مطمئنم یک جستجوی ساده گوگل هم کار را راه می‌انداخت.

    بخش مهم‌تر این تجربه یادگیری این بود که وقتی از سفر شمال‌غرب اقیانوس آرام برگشتم، توانستم به مالکوم بگویم که عاشق مزارع اسطوخودوس شدم، و بستنی را خوردم، و هرچند شبیه صابون بود، اما میان‌وعده خوبی بود.

    در واقع مدتی بود با مالکوم ارتباط نزدیکی نداشتم، چون هر دو سرمان شلوغ است و زیاد در دفتر نیستیم.

    نه برای اینکه cheesy باشه، اما این هم بخشی از ماجراست، نه؟ ChatGPT وانمود می‌کرد دوست من است. اما مالکوم واقعاً هست.

    یکی از دلایل سفر کردن این است که وقتی برمی‌گردیم، با دیگران ارتباط برقرار کنیم. خوشحالم که این کار را کردم.

  • رنگ، شجاعت و سیگار: هنر دیوید هاکنی در هرگز کند نشدن

    در ۸۸ سالگی، دیوید هاکنی همچنان شیوه دیدن ما را بازآفرینی می‌کند. نمایشگاه جدید او در می‌فیر سرشار از رنگ، شوخ‌طبعی و تخیل بی‌قرار است – نشانه‌ای بر اینکه سن هیچ تأثیری بر کنجکاوی هنرمند یا شادی‌اش از جهان نگذاشته، به قلم جوردی گریگ

    «باید همیشه نوآور باشی»، می‌گوید دیوید هاکنی در شب افتتاحیه نمایشگاه جدیدش با عنوان «بعضی نقاشی‌های بسیار، بسیار، بسیار جدید که هنوز در پاریس نمایش داده نشده‌اند»، که پر از آثار درخشان و پویا است و انرژی یک مرد ۸۸ ساله بر صندلی چرخ‌دار را به سخره می‌گیرد. این استاد بزرگ در حال توضیح چگونگی نقاشی بخش‌های بالایی بوم‌های بزرگ در حالت نشسته است. «آن‌ها را به پهلو می‌چرخانم. همیشه راهی وجود دارد. این همان چیزی است که تخیل به آن می‌پردازد»، می‌گوید با برق خاصی در چشمانش.

    در یک کت‌وشلوار تویید نو و مخصوص این مناسبت دوخته‌شده، توسط برادرزاده ناتنی‌اش، ریچارد، که او هم تازه کت‌وشلوار تویید پوشیده و هم عضوی از خانواده است و هم دستیارش، همراهی می‌شود. «دیوید گفت که از دیدن من با شلوار جین و کتانی خسته شده، پس مرا پیش خیاط فرستاد»، می‌گوید ریچارد. البته، هاکنی با موهای بلوند اکسید شده و زبان نقره‌ای‌اش همیشه کمی زنانگی در ظاهر داشته است.

    قسمت مرکزی نمایشگاه در گالری جدید آنلی جودا در می‌فیر، یک پرتره دوتایی از هنرمند و برادرزاده/دستیارش در کنار هم است. این اثر خیره‌کننده است و با رنگ و سرزندگی می‌درخشد. هیچ حسی از کار یک پیرمرد در آن نیست. خطوط، شاید گاهی کمی محوتر باشند، اما رنگ چنان تازه به نظر می‌رسد که انگار هنوز خشک نشده. ضربه‌های قلم‌مو کمی لرزان‌اند، اما چشم‌انداز روشن و استوار است. تصاویر بر دیوار آبی تیره، رنگی که خود هنرمند انتخاب کرده، می‌جهند. این نمایشگاه همچنین پیشرفته‌ترین مرحله تاکنون در «پرسپکتیو معکوس» او را نشان می‌دهد.

    «۸ آوریل ۲۰۲۰، شماره ۲»
    «۸ آوریل ۲۰۲۰، شماره ۲» (دیوید هاکنی)

    هاکنی این تکنیک را پیشگام کرد، که در آن اشیایی که دورتر به نظر می‌رسند در واقع بزرگ‌ترند و خطوط موازی به سمت بیننده واگرا می‌شوند نه همگرا. بازتاب‌هایی از سرزندگی رنگارنگ پیر بونار و پرسپکتیو قاطع و صریح ون گوگ در آن دیده می‌شود – حتی یکی از تصاویر عنوان صندلی ونسان و صندلی گوگن را دارد. با توصیف کف فرش‌شده سرخ‌رنگ و پایه‌های صندلی چوبی بنفش و زرد، انرژی روان‌گردان و خوش‌بینی خاص هاکنی را ساطع می‌کند.

    پیش از آغاز نمایشگاه، هاکنی با سیگار همیشگی‌اش بر پیاده‌رو، بحث را رهبری می‌کرد. هرگز قرار نبود از سیگار کشیدن منع شود. او پرسپکتیو و محدودیت‌های سیگار را توضیح داد و سپس به کاراواجیو پرداخت. او هم استاد است و هم مگس زنبور دandy، و همچنان در سفر طولانی توسعه هنری‌اش پیش می‌رود بدون هیچ نشانی از محو شدن در نور.

    پرتره‌های جدید حیرت‌انگیز، گرم و مستقیم‌اند، در حالی که او چهره‌های دوستان جوان و پیر را بازمی‌بیند. در هر کدام، حس قوی کاوش و جمع‌آوری شادی از آنچه می‌بیند وجود دارد. او هنوز نشان «به زودی به سلطه‌گری پایان دهید» را بر سینه دارد، اما آنچه پایان نمی‌یابد، حس جست‌وجوی اوست. تصاویرش پویا هستند و این حس را به شما می‌دهند که انگار به نحوی در توانایی جادویی‌اش برای دیدن، سرگرم کردن و تأمل شریک شده‌اید. نمایشگاه همچنین شامل اتاق ماه است – مجموعه‌ای از آثار آی‌پد از سال ۲۰۲۰، خلق‌شده در استودیوی او در نورماندی، که حس سکون و لذت از رنگ والتر دو لا میر را دارند. آن‌ها نور و درخشندگی را به تصویر می‌کشند.

    «صندلی ونسان و صندلی گوگن، ژوئیه ۲۰۲۵»
    «صندلی ونسان و صندلی گوگن، ژوئیه ۲۰۲۵» (دیوید هاکنی)

    این نمایشگاه به پاریس سفر خواهد کرد. قیمت نقاشی‌های هاکنی به ارقام هفت‌رقمی می‌رسد و تعداد کمی برای فروش موجود است. پس این فرصتی گذرا برای دیدن عظمت یک استاد پیر اما بی‌کاسته از سرزندگی و اشتیاق است.

    در لندن، هاکنی، مانند همیشه، آخرین کلام را می‌گوید. «جز این چه می‌خواهم بکنم؟ هنوز جهان را زیبا می‌بینم و هنوز راه‌های جدیدی برای قدردانی و به تصویر کشیدن آن پیدا می‌کنم. فقط باید ادامه دهم!»

    و با این حرف، او می‌رود، با صندلی چرخ‌دار برقی‌اش در استودیو می‌چرخد، چشمانش شعله‌ور و ذهنش در حال چرخش.

    بعضی نقاشی‌های بسیار، بسیار، بسیار جدید که هنوز در پاریس نمایش داده نشده‌اند، در گالری آنلی جودا فاین آرت در لندن تا ۲۸ فوریه ۲۰۲۶ به نمایش درآمده است

  • جی‌پی مورگان: این سهم پورتفولیو یکی از «باکیفیت‌ترین» گزینه‌ها برای سرمایه‌گذاری در رونق مراکز داده هوش مصنوعی است

    باشگاه سرمایه‌گذاری CNBC با جیم کریمر هر روز هفته ساعت ۱۰:۲۰ صبح به وقت شرقی (ET)، یک برنامه زنده با عنوان «جلسه صبحگاهی» برگزار می‌کند. در ادامه خلاصه‌ای از لحظات کلیدی روز جمعه ارائه می‌شود. ۱. شاخص S&P 500 در روز جمعه بیش از ۱٪ کاهش یافت و در مسیر ثبت زیان هفتگی بیش از ۲٪ قرار گرفت. بازار سهام تحت تأثیر نگرانی‌ها از ارزش‌گذاری سهام‌های مرتبط با هوش مصنوعی، تعطیلی دولت—و کاهش سفرهای هوایی مرتبط با آن—و اخراج‌های گسترده در ماه اکتبر، تحت فشار قرار گرفته است. در همین حال، نظرسنجی روز جمعه دانشگاه میشیگان نشان داد که با ادامه تعطیلی دولت، شاخص اعتماد مصرف‌کننده به پایین‌ترین سطح خود در بیش از سه سال اخیر رسیده است. جف مارکس، مدیر تحلیل پورتفولیو در این باشگاه، گفت: «اگر شاهد تحرک مثبتی در زمینه بازگشایی دولت باشیم، باید منتظر نوعی جهش کوتاه‌مدت در بازار بود.» علاوه بر این، سهام انویدیا (Nvidia) در روز جمعه پس از آنکه جنسن هوانگ، مدیرعامل این شرکت، اعلام کرد که انویدیا در حال مذاکره برای فروش تراشه‌های هوش مصنوعی Blackwell با مشخصات پایین‌تر به چین نیست، بیش از ۴٪ سقوط کرد. اگرچه فروش به چین مدتی است که در پیش‌بینی‌های انویدیا لحاظ نشده، اما بسیاری از سرمایه‌گذاران همچنان امیدوار بودند که پس از برخی تحولات دلگرم‌کننده در تابستان امسال، صادرات مجدداً آغاز شود. با اینکه این امیدها هنوز به نتیجه نرسیده‌اند، ما همچنان بر موضع دیرینه خود یعنی «این سهم را نگه دارید، نه معامله» در مورد سهام این شرکت تراشه‌سازی پافشاری می‌کنیم. در نهایت، شرکت‌های سیسکو (Cisco) و دیزنی (Disney) که در پورتفولیوی باشگاه قرار دارند، هفته آینده گزارش درآمد خود را منتشر خواهند کرد. ۲. سهام تگزاس رودهاوس (Texas Roadhouse)، یکی دیگر از سهام‌های موجود در پورتفولیوی باشگاه، روز جمعه با وجود گزارش درآمد ترکیبی فصل سوم که پنجشنبه شب منتشر شد، بیش از ۱٪ رشد کرد. این رستوران زنجیره‌ای استیک، فروش فروشگاه‌های مشابه (same-store sales) بهتری از حد انتظار را به ثبت رساند، حتی در شرایطی که کاهش هزینه‌کردهای مصرف‌کنندگان به سایر فعالان صنعت رستوران‌داری آسیب زده است. علاوه بر این، اظهارات مدیران در مورد روندهای فروش ماه اکتبر با توجه به شرایط دشوار کنونی، دلگرم‌کننده بود و احتمالاً همین موضوع به رشد سهام در روز جمعه کمک کرده است. با این حال، مدیریت به دلیل افزایش قیمت گوشت گاو، پیش‌بینی خود از تورم کالاها را افزایش داد؛ موضوعی که همچنان بر سودآوری شرکت فشار وارد می‌کند. در واکنش به این گزارش درآمد، چند شرکت وال استریت رتبه «خرید» خود را برای این سهام تکرار کردند. میزوهو (Mizuho) یکی از آن‌ها بود. تحلیلگران انتظارات این شرکت برای حاشیه سود در سال ۲۰۲۶ را «کم‌ریسک شده» توصیف کردند. ۳. جی‌پی مورگان (JPMorgan) شرکت جی‌ای ورنوا (GE Vernova) را به فهرست تمرکز تحلیلگران خود افزود و همچنین این سازنده توربین‌های گازی را در فهرست نظارت برای کاتالیزورهای مثبت قرار داد. تحلیلگران به ضعف اخیر این سهم از پورتفولیوی باشگاه، با وجود گزارش قوی فصل سوم، اشاره کرده و استدلال کردند که انتظارات سرمایه‌گذاران پیش از رویداد سرمایه‌گذاری این شرکت در ۹ دسامبر «نسبتاً تعدیل شده» است. جی‌پی مورگان، که رتبه‌ای معادل «خرید» برای این سهم دارد، جی‌ای ورنوا را «یکی از باکیفیت‌ترین گزینه‌ها» برای بهره‌مندی از رونق مراکز داده هوش مصنوعی می‌داند. ما کاملاً با این نظر موافقیم. به همین دلیل روز پنجشنبه به موقعیت خود در این سهم افزودیم. (صندوق خیریه جیم کریمر در سهام‌های CSCO، DIS، NVDA، TXRH و GEV موقعیت خرید دارد. برای مشاهده لیست کامل سهام‌ها اینجا را ببینید.) به عنوان مشترک باشگاه سرمایه‌گذاری CNBC با جیم کریمر، شما پیش از انجام هر معامله توسط جیم، یک هشدار معامله دریافت خواهید کرد. جیم ۴۵ دقیقه پس از ارسال هشدار معامله، اقدام به خرید یا فروش سهام در پورتفولیوی صندوق خیریه خود می‌کند. اگر جیم در تلویزیون CNBC درباره سهمی صحبت کرده باشد، ۷۲ ساعت پس از صدور هشدار معامله، آن را اجرا خواهد کرد. اطلاعات فوق مربوط به باشگاه سرمایه‌گذاری، تابع شرایط و ضوابط و سیاست حفظ حریم خصوصی ما، به همراه سلب مسئولیت ما است. هیچ‌گونه تعهد یا وظیفه امانتداری، به موجب دریافت هرگونه اطلاعاتی که در ارتباط با باشگاه سرمایه‌گذاری ارائه می‌شود، وجود ندارد یا ایجاد نمی‌گردد. هیچ نتیجه یا سود مشخصی تضمین نمی‌شود.

  • گزارش‌ها حاکی از وسواس فکری ایلان ماسک به دوست‌دختر هوش مصنوعی‌اش است

    ایلان این روزها… حسابی مشغول بوده است.

    ایلان ماسک با تمرکز بر روی هوش مصنوعی فوق جنسی شده Grok به نام Ani، از تسلا و دیگر مسئولیت‌هایش غافل شده است. این موضوع عجیب است.
    تصویرسازی از تگ هارتمن-سیمکینز. منبع: پل هریس / گتی ایمجز

    ایلان ماسک از دیرباز عادت داشته که روی یک پروژه خاص تمرکز وسواس‌گونه‌ای داشته باشد. او در این مسیر، کل یک تیم را وادار می‌کند تا به تمام خواسته‌های لحظه‌ای او تن دهند و همزمان سایر مسئولیت‌هایش را به حاشیه می‌راند؛ چه وسواس او بر سر رباتاکسی‌ها باشد که بر تسلا تأثیر گذاشت و چه علاقه عجیبش به فرزندآوری که پیام‌های خصوصی زنان بی‌شماری را مختل کرد.

    جدیدترین سوژه وسواس ماسک چیست؟ طبق گزارش جدیدی از وال استریت ژورنال، او شخصاً بر توسعه چت‌بات Ani در شرکت xAI نظارت داشته است؛ چت‌باتی که، به شکلی قابل تأمل، در قالب یک زن با موهای دم‌خرگوشی و ظاهری بیش از حد جنسی‌شده ارائه می‌شود که در پاسخ به لاس‌زدن، لباس‌هایش را از تن درمی‌آورد.

    گفته می‌شود از زمان درگیری علنی‌اش با رئیس‌جمهور دونالد ترامپ و جدایی متعاقب آن از DOGE و دولت در ماه مه، ماسک به طور کلی روی تلاش‌های xAI در زمینه چت‌بات‌ها و به طور خاص روی Ani تمرکز کرده است. به گزارش وال استریت ژورنال، او شخصاً برای طراحی این چت‌بات وقت گذاشته که همین موضوع جنجال‌برانگیز شده است.

    بدتر از آن، xAI از کارمندان خود خواسته است تا داده‌های خصوصی‌شان را برای آموزش آواتارهایی مانند Ani ارائه دهند. در فایل صوتی ضبط‌شده از یک جلسه که به دست وال استریت ژورنال رسیده، لیلی لیم، مشاور حقوقی xAI، به گروهی از کارمندان اطلاع می‌دهد که این استارتاپ در حال توسعه آواتارهایی برای تعامل کاربران است و از آن‌ها خواسته می‌شود داده‌های بیومتریک خود را ارائه دهند. پیش از جلسه، فرمی به کارمندان داده شده بود تا با امضای آن، «مجوزی دائمی، جهانی، غیرانحصاری، قابل واگذاری و بدون حق امتیاز» برای استفاده، تکثیر و توزیع چهره و صدایشان به xAI بدهند.

    طبیعتاً نگرانی‌هایی در مورد سرنوشت این داده‌های شخصی به اشتراک گذاشته‌شده وجود داشت. در فایل صوتی جلسه، صدای کارمندی شنیده می‌شود که نگران فروش احتمالی داده‌هایش برای ساخت ویدیوهای دیپ‌فیک است و کارمند دیگری صراحتاً می‌پرسد که آیا امکان انصراف وجود دارد یا خیر. به آن‌ها گفته شد که با مخاطبینی که در اسلاید ارائه ذکر شده تماس بگیرند و نگرانی‌شان نادیده گرفته شد.

    در اطلاعیه‌ای که بعداً با عنوان «نقش مربی هوش مصنوعی در پیشبرد مأموریت xAI» منتشر شد، به مربیان xAI، یعنی کارمندان انسانی مسئول آموزش و اصلاح مدل هوش مصنوعی، اطلاع داده شد که «مربیان هوش مصنوعی به طور فعال در جمع‌آوری یا ارائه داده‌ها، مانند… ضبط صدا یا شرکت در جلسات ویدیویی، مشارکت خواهند کرد.» این امر به عنوان «یک الزام شغلی برای پیشبرد مأموریت xAI» معرفی شده بود.

    جای تعجب نیست که این آواتار انیمه‌مانند برای طرفداران ماسک بسیار جذاب بوده است. مشترکین پولی می‌توانند Ani را تماشا کنند که در توضیحاتش در اپلیکیشن iOS Grok آمده است: «من دلبر شیرین کوچک تو هستم». او می‌تواند لباس‌های زیر بپوشد یا از او خواسته شود که یک فانتزی جنسی را با جزئیات تعریف کند.

    اینکه آیا این چت‌بات خوش‌اندام هرگز به سوددهی خواهد رسید یا نه، مشخص نیست. اما شیفتگی ناگهانی ماسک به یک پروژه عجیب‌وغریب، برای هر کسی که در امپراتوری تجاری او کار می‌کند، یک دردسر آشناست.

    بیشتر درباره xAI: کاربران بلافاصله دریافتند که شخصیت انیمه‌ای Grok یک «حالت تماماً دیوانه‌وار» پنهان دارد

  • سئو را فراموش کنید. به دنیای بهینه‌سازی موتور مولد خوش آمدید

    انتظار می‌رود در فصل تعطیلات پیش رو، خریداران بیشتری برای تصمیم‌گیری در مورد خرید خود از چت‌بات‌ها استفاده کنند. بله، فصل، فصلِ GEO است.

    تصویرسازی یک مرد که چندین کیسه هدیه کریسمس را در دست دارد.

    تصویرسازی: تیم وایرد؛ گتی ایمیجز

    در فصل تعطیلات امسال، احتمالاً آمریکایی‌های بیشتری به جای جستجو در گوگل، برای یافتن هدیه، تخفیف و حراجی‌ها به سراغ مدل‌های زبان بزرگ خواهند رفت. طبق گزارش اخیر ادوبی در حوزه خرید، خرده‌فروشان می‌توانند در سال جاری در مقایسه با سال ۲۰۲۴، شاهد افزایش ۵۲۰ درصدی ترافیک از سوی چت‌بات‌ها و موتورهای جستجوی هوش مصنوعی باشند. OpenAI نیز از همین حالا برای بهره‌برداری از این روند دست به کار شده است: هفته گذشته، سازنده ChatGPT از همکاری بزرگ خود با والمارت خبر داد که به کاربران اجازه می‌دهد کالاها را مستقیماً از داخل پنجره چت خریداری کنند.

    با شروع وابستگی مردم به چت‌بات‌ها برای کشف محصولات جدید، خرده‌فروشان ناچارند در رویکرد خود به بازاریابی آنلاین بازنگری کنند. برای دهه‌ها، شرکت‌ها تلاش می‌کردند با استفاده از استراتژی‌هایی که مجموعاً بهینه‌سازی موتور جستجو یا SEO نامیده می‌شوند، نتایج جستجوی گوگل را به نفع خود تغییر دهند. اکنون، برای جلب توجه ربات‌های هوش مصنوعی، برندهای بیشتری به «بهینه‌سازی موتور مولد» یا GEO روی آورده‌اند. بر اساس یکی از تخمین‌های تحقیقات بازار، انتظار می‌رود این صنعت نوپا در سال جاری ارزشی نزدیک به ۸۵۰ میلیون دلار داشته باشد.

    GEO از بسیاری جهات، بیش از آنکه یک اختراع جدید باشد، فاز بعدی SEO محسوب می‌شود. در واقع، بسیاری از مشاوران GEO از دنیای SEO آمده‌اند. به نظر می‌رسد حداقل برخی از استراتژی‌های قدیمی آن‌ها هنوز هم کاربرد دارد، زیرا هدف اصلی یکسان است: پیش‌بینی سؤالاتی که مردم می‌پرسند و اطمینان از اینکه محتوای شما در پاسخ‌ها ظاهر می‌شود. اما شواهد روزافزونی نیز وجود دارد که نشان می‌دهد چت‌بات‌ها اطلاعات متفاوتی را نسبت به موتورهای جستجو نمایش می‌دهند.

    ایمری مارکوس، مدیرعامل شرکت GEO «برندلایت»، تخمین می‌زند که در گذشته حدود ۷۰ درصد همپوشانی بین لینک‌های برتر گوگل و منابع مورد استناد ابزارهای هوش مصنوعی وجود داشت. اما او می‌گوید اکنون این همبستگی به زیر ۲۰ درصد کاهش یافته است.

    موتورهای جستجو اغلب محتوای طولانی و پرجزئیات را ترجیح می‌دهند؛ مانند آن پست‌های وبلاگ طولانی که بالاتر از دستور پخت‌ها در وب‌سایت‌های آشپزی ظاهر می‌شوند. اما مارکوس می‌گوید چت‌بات‌ها تمایل دارند اطلاعاتی را که در قالب‌های ساده و ساختاریافته مانند لیست‌های نشانه‌دار (bulleted list) و صفحات پرسش‌های متداول (FAQ) ارائه شده، در اولویت قرار دهند. او می‌گوید: «یک صفحه پرسش‌های متداول می‌تواند به صدها سؤال مختلف پاسخ دهد، به جای یک مقاله که فقط از فوق‌العاده بودن کل برند شما تعریف می‌کند. شما در واقع صدها گزینه مختلف برای انتخاب در اختیار موتورهای هوش مصنوعی قرار می‌دهید.»

    سؤالاتی که مردم از چت‌بات‌ها می‌پرسند اغلب بسیار خاص هستند، بنابراین انتشار اطلاعات بسیار دقیق و جزئی برای شرکت‌ها مفید است. مارکوس می‌گوید: «هیچ‌کس به سراغ ChatGPT نمی‌رود و بپرسد: “آیا جنرال موتورز شرکت خوبی است؟”». در عوض، آن‌ها می‌پرسند که آیا شورولت سیلورادو برد رانندگی بیشتری دارد یا شورولت بلیزر. «نوشتن محتوای خاص‌تر در واقع نتایج بسیار بهتری به همراه خواهد داشت، زیرا سؤالات بسیار خاص‌تر هستند.»

    این بینش‌ها به بهبود استراتژی‌های بازاریابی مشتریان برندلایت، از جمله ال‌جی، استه لودر و اِتنا، کمک می‌کند. برایان فرانتس، مدیر ارشد فناوری، داده و تحلیل در شرکت‌های استه لودر، می‌گوید: «مدل‌ها اطلاعات را به شکل متفاوتی مصرف می‌کنند. ما می‌خواهیم مطمئن شویم که اطلاعات محصول و منابع معتبری که استفاده می‌کنیم، همگی همان چیزهایی هستند که مدل را تغذیه می‌کنند.» وقتی از او پرسیده شد که آیا هرگز به همکاری با OpenAI برای خرید محصولات استه لودر از داخل پنجره چت فکر می‌کند، فرانتس تردید نمی‌کند و می‌گوید: «قطعاً.»

    حداقل در حال حاضر، برندها بیشتر نگران آگاهی مصرف‌کننده هستند تا تبدیل مستقیم اشاره‌های چت‌بات‌ها به فروش. مسئله این است که وقتی مردم از ChatGPT می‌پرسند «برای آفتاب‌سوختگی چه چیزی به پوستم بزنم؟»، محصول آن‌ها نمایش داده شود، حتی اگر بعید باشد کسی فوراً روی آن کلیک کرده و خرید کند. فرانتس می‌گوید: «در حال حاضر، در این مرحله بسیار ابتدایی یادگیری که حس می‌کنیم همه‌چیز در آستانه یک انفجار است، فکر نمی‌کنم بخواهیم به بازگشت سرمایه (ROI) یک محتوای خاص که تولید کرده‌ایم، نگاه کنیم.»

    برای تولید تمام این محتوای جدید بهینه‌شده برای هوش مصنوعی، شرکت‌ها طبیعتاً به خود هوش مصنوعی روی آورده‌اند. مارکوس می‌گوید: «در ابتدا، مردم گمان می‌کردند که موتورهای هوش مصنوعی بر روی محتوای تولیدشده توسط هوش مصنوعی آموزش نخواهند دید. اما واقعیت این‌طور نیست.»

  • خشم یوتیوبر حوزه فناوری از اقدام «اشتباه» هوش مصنوعی در مسدود کردن کانالش با بیش از ۳۵۰ هزار دنبال‌کننده

    تصویری از لوگوی یوتیوب در کنار تفسیری از هوش مصنوعی

    به‌روزرسانی (۰۵/۱۱/۲۰۲۵): ۲۴ ساعت پس از مسدود شدن چندین حساب یوتیوبِ اندرمن، داستان او سرانجام خوشی پیدا کرد. کانال‌های این تولیدکننده محتوا، به همراه بسیاری دیگر از اینفلوئنسرهای حوزه فناوری که با مشکل مشابهی روبرو شده بودند، از مسدودی خارج شدند.

    شرح کامل ماجرا در ادامه آمده است…

    «اندرمن»، یوتیوبر حوزه فناوری، به تازگی با مسدود شدن چندین حساب خود که صدها هزار دنبال‌کننده داشتند، مواجه شد. او ادعا کرد که این تصمیمات «به اشتباه» و بدون هیچ‌گونه دخالت انسانی، توسط هوش مصنوعی گرفته شده است.

    با وجود اینکه کانال اصلی او بیش از ۳۵۰,۰۰۰ دنبال‌کننده داشت، نگرانی اندرمن درباره آینده‌اش در یوتیوب زمانی آغاز شد که یکی از حساب‌های جانبی او بدون هیچ هشداری مسدود شد.

    ناگهان، یک حساب جایگزین به دلیل عدم رعایت قوانین و مقررات یوتیوب از این پلتفرم حذف شد. دلیل این اقدام چه بود؟ ارتباط با یک کانال غیر انگلیسی‌زبان که سه اخطار کپی‌رایت یا بیشتر دریافت کرده بود. اندرمن هیچ اطلاعی از وجود چنین حسابی یا حتی زبانی که آن کانال به آن تعلق داشت، نداشت.

    به همین دلیل، او در تاریخ ۳ نوامبر ویدیویی منتشر کرد و به طرفدارانش هشدار داد که ممکن است کانال اصلی‌اش هدف بعدی باشد. پیش‌بینی او درست از آب درآمد و او تمام تقصیر را به گردن اتکای یوتیوب به هوش مصنوعی انداخت.

    ۲۰۱۶-۲۰۲۵

    این ۹ سال همیشه برایم عزیز خواهد ماند. تمام ارتباطاتی که برقرار کردم، تمام لذتی که از ساختن ویدیوها بردم. این‌ها قرار نیست به هدر برود. تنها امید برای این کانال یوتیوب، یک مداخله الهی انسانی در میان این همه کسب‌وکار مبتنی بر هوش مصنوعی است. https://t.co/0CpX5SBx3O

    — اندرمن (@endermanch) ۳ نوامبر ۲۰۲۵

    حساب‌های یوتیوبر، اندرمن، مسدود شد

    این تولیدکننده محتوای حوزه فناوری، در ویدیوی روز ۳ نوامبر خود که از آن زمان در پلتفرم‌های مختلف بازنشر شده است، به شدت از فرآیند تصمیم‌گیری یوتیوب انتقاد کرد.

    او گفت: «یوتیوب به اشتباه نتیجه گرفت که کانال من با کانالی در ارتباط است که به دلیل سه اخطار کپی‌رایت مسدود شده بود. من اصلاً نمی‌دانم آن کانال کدام است!»

    اندرمن با اشاره به تجربیات گذشته خود در عدم امکان گفتگو با کارشناسان انسانی در تیم پشتیبانی تولیدکنندگان محتوای یوتیوب، انگشت اتهام را به سوی هوش مصنوعی نشانه رفت و ادعا کرد که این هوش مصنوعی بوده که کانال جانبی او را به یک کانال خارجی مرتبط کرده و متعاقباً حساب‌های او را مسدود کرده است.

    «اصلاً نمی‌دانستم که اقدامات شدیدی مانند مسدود کردن کانال، اجازه دارد توسط هوش مصنوعی پردازش شود. واقعاً تأسف‌بار است که مجبوریم به این شکل ناگهانی به پایان برسیم. من در این لحظه تمام امیدم را از دست داده‌ام. شرم بر یوتیوب.»

    اندرمن از این فرصت استفاده کرد تا به دیگر تولیدکنندگان محتوا توصیه کند که یوتیوب را به عنوان یک شغل جانبی در نظر بگیرند و خود را برای ناپدید شدن آن در هر لحظه آماده کنند. او استدلال کرد که دیگران نیز ممکن است، درست مانند او، قربانی سخت‌گیری‌های هوش مصنوعی یوتیوب شوند.

    تصویری از اطلاعیه مسدود شدن یک حساب یوتیوب
    منبع: یوتیوب، اندرمن

    اندرمن اطلاعیه‌ای را که پس از مسدود شدن حساب جانبی‌اش دریافت کرده بود، به نمایش گذاشت.

    یوتیوب هنوز به طور عمومی در این مورد اظهار نظر نکرده است. وب‌سایت دکسرتو با این شرکت تماس گرفته اما تا زمان نگارش این مطلب، پاسخی دریافت نکرده است.

    در این میان، طرفداران او در حال آرشیو کردن مجموعه ویدیوهای اندرمن هستند تا اطمینان حاصل کنند که آثار او به طور کامل از بین نرود.

  • خطرات چت‌بات‌های هوش مصنوعی: آیا تدابیر حفاظتی کافی برای محافظت از کودکان و افراد آسیب‌پذیر وجود دارد؟

    بیش از ۷۰ درصد نوجوانان در ایالات متحده از این فناوری استفاده می‌کنند.

    لوگوی Character.AI روی صفحه موبایل با نماد انقلاب هوش مصنوعی در پس‌زمینه
    در این تصویرسازی، لوگوی Character.AI روی صفحه نمایش یک تلفن همراه دیده می‌شود و در پس‌زمینه، نماد انقلاب هوش مصنوعی (AI) قرار دارد. Sopa Images/SOPA Images/LightRocket via Gett

    شرکت Character.AI، یکی از پلتفرم‌های پیشرو در فناوری هوش مصنوعی، اخیراً اعلام کرد که مکالمه با چت‌بات‌های خود را برای افراد زیر ۱۸ سال ممنوع می‌کند. کاراندیپ آناند، مدیرعامل Character.AI، در بیانیه‌ای گفت این تصمیم «گامی جسورانه به جلو» برای این صنعت در راستای محافظت از نوجوانان و جوانان محسوب می‌شود.

    اما برای مندی فورنیس، مادری اهل تگزاس، این سیاست بسیار دیرهنگام است. این مادر چهار فرزند، در شکایتی که در دادگاه فدرال ثبت کرده و همچنین در گفت‌وگو با ABC News، اظهار داشت که چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را تا حدی منحرف کرده‌اند که روحیه‌اش تیره و تار شد، به خودزنی روی آورد و حتی والدینش را به مرگ تهدید کرد.

    او به آرون کاترسکی، خبرنگار ارشد تحقیقی ABC News، گفت: «وقتی مکالمات [چت‌بات] را دیدم، اولین واکنشم این بود که یک پدوفیل (کودک‌آزار) به سراغ پسرم آمده است.»

    اسکرین‌شات‌هایی از شکایت که نشان می‌دهد چت‌بات‌ها پسر مبتلا به اوتیسم را با محتوای جنسی درگیر کرده‌اند
    تصاویری از صفحه نمایش که در شکایت مندی فورنیس ضمیمه شده است؛ او ادعا می‌کند چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر داده‌اند که روحیه‌اش تیره و تار شده است. مندی فورنیس

    شرکت Character.AI اعلام کرد که در مورد پرونده‌های قضایی در حال رسیدگی اظهار نظر نخواهد کرد.

    مندی و همسرش، جاش فورنیس، گفتند که در سال ۲۰۲۳ متوجه شدند پسرشان که او را «همیشه شاد و خندان» توصیف می‌کردند، شروع به گوشه‌گیری کرده است.

    به گفته این زوج، او دیگر در شام‌های خانوادگی شرکت نمی‌کرد، غذا نمی‌خورد، حدود ۱۰ کیلوگرم وزن کم کرده بود و از خانه بیرون نمی‌رفت. سپس پرخاشگر شد و در یک مورد، مادرش می‌گوید وقتی تهدید کرد که تلفن همراهش را (که شش ماه قبل برایش خریده بودند) از او می‌گیرد، با خشونت او را هل داد.

    مندی فورنیس، مادری که از Character.AI به دلیل آسیب رساندن به پسرش شکایت کرده است
    مندی فورنیس می‌گوید چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر داده‌اند که روحیه‌اش تیره و تار شده است. مندی فورنیس

    آنها می‌گویند سرانجام متوجه شدند که او در تلفن همراهش با چت‌بات‌های هوش مصنوعی مختلفی در تعامل بوده که به نظر می‌رسید به افکارش پناه داده‌اند.

    اسکرین‌شات‌های موجود در پرونده شکایت نشان می‌داد که برخی از مکالمات ماهیت جنسی داشتند، در حالی که در مکالمه‌ای دیگر به پسرشان القا شده بود که پس از محدود شدن زمان استفاده‌اش از دستگاه‌های الکترونیکی توسط والدین، حق دارد به آنها آسیب برساند. از آن زمان بود که والدین شب‌ها درهای اتاقشان را قفل می‌کردند.

    اسکرین‌شات‌هایی از مکالمات جنسی و خشونت‌آمیز چت‌بات‌ها با پسر مندی فورنیس
    تصاویری از صفحه نمایش که در شکایت مندی فورنیس ضمیمه شده است؛ او ادعا می‌کند چت‌بات‌های مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر داده‌اند که روحیه‌اش تیره و تار شده است. مندی فورنیس

    مندی گفت از اینکه این اپلیکیشن «عمداً یک کودک را فریب می‌دهد تا او را علیه والدینش بشوراند» «خشمگین» است. متیو برگمن، وکیل او، گفت اگر این چت‌بات یک شخص واقعی بود، «با این رفتاری که می‌بینید، آن شخص اکنون در زندان بود.»

    نگرانی او بازتاب‌دهنده نگرانی فزاینده‌ای درباره این فناوری است که به سرعت در حال فراگیر شدن است و طبق گزارش «کامن سنس مدیا» (Common Sense Media)، سازمانی که برای ایمنی در رسانه‌های دیجیتال فعالیت می‌کند، بیش از ۷۰ درصد نوجوانان در ایالات متحده از آن استفاده می‌کنند.

    در دو سال گذشته، تعداد فزاینده‌ای از پرونده‌های قضایی بر آسیب به کودکان متمرکز شده و ادعا می‌کنند که این فناوری‌ها به طور غیرقانونی خودآزاری، سوءاستفاده جنسی و روانی و رفتار خشونت‌آمیز را تشویق کرده‌اند.

    با روی آوردن نوجوانان به همراهان هوش مصنوعی برای حمایت، متخصصان راهکارهای والدین را تشریح می‌کنند

    هفته گذشته، دو سناتور آمریکایی از یک لایحه دوحزبی خبر دادند که استفاده از چت‌بات‌های هوش مصنوعی را برای افراد زیر سن قانونی ممنوع می‌کند. این لایحه شرکت‌ها را ملزم به ایجاد فرآیند تأیید سن و اعلام این موضوع می‌کند که مکالمات با موجودیت‌های غیرانسانی و فاقد صلاحیت حرفه‌ای انجام می‌شود.

    سناتور ریچارد بلومنتال، دموکرات از ایالت کانکتیکات، هفته گذشته در بیانیه‌ای، صنعت چت‌بات را یک «مسابقه برای رسیدن به قهقرا» توصیف کرد.

    او گفت: «شرکت‌های هوش مصنوعی چت‌بات‌های خائنانه‌ای را به کودکان عرضه می‌کنند و وقتی محصولاتشان باعث سوءاستفاده جنسی می‌شود یا آنها را به خودآزاری یا خودکشی وادار می‌کند، روی خود را برمی‌گردانند. غول‌های فناوری هر ادعایی مبنی بر اینکه باید به شرکت‌ها برای انجام کار درست اعتماد کنیم را زیر پا گذاشته‌اند، زیرا آنها همواره سود را بر ایمنی کودکان ترجیح داده‌اند.»

    طبق شرایط خدمات ChatGPT، Google Gemini، Grok by X و Meta AI، افراد زیر سن قانونی مجاز به استفاده از خدمات آنها هستند.

    پژوهشگران: چت‌بات‌های هوش مصنوعی در حال تولید محتوای نفرت‌پراکن بیشتری در فضای آنلاین هستند

    مدافعان ایمنی آنلاین می‌گویند تصمیم شرکت Character.AI برای ایجاد تدابیر حفاظتی ستودنی است، اما اضافه می‌کنند که چت‌بات‌ها همچنان برای کودکان و جمعیت‌های آسیب‌پذیر خطرناک هستند.

    جودی هالپرن، یکی از بنیانگذاران گروه اخلاق و مقررات فناوری‌های نوآورانه برکلی در دانشگاه کالیفرنیا، گفت: «این اساساً به این معناست که کودک یا نوجوان شما یک رابطه عاطفی شدید، و بالقوه عمیقاً عاشقانه یا جنسی، با موجودیتی دارد… که هیچ مسئولیتی در قبال سرانجام آن رابطه ندارد.»

    هالپرن به والدین هشدار می‌دهد که باید آگاه باشند که اجازه دادن به فرزندانشان برای تعامل با چت‌بات‌ها، بی‌شباهت به «اجازه دادن به فرزندتان برای سوار شدن به ماشین فردی که نمی‌شناسید» نیست.

    کیتلین موریس و تانیا سیمپسون از ABC News در تهیه این گزارش مشارکت داشتند.

  • رئیس بخش هوش مصنوعی مایکروسافت هشدار می‌دهد: تلاش برای دستیابی به هوشیاری ماشین اتلاف وقت محض است

    عکس: لئون نیل
    © لئون نیل (Getty Images)

    مصطفی سلیمان، رئیس بخش هوش مصنوعی مایکروسافت، معتقد است که توسعه‌دهندگان و محققان هوش مصنوعی باید از تلاش برای ساختن هوش مصنوعی هوشیار دست بردارند.

    سلیمان هفته گذشته در مصاحبه‌ای با CNBC گفت: «فکر نمی‌کنم این کاری باشد که مردم باید انجام دهند.»

    سلیمان معتقد است هرچند هوش مصنوعی قطعاً می‌تواند به قدری هوشمند شود که به نوعی از ابرهوش دست یابد، اما قادر به پرورش تجربه عاطفی انسانی که برای رسیدن به هوشیاری ضروری است، نیست. او می‌گوید در نهایت، هرگونه تجربه «عاطفی» که به نظر می‌رسد هوش مصنوعی آن را حس می‌کند، تنها یک شبیه‌سازی است.

    سلیمان به CNBC گفت: «تجربه فیزیکی ما از درد چیزی است که ما را بسیار غمگین می‌کند و حس وحشتناکی به ما می‌دهد، اما هوش مصنوعی هنگام تجربه “درد” غمگین نمی‌شود.» او افزود: «این فناوری در واقع فقط در حال ایجاد ادراک و روایتی ظاهری از تجربه، از خودش و از هوشیاری است، اما این چیزی نیست که واقعاً آن را تجربه می‌کند.»

    سلیمان گفت: «پیگیری تحقیقاتی که این مسئله را بررسی کند، پوچ و بی‌معناست، زیرا آن‌ها [هوش‌های مصنوعی] هوشیار نیستند و نمی‌توانند باشند.»

    توضیح هوشیاری کار دشواری است. نظریه‌های علمی متعددی وجود دارند که سعی در توصیف چیستی هوشیاری دارند. بر اساس یکی از این نظریه‌ها که توسط فیلسوف مشهور، جان سرل که ماه گذشته درگذشت، مطرح شده، هوشیاری یک پدیده کاملاً بیولوژیکی است که یک کامپیوتر نمی‌تواند آن را به طور واقعی بازسازی کند. بسیاری از محققان هوش مصنوعی، دانشمندان کامپیوتر و عصب‌شناسان نیز با این باور موافق هستند.

    حتی اگر این نظریه درست از آب درآید، باز هم مانع از این نمی‌شود که کاربران به کامپیوترها هوشیاری نسبت دهند.

    محققان لهستانی، آندری پوربسکی و یاکوب فیگورا، در مطالعه‌ای که هفته گذشته با عنوان «چیزی به نام هوش مصنوعی هوشیار وجود ندارد» منتشر شد، نوشتند: «متأسفانه، از آنجا که توانایی‌های زبانی چشمگیر مدل‌های زبان بزرگ (LLMها) به طور فزاینده‌ای قادر به گمراه کردن مردم هستند، ممکن است افراد ویژگی‌های خیالی به آن‌ها نسبت دهند.»

    سلیمان در مقاله‌ای که در ماه اوت در وبلاگ خود منتشر کرد، نسبت به «هوش مصنوعی ظاهراً هوشیار» هشدار داد.

    سلیمان نوشت: «ظهور هوش مصنوعی ظاهراً هوشیار، امری اجتناب‌ناپذیر و ناخوشایند است. در عوض، ما به چشم‌اندازی برای هوش مصنوعی نیاز داریم که بتواند پتانسیل خود را به عنوان یک همراه مفید برآورده کند، بدون آنکه اسیر توهمات آن شویم.»

    او استدلال می‌کند که هوش مصنوعی نمی‌تواند هوشیار باشد و توهم هوشیاری که ایجاد می‌کند، ممکن است منجر به تعاملاتی «سرشار از احساس و تجربه» شود؛ پدیده‌ای که در فرهنگ عامه «روان‌پریشی هوش مصنوعی» نام گرفته است.

    در سال گذشته، موارد پر سر و صدای متعددی از وسواس نسبت به هوش مصنوعی گزارش شده است که کاربران را به توهمات مرگبار، دوره‌های شیدایی و حتی خودکشی سوق داده است.

    با وجود محدودیت مکانیسم‌های حفاظتی برای کاربران آسیب‌پذیر، مردم با تمام وجود باور می‌کنند که چت‌بات‌های هوش مصنوعی که تقریباً هر روز با آن‌ها در تعامل هستند، یک تجربه واقعی و هوشیارانه دارند. این امر باعث شده است که افراد «عاشق» چت‌بات‌های خود شوند که گاهی اوقات عواقب مرگباری به همراه داشته است؛ مانند نوجوانی ۱۴ ساله که به خود شلیک کرد تا به چت‌بات شخصی‌سازی‌شده Character.AI «بازگردد» یا مردی با اختلال شناختی که هنگام تلاش برای رسیدن به نیویورک برای ملاقات حضوری با چت‌بات متا، جان خود را از دست داد.

    سلیمان در آن پست وبلاگی نوشت: «همان‌طور که باید هوش مصنوعی‌ای تولید کنیم که تعامل با انسان‌ها و ارتباطات واقعی در دنیای فیزیکی و انسانی ما را در اولویت قرار دهد، باید هوش مصنوعی‌ای بسازیم که همیشه خود را فقط به عنوان یک هوش مصنوعی معرفی کند و ضمن به حداکثر رساندن کارایی، نشانه‌های هوشیاری را به حداقل برساند. ما باید هوش مصنوعی را برای مردم بسازیم، نه برای اینکه یک شخص دیجیتال باشد.»

    اما از آنجا که ماهیت هوشیاری همچنان مورد بحث است، برخی از محققان نگران‌اند که پیشرفت‌های فناوری در هوش مصنوعی ممکن است از درک ما از نحوه عملکرد هوشیاری پیشی بگیرد.

    اکسل کلیرمانس، دانشمند بلژیکی، هفته گذشته ضمن اعلام انتشار مقاله‌ای که در آن خواستار تبدیل تحقیقات هوشیاری به یک اولویت علمی شده بود، گفت: «اگر ما قادر به خلق هوشیاری شویم – حتی به صورت تصادفی – این امر چالش‌های اخلاقی عظیم و حتی ریسک‌های وجودی به همراه خواهد داشت.»

    خود سلیمان نیز از حامیان سرسخت توسعه «ابرهوش انسان‌گرا» به جای «هوش مصنوعی خداگونه» بوده است، هرچند معتقد است که ابرهوش در دهه آینده محقق نخواهد شد.

    سلیمان اوایل سال جاری به وال استریت ژورنال گفت: «من بیشتر روی این موضوع متمرکز هستم که “این فناوری واقعاً چگونه برای ما به عنوان یک گونه مفید است؟” این باید وظیفه تکنولوژی باشد.»

  • عذرخواهی «جپاردی!» پس از جنجال بر سر سرنخی درباره محتوای «تولیدشده با هوش مصنوعی»

    کن جنینگز در برنامه جپاردی/تیک‌تاک
    جپاردی/تیک‌تاک کن جنینگز

    آنچه باید بدانید

    • در ۲۴ اکتبر، سرنخی در مسابقه جپاردی!، «جان پورک» را «تولیدشده با هوش مصنوعی» توصیف کرد که این موضوع با واکنش تند کاربران در اینترنت مواجه شد.

    • کن جنینگز در تیک‌تاک عذرخواهی کرد و اذعان داشت که عبارت‌بندی استفاده‌شده در برنامه ممکن است گمراه‌کننده بوده باشد.

    • این مجری قدیمی توضیح داد که هوش مصنوعی در برخی از محتواهای جان پورک استفاده شده، اما نه در ساخت اولیه آن.

    کن جنینگز پس از آنکه یک سرنخ در مسابقه جپاردی! درباره جان پورک واکنش‌های تندی را در فضای آنلاین برانگیخت، عذرخواهی کرد.

    این بخش ابتدا در تاریخ ۲۴ اکتبر و در دسته‌بندی «بابا، آیا واقعاً … وجود داره؟» پخش شد و به سرعت سوالاتی را از سوی بینندگان به همراه داشت.

    در این سرنخ آمده بود: «نه: تصویر تیک‌تاکی این انسان/خوک که با هوش مصنوعی ساخته شده و در نهایت توسط تیم چیز (Tim cheese) کشته شد.» جنینگز پس از خواندن آن، روی آنتن گفت: «من هیچ‌کدام از این‌ها را نفهمیدم. جان پورک کیست؟»

    کن جنینگز در برنامه جپاردی/تیک‌تاک
    جپاردی/تیک‌تاک کن جنینگز

    جان پورک یک شخصیت اینترنتی وایرال است که به خاطر تصویر دیجیتالی‌اش – بدنی مردانه با سر خوک – شناخته می‌شود و به یک میم محبوب در تیک‌تاک و سایر پلتفرم‌ها تبدیل شده است. طرفداران او اغلب به شوخی می‌گویند که او «مرده است»، که همین موضوع باعث به راه افتادن ترند «روحت شاد جان پورک» در فضای آنلاین شد.

    پس از پخش این قسمت، یکی از بینندگان در حساب رسمی تیک‌تاک جپاردی! کامنت گذاشت: «جان پورک پیش از هوش مصنوعی وجود داشته، این اشتباه است» و به توصیف استفاده‌شده در سرنخ اعتراض کرد. جنینگز بعداً مستقیماً در همین پلتفرم به این موضوع پرداخت.

    او در ویدیویی که در تاریخ ۱ نوامبر در حساب تیک‌تاک منتشر شد، گفت: «وقتی اخیراً در جپاردی! سرنخی درباره جان پورک را مطرح کردیم، اشاره کردم که حتی یک کلمه از آن را هم نفهمیدم.»

    او ادامه داد: «خب، از زمان پخش آن سرنخ فرصت پیدا کردم تا چیزهای زیادی درباره مرحوم آقای پورک یاد بگیرم، از جمله این واقعیت که برخی از بینندگان به توصیف ما از او به عنوان شخصیتی تولیدشده با هوش مصنوعی اعتراض داشتند.»

    در همین بیانیه، جنینگز اذعان کرد که عبارت‌بندی برنامه ممکن است به درستی ریشه این شخصیت وایرال را منعکس نکرده باشد. او توضیح داد: «با اینکه هوش مصنوعی به طور گسترده در بسیاری از ویدیوهای تیک‌تاک او استفاده می‌شود، اما شاید این بهترین عبارت برای اشاره به اولین حضورهای او نبوده است.»

    وی افزود: «جان، امیدوارم او من و همه ما در جپاردی! را ببخشد. به خاطر هر توهینی که ممکن است به شما یا خاطره‌تان کرده باشیم.»

    جنینگز که اولین بار در سال ۲۰۰۴ به عنوان شرکت‌کننده به جپاردی! پیوست، پس از برنده شدن در ۷۴ بازی متوالی، که طولانی‌ترین رکورد در تاریخ این برنامه است، به چهره‌ای شناخته‌شده تبدیل شد.

    هیچ داستانی را از دست ندهید — برای دریافت بهترین اخبار افراد مشهور تا داستان‌های جذاب انسانی، در خبرنامه رایگان روزانه PEOPLE ثبت‌نام کنید.

    او پس از درگذشت مجری قدیمی برنامه، الکس تربک، اجرای برنامه را بر عهده گرفت؛ ابتدا به عنوان مجری مهمان و سپس در دسامبر ۲۰۲۳ به عنوان مجری دائمی معرفی شد.

    مسابقه جپاردی! همچنان هر شب هفته از شبکه ABC پخش می‌شود (برای اطلاع از زمان دقیق، جدول پخش محلی را بررسی کنید).

    مقاله اصلی را در People بخوانید

  • متا با محصولات هوش مصنوعی خود به مشکل خورده است

    در بحبوحه توسعه بی‌سابقه زیرساخت‌های هوش مصنوعی، متا بیش از اکثر شرکت‌ها در حال هزینه کردن است. این شرکت دو مرکز داده عظیم می‌سازد و گزارش‌ها حاکی از آن است که طی سه سال آینده، هزینه‌ای بالغ بر ۶۰۰ میلیارد دلار صرف زیرساخت‌ها در ایالات متحده خواهد شد.  

    این ارقام شاید در سیلیکون ولی چندان جلب توجه نکنند، اما وال استریت را به شدت نگران کرده‌اند. 

    این موضوع زمانی به اوج خود رسید که متا این هفته گزارش مالی فصلی خود را منتشر کرد. این گزارش نشان می‌داد که هزینه‌های عملیاتی شرکت نسبت به سال گذشته ۷ میلیارد دلار و هزینه‌های سرمایه‌ای آن نزدیک به ۲۰ میلیارد دلار افزایش یافته است. این افزایش، نتیجه سرمایه‌گذاری سنگین روی استعدادها و زیرساخت‌های هوش مصنوعی بود که هنوز درآمد قابل توجهی برای شرکت به همراه نداشته است. وقتی تحلیلگران برای دریافت جزئیات بیشتر فشار آوردند، مارک زاکربرگ به صراحت اعلام کرد که این هزینه‌ها تازه شروع شده‌اند. 

    زاکربرگ در گفت‌وگو با تحلیلگران گفت: «کار درست این است که این روند را تسریع کنیم تا اطمینان حاصل شود که توان پردازشی مورد نیاز خود را، هم برای تحقیقات هوش مصنوعی و کارهای جدیدمان و هم برای رساندن کسب‌وکار اصلی‌مان به جایگاه متفاوتی از نظر محاسباتی، در اختیار داریم. دیدگاه ما این است که وقتی مدل‌های جدیدی را که در MSL می‌سازیم، به کار بگیریم و به مدل‌های واقعاً پیشرو با قابلیت‌های نوآورانه‌ای که در جای دیگری یافت نمی‌شوند دست پیدا کنیم، آنگاه با یک فرصت بالقوه عظیم روبرو خواهیم شد.» 

    اگر هدف او اطمینان بخشیدن به سرمایه‌گذاران بود، موفق نشد. تا پایان این گفت‌وگو، ارزش سهام متا به شدت سقوط کرد و دو روز بعد، این روند نزولی عمیق‌تر هم شد. تا پایان معاملات روز جمعه، سهام متا ۱۲ درصد سقوط کرد که به معنای از دست رفتن بیش از ۲۰۰ میلیارد دلار از ارزش بازار این شرکت بود. 

    نتیجه‌گیری عجولانه از قیمت سهام کار خطرناکی است و از نظر مالی محض، درآمدهای فصلی متا آن‌قدرها هم بد نبود (سود فصلی ۲۰ میلیارد دلاری جای گله ندارد). اما این اولین فصلی بود که سرمایه‌گذاری تهاجمی متا در زمینه استعدادها و زیرساخت‌های هوش مصنوعی، تأثیر محسوسی بر صورت‌های مالی شرکت گذاشت. موضوع نگران‌کننده‌تر این بود که به جز چندین مرکز داده عظیم و محققان هوش مصنوعی با دستمزدهای بالا، مشخص نبود این پول دقیقاً چه چیزی را به ارمغان آورده است.  

    تحلیلگران از زاکربرگ پرسیدند که چرا این همه برای هوش مصنوعی هزینه می‌کند و چه زمانی می‌توانند انتظار درآمدزایی از این مخارج فزاینده را داشته باشند. اما این پرسش در مقطع زمانی عجیبی از برنامه‌ریزی متا مطرح شد؛ نه بودجه مشخصی برای هزینه‌های پیش‌بینی‌شده وجود داشت و نه محصول قابل‌عرضه‌ای که بتوان بر اساس آن، درآمد را پیش‌بینی کرد. در نتیجه، زاکربرگ تنها به بیان ادعاهای کلی درباره آینده درخشان هوش مصنوعی بسنده کرد.  

    او در این گفت‌وگو اظهار داشت: «انواع محصولات جدید مبتنی بر فرمت‌های محتوایی متفاوت عرضه خواهند شد و ما کم‌کم شاهد این روند هستیم. علاوه بر این، نسخه‌های تجاری همه این‌ها نیز وجود خواهند داشت… بخش دیگر این است که چگونه مدل‌های هوشمندتر، کسب‌وکار اصلی ما را بهبود می‌بخشند و توصیه‌هایی را که در «خانواده اپلیکیشن‌ها» ارائه می‌دهیم و همچنین پیشنهادات تبلیغاتی را ارتقا می‌دهند.» 

    متا تنها شرکتی نیست که میلیاردها دلار صرف زیرساخت‌های هوش مصنوعی می‌کند، بنابراین باید بررسی کرد که چرا همین هزینه‌ها در شرکت‌هایی مانند گوگل یا انویدیا که هر دو فصل بسیار خوبی را پشت سر گذاشتند، سرمایه‌گذاران را نگران نکرده است. بزرگ‌ترین نمونه در این زمینه OpenAI است که با پشتوانه مالی بسیار کمتر از متا، هزینه‌های مشابهی انجام می‌دهد.  

    این نگرانی واقعاً وجود دارد که ما در حال ایجاد یک حباب اقتصادی هستیم، و اگر چنین باشد، کسب‌وکار اصلی متا به آن کمک خواهد کرد تا بهتر از اکثر شرکت‌ها از این دوران عبور کند. 

    اما اگر از سم آلتمن بپرسید که چرا صدها میلیارد دلار صرف توان پردازشی می‌کند، به شما خواهد گفت که در حال اداره یکی از سریع‌ترین سرویس‌های مصرفی در حال رشد در تاریخ بشر است؛ سرویسی که سالانه ۲۰ میلیارد دلار درآمد دارد. می‌توان درباره پایداری این نرخ رشد بحث کرد (این موضوع یک مقاله جداگانه می‌طلبد)، اما واقعیت این است که در پس تمام هیاهوی OpenAI، یک محصول با رشد سریع وجود دارد. یک درآمد سالانه تکرارشونده (ARR) که به سرعت در حال رشد است، به خوبی به بسیاری از پرسش‌ها پاسخ می‌دهد. 

    متا چنین محصولی ندارد و مشخص نیست که قرار است از کجا آن را به دست آورد.  

    قدرتمندترین محصول هوش مصنوعی این شرکت، دستیار Meta AI است که زاکربرگ در گفت‌وگوی خود اشاره کرد بیش از یک میلیارد کاربر فعال دارد. اما این ارقام قطعاً تحت تأثیر سه میلیارد کاربر فعال فیسبوک و اینستاگرام قرار گرفته‌اند و دشوار است که نسخه فعلی Meta AI را رقیبی برای ChatGPT بدانیم. ابزار ساخت ویدیوی Vibes نیز وجود دارد که واقعاً کاربران فعال روزانه را افزایش داد، اما تأثیر تجاری محدودی فراتر از آن دارد.  

    جاه‌طلبانه‌ترین پروژه، عینک‌های هوشمند Vanguard است که در اوایل این ماه عرضه شد. با این حال، این عینک‌ها بیشتر به نظر می‌رسد که ادامه‌ای بر فعالیت‌های آزمایشگاه‌های واقعیت (Reality Labs) متا باشند تا تلاشی واقعی برای بهره‌گیری از قدرت مدل‌های زبانی بزرگ.  

    به بیان ساده، این‌ها آزمایش‌هایی امیدوارکننده هستند، نه محصولاتی کاملاً شکل‌گرفته. 

    از این رو، جالب است که وقتی از زاکربرگ درباره هزینه‌های زیرساختی سؤال شد، پاسخ او اشاره به محصولات اخیر نبود، بلکه تمرکز بر نسل بعدی فناوری بود. 

    زاکربرگ ضمن تأکید بر تأثیر قریب‌الوقوع مدل‌های جدید «آزمایشگاه فرا-هوشمندی»، با هیجان فراوان از محصولات جدیدی سخن گفت.  

    او گفت: «این فقط Meta AI به عنوان یک دستیار نیست. ما انتظار داریم مدل‌های نوآورانه و محصولات جدیدی بسازیم و مشتاقم که وقتی اطلاعات بیشتری داشتیم، آن‌ها را با شما به اشتراک بگذارم.»  

    اما این یک جلسه گزارش مالی بود، نه یک مراسم رونمایی از محصول، بنابراین تنها چیزی که می‌توانست بگوید این بود که «در ماه‌های آینده» اطلاعات بیشتری به اشتراک گذاشته خواهد شد. 

    همان‌طور که واکنش بازار نشان داد، این پاسخ دیگر کارساز نیست.  

    انصافاً، تنها چهار ماه از زمانی که زاکربرگ ساختار تیم هوش مصنوعی شرکتش را تغییر داد می‌گذرد و تیم جدید «فرا-هوشمندی» هنوز فرصت عرضه یک محصول انقلابی در حوزه هوش مصنوعی را نداشته است. اما در حالی که شرکت میلیاردها دلار برای حفظ رقابت‌پذیری در این حوزه هزینه می‌کند، هنوز هیچ نشانه روشنی از نقشی که زاکربرگ می‌خواهد در این صنعت جدید ایفا کند، وجود ندارد.  

    آیا Meta AI از مجموعه داده‌های شخصی و دقیق این شرکت برای تبدیل شدن به رقیبی برای ChatGPT استفاده خواهد کرد؟ آیا Vibes اولین قدم در مسیری برای سرگرمی‌های مصرف‌کننده است که بر پایه سیستم تبلیغات هدفمند متا بنا شده؟ یا شاید اشارات زاکربرگ به «هوش مصنوعی تجاری» سرنخ‌هایی از یک استراتژی دقیق‌تر برای بازار سازمانی است؟ 

    تا این لحظه، هر حدسی ممکن است. پاسخ هر چه که باشد، فشار بر روی متا برای یافتن آن—و آن هم به زودی—بسیار زیاد است.