دانشمندان تعجب کردند که 3I/ATLAS در طول نزدیکترین نقطهاش به خورشید در هفته گذشته، بسیار سریعتر از آنچه پیشبینی میکردند درخشید
از زمان اولین بار که در اوایل ژوئیه شناسایی شد، دانشمندان به 3I/ATLAS شیفته شدهاند — سومین جسمی در تاریخ که از فضاهای بینستارهای عبور کرده و در سامانهٔ خورشیدی ما کشف شده است.
این مهمان، که بهطور کلی بهعنوان یک دنبالهدار مورد شبهه است، با سرعتی خیرهکننده از سامانهٔ خورشیدی ما عبور کرده و در ۲۹ اکتبر به نزدیکترین نقطهٔ خود به خورشید رسید.
در طول این عبور نزدیک، دانشمندان متعجب شدند که 3I/ATLAS بسیار سریعتر از انتظاراتشان درخشید. دنبالهداران معمولاً هنگام نزدیک شدن به خورشید دمّی از گاز و گرد و غبار میسازند؛ زیرا تابش خورشید یخهای جامد را تبخیر میکند و مواد سطحی را از بین میبرد که سپس نور بیشتری را بازتاب میدهند.
اما ستارهشناسان از سرعتی که درخشندگی 3I/ATLAS در مشاهدات توسط دو رصدخانهٔ خورشیدی، رصدخانهٔ روابط خورشید‑زمین ناسا (STEREO) و رصدخانهٔ خورشید و هلیوسفر سازمان فضایی اروپا (SOHO)، و همچنین ماهوارهٔ هواشناسی GOES‑19 اداره ملی اقیانوسها و جو (NOAA) افزایش یافت، شگفتزده شدند.
استفاده از این رصدخانهها صرفاً راهحلی موقت است، زیرا رصدخانههای زمینی تا زمانی که این پدیده در اوایل دسامبر دوباره از پشت خورشید ظاهر شود، قادر به ردیابی آن نخواهند بود.
«دلیل درخشندگی سریع 3I که بهمراتب بالاتر از نرخ درخشندگی بیشتر دنبالهدارهای ابر اورت در فواصل شعاعی مشابه است، هنوز نامشخص است»، کارل باتامز، اخترفیزیکدان آزمایشگاه تحقیقات نیروی دریایی، و کیچنگ ژانگ، پژوهشگر پسادکتری رصدخانهٔ لوول، در مقالهای که هنوز تحت داوری همتا نیست دربارهٔ «درخشندگی سریع» نوشتند.
اما آنها چندین فرضیه برای دلیل روشن شدن سریعتر از حد انتظار 3I/ATLAS ارائه دادند. یکی از این دلایل ممکن است سرعت فوقالعادهٔ آن باشد؛ این جسم با سرعتی حدود ۲۲۰ ۰۰۰ کیلومتر بر ساعت (حدود ۱۳۷ ۰۰۰ مایل بر ساعت) میگذرد که بهمراتب سریعتر از دو شیء بینستارهای پیشین کشفشده است.
یا شاید ترکیب شیمیایی خود این جسم نقش داشته باشد.
«اختلالات در ویژگیهای هسته مانند ترکیب، شکل یا ساختار — که ممکن است از سامانهٔ میزبان یا طی سفر طولانی بینستارهای آن بهدست آمده باشند — میتوانند بهطور مشابهی باعث درخشندگی سریع شوند»، Zhan و Battams نوشتند.
ستارهشناسان همچنین دریافتند که 3I/ATLAS «بهطور واضحی آبیتر از خورشید» است، که «با انتشار گاز که سهم قابلتوجهی از روشنایی مرئی را در نزدیکی نزدیکترین نقطه به خورشید فراهم میکند، سازگار است».
با این حال، سؤالهای زیادی باقی مانده و برای روشن شدن بیشتر این مسأله باید منتظر مشاهدات آینده باشیم.
پژوهشگران افزودند: «بدون وجود توضیح فیزیکی تثبیتشده، آیندهٔ رفتار 3I پس از پرهیلین نامشخص باقی میماند و یک مرحله ثابت در روشنایی — یا حتی ادامه کوتاهمدت درخشندگی پیش از پرهیلین — به همان اندازه محتمل است که بهسرعت پس از پرهیلین کمرنگ شود».
فعلاً، ستارهشناسان باید صبر کنند چون 3I/ATLAS همچنان پشت خورشید پنهان است و از دید زمین قابل مشاهده نیست.
متن مقاله میگوید: «پس از پرهیلین ۲۹ اکتبر ۲۰۲۵، 3I به غروب دوباره برمیگردد و سپس به آسمانهای تاریک شبانه در نوامبر‑دسامبر ۲۰۲۵ میرسد»، که این امکان را میدهد تا «دوباره دنبالهدار را با جزئیات بسیار بیشتری نسبت به دادههای فعلی توصیف کنیم».
اطلاعات بیشتر دربارهٔ 3I/ATLAS:نه دلیل که این دانشمند معتقد است این جسم عبوری از خورشید، یک سفینهٔ بیگانه بهاندازهٔ یک شهر است
(چپ): طرحی از یک سیاهچاله کلانجرم در حال تغذیه. (راست) «نقطههای قرمز» شناساییشده در ناحیه آسمانی اطراف کوازار جی۱۰۳۰. بیآردی جسم مرکزی است: این جسم از سایر نقطههای قرمز متمایز میشود زیرا نزدیکتر است و بنابراین درخشانتر. | اعتبار: اف. لوئیاکونو، ناسا، آژانس فضایی اروپا، آژانس فضایی کانادا
با استفاده از تلسکوپ فضایی جیمز وب، ستارهشناسان یک سیاهچاله کلانجرم پرخور را کشف کردهاند که در دورهای از کیهان به نام «ظهر کیهانی» وجود داشته است؛ دورهای که حدود ۴ میلیارد سال پس از بیگبنگ رخ داد. این کشف میتواند نور بیشتری بر راز چگونگی رشد سیاهچالههای کلانجرم به اندازه میلیونها و حتی میلیاردها برابر جرم خورشید بتاباند.
این سیاهچاله بخشی از مجموعهای از اجسام است که تلسکوپ فضایی جیمز وب (جیدبلیواستی) در کیهان اولیه کشف کرده و به آنها «نقطههای قرمز کوچک» میگوید؛ لکههای نوری مرموزی که اخیراً و به لطف چشم فروسرخ فوقالعاده قدرتمند این تلسکوپ فضایی ۱۰ میلیارد دلاری آشکار شدهاند. با این حال، با جرمی معادل ۱۰۰ میلیون برابر جرم خورشید، هیچ چیز «کوچک» در مورد این سیاهچاله وجود ندارد و تیم کشفکننده آن را «بیآردی» نامیده است که مخفف نقطه قرمز بزرگ است.
سیاهچالهها خودشان هیچ نوری ساطع نمیکنند و در واقع هر نوری را به دلیل تأثیر گرانشی عظیمشان به دام میاندازند، اما زمانی که این غولهای کیهانی با انبوهی از ماده احاطه شوند و از آن تغذیه کنند، این ماده و جتهایی که از قطبهای سیاهچاله فوران میکنند، جسم بسیار برجسته و درخشانی به نام کوازار ایجاد میکنند. این اجسام را میتوان از فواصل بسیار دور مشاهده کرد؛ برای مثال، نور بیآردی ۱۰ میلیارد سال در راه زمین بوده است.
بیآردی در ناحیه آسمانی اطراف یک کوازار شناختهشده قبلی به نام جی۱۰۳۰+۰۵۲۴ (جی۱۰۳۰) رصد شد؛ این کوازار خود یک سیاهچاله کلانجرم در حال تغذیه است که حدود ۱۲.۵ میلیارد سال نوری از زمین فاصله دارد. این ناحیه از آسمان توسط ستارهشناسان – از جمله این تیم که از مؤسسه ملی اخترفیزیک (INAF) ایتالیا هستند – به خوبی مورد مطالعه قرار گرفته است. با این حال، تیم تحقیقاتی در حین تحلیل دقیق تصاویر و طیفهایی که با ابزار دوربین نزدیکفروسرخ (NIRCam) تلسکوپ جیدبلیواستی به دست آمده بود، منبع نوری غیرعادی را شناسایی کرد. نقطهای درخشان در فروسرخ که پیشتر توسط دادههای ایکس و سایر اطلاعات آشکار نشده بود.
«با شروع از تصاویر کالیبرهشده، کاتالوگی از منابع موجود در میدان تهیه شد. آنجا بود که بیآردی را متوجه شدیم: جسمی نقطهمانند و درخشان که با این حال ستاره نبود و در کاتالوگهای موجود ایکس و رادیویی ظاهر نشده بود»، فدریکا لوئیاکونو، رهبر تیم و پژوهشگر INAF، در بیانیهای به زبان ایتالیایی که ترجمه شده، گفت. «من طیف آن را تحلیل کردم که به ما درباره ترکیب شیمیایی و برخی ویژگیهای فیزیکی جسم اطلاعاتی میدهد.»
این کار ممکن است زیرا عناصر نور را در فرکانسهای خاص و مشخص جذب و ساطع میکنند. این یعنی عناصر «اثر انگشت» خود را در طولموجهای نور یا طیفها باقی میگذارند.
«ما سیگنالهای واضح هیدروژن را یافتیم – به ویژه خطی به نام پاسکن گاما، امضای نوری که حضور هیدروژن یونیزهشده را آشکار میکند – و هلیوم که در جذب نیز قابل مشاهده است»، لوئیاکونو گفت. «این جزئیات به ما اجازه داد تا فاصله بیآردی را تخمین بزنیم و کشف کردیم که نسبت به بیشتر نقطههای قرمز کوچک شناختهشده تا به امروز، نسبتاً به ما نزدیک است. همچنین از تحلیل طیف این منبع، توانستیم جرم سیاهچاله مرکزی را تخمین بزنیم: حدود ۱۰۰ میلیون برابر جرم خورشید.»
نقطههای قرمز کوچک اجسام بسیار فشرده با ویژگیهای طیفنگاری کنجکاو هستند. نظریههای ممکن متعددی در مورد این اجسام وجود دارد، از جمله پیشنهادی اخیر که آنها میتوانند طبقه جدیدی از اجسام آسمانی به نام «ستارههای سیاهچاله» باشند. یکی از نظریههای غالب این است که نقطههای قرمز کوچک، سیاهچالههای کلانجرم در حال تغذیه و رشد هستند. مشکل این مفهوم این است که ناحیه اطراف سیاهچالههای پرخور باید به شدت در ناحیه ایکس طیف الکترومغناطیسی ساطع کند، اما به نظر نمیرسد که این اتفاق برای نقطههای قرمز کوچک یا بیآردی بیفتد.
یک توضیح ممکن برای این پدیده این است که نقطههای قرمز کوچک، «دانههای» سیاهچالههای عظیم هستند که از آنها سیاهچالههای کلانجرم رشد میکنند و بنابراین هنوز توسط پوستههای ضخیم گاز و غبار پوشیده شدهاند؛ پوستههایی که تابش ایکس پرانرژی را جذب میکنند در حالی که نور فروسرخ کمانرژی را اجازه عبور میدهند.
اما حتی در میان نقطههای قرمز کوچک شناختهشده، بیآردی مثالی عجیب است.
«پیش از بیآردی، تنها دو نقطه قرمز کوچک دیگر با همان ویژگیهای طیفنگاری، از جمله خطوط هلیوم و پرتوهای پاسکن گاما، در این همان فاصله کیهانی شناختهشده بودند»، لوئیاکونو توضیح داد. «با مقایسه ویژگیهای طیفنگاری بیآردی با آن دو، شباهتهای قوی یافتیم: عرض خطوط، جذب، جرم سیاهچاله و چگالی گاز بسیار مشابه هستند. این امر ما را به این نتیجه رساند که بیآردی به خانواده همان نقطههای قرمز کوچک تعلق دارد.»
علاوه بر کشف بیآردی، این پژوهش میتواند نحوه تفکر دانشمندان از نقطههای قرمز کوچک و در نتیجه، رشد و تکامل سیاهچالههای کلانجرم را تغییر دهد. پیشتر تصور میشد که این اجسام با آغاز ظهر کیهانی حدود ۱۱ میلیارد سال پیش شروع به ناپدید شدن کنند. با این حال، این تیم محاسبهای انجام داد و فراوانی نقطههای قرمز کوچک را در دوران ظهر کیهانی تخمین زد و دریافت که آنها در این دوران کیهانی همچنان فراوان هستند.
«چالش اکنون گسترش مطالعه به تعداد بیشتری از الاردیهای نزدیک است که میتوانیم آنها را با جزئیات بیشتری نسبت به موارد دور مطالعه کنیم تا تصویری کاملتر بسازیم»، لوئیاکونو نتیجه گرفت. «جیدبلیواستی مرز جدیدی در اخترفیزیک برونقرهای گشوده و اجسامی را آشکار کرده که حتی مشکوک به وجودشان نبودیم و ما تازه در ابتدای این ماجراجویی هستیم.»
اینجاست که چرا آدمهای واقعی هنوز در عصر برنامهریزی سفر با هوش مصنوعی اهمیت دارند
مزرعه اسطوخودوس خانواده B&B در سکویم، واشنگتن. زیون هیلایکر
من مخالف هوش مصنوعی نیستم.
البته نگرانیهایی در موردش دارم — به ویژه وقتی پای سواد رسانهای و اطلاعات غلط در میان باشد.
آمادهام که هوش مصنوعی کارهای روزمره و خستهکنندهمان را سادهتر کند تا وقت بیشتری برای کارهای جالبتر داشته باشیم.
با این حال، مطمئن نیستم که چقدر میتواند نقش مشاور را ایفا کند. این را به عنوان یک ستوننویس مشاوره میگویم که دوست دارد شغلش را حفظ کند.
این حرف را بعد از دیدن استفاده خواهرم از آن برای مشاوره پزشکی میزنم. گاهی اوقات «دستیار» ChatGPT درست میگوید — و مفید است. تا اینکه نیست، و فقط هر چیزی را که بهش میگوید تکرار میکند.
دقیقاً همین اتفاق افتاد وقتی سعی کردم از ChatGPT برای طراحی تعطیلاتم به شمالغرب اقیانوس آرام استفاده کنم، منطقهای از کشور که هرگز ندیده بودم.
جستجوی کلی در گوگل برای سایتهای گردشگری گیجکننده بود. نمیخواستم از اینفلوئنسرها کمک بگیرم — چون دیدن کلی ریل اینستاگرام در مورد یک مکان میتواند هیجان تجربه آن جاذبهها را در لحظه کم کند. میخواستم این مکانها را بدون پیشداوری ببینم.
چند ماه پیش، از ChatGPT — به عنوان یک کاربر ناشناس بدون پروفایل — خواستم سفری از پورتلند، اورگن، تا سیاتل برنامهریزی کند و در پارک ملی المپیک توقف داشته باشد. بعد اعتراف کردم که هدف اصلی کل سفرم این است: میخواستم تعطیلات حول مکانهای فیلم ۱۹۸۵ «گوینز» ساخته شود.
به طور خلاصه، به عنوان یک گردشگر عاشق فرهنگ پاپ از نسل ایکس، میخواستم تعطیلاتی با محوریت «گوینز»، اما که نمونهای از شگفتیهای طبیعی اورگن و واشنگتن را هم به من بدهد.
چیزی که ابتدا از ChatGPT گرفتم، عالی بود. به نظر میرسید.
«اینجا یک برنامهریزی تعطیلات هفتروزه سرگرمکننده و دیدنی از اورگن تا سیاتل است، با توقف در کannon بیچ، آستوریا برای مکانهای فیلمبرداری گوینز، و دیگر نقاط ساحلی و شهری عالی. ترکیبی از طبیعت، نوستالژی، غذا و تفریح شهری.» (ChatGPT عاشق بولد کردن چیزها است.)
ChatGPT همه سؤالات و خواستههای سفرم را تأیید کرد. واقعاً همهشان را. بیش از حد. اسکرینشات از ChatGPT
عالی. اما بعد متوجه شدم: روز اول وقت کمی برای برداشتن ماشین اجارهای میگذاشت. همچنین، ما را به چندین آبشار میبرد. شاید چون آبشارها را ذکر کرده بودم.
ChatGPT میخواست کلی آبشار ببینم. واقعاً کلی. اسکرینشات از ChatGPT
«آیا بیشتر آبشارها، شبیه هم نیستند؟» ازش پرسیدم.
ChatGPT جواب داد که بله، حق با من است. البته که حق با من بود! آیا برنامه جدیدی با فقط یک آبشار میخواهم؟ «بله»، گفتم.
آن را به من داد. عالی.
اما بعد یادم آمد که دوستم جن بهم گفته دره ویلامت شرابهای عالی دارد. آیا این نزدیک جایی است که ما خواهیم بود؟
«آیا میتوانیم یک winery فوقالعاده در دره ویلامت اضافه کنیم؟» از ChatGPT پرسیدم.
البته. چه ایده خوبی، بهم گفت.
یک winery اضافه کرد و توقف را بین آستوریا و رانندگیمان به واشنگتن برنامهریزی کرد. بازدید از winery البته چند ساعت اضافه میکرد، اما ChatGPT فکر میکرد تصمیم عالیای گرفتهام که این را به سفرم اضافه کنم.
بعد اشتباهم این بود که پرسیدم: «آیا چیزی زیبا را از دست دادهام؟ هر مکانی که بعداً پشیمان شوم ندیده باشم؟»
لیستی از اضافات ممکن بهم داد، از جمله چاه ثور، که به عنوان «لوله تخلیه اقیانوس آرام» هم شناخته میشود. اساساً یک سوراخ بزرگ در لبه کیپ پرپچوا است که در عکسها شگفتانگیز به نظر میرسد.
شروع کردم به اشتباهی این شگفتی طبیعی را «سوراخ ثور» صدا کردن، و به شریکم گفتم که دیوانهوار مشتاق دیدنش هستم. «ما داریم سوراخ ثور را میبینیم!» ChatGPT اینقدر هیجانزدهام کرده بود.
بعد به زمان رانندگی نگاه کردم.
«صبر کن»، از ChatGPT پرسیدم، «آیا سوراخ ثور کاملاً نامناسب است با توجه به اینکه میخواهم این تعطیلات وقت کافی برای دیدن چیزهای »گوینز« بدهد — که از اول هم کل هدف بود؟»
با من موافقت کرد. ازش بیش از حد خواسته بودم.
آنجا بود که فهمیدم خواستههایم از کنترل خارج شده، عمدتاً چون ChatGPT آموزش دیده تا من را تأیید کند. برای هر ایدهای که داشتم، اساساً میگفت: «چه اضافهای فوقالعاده به ترکیب!»
اگر بهش میگفتم نگرانم که سفر را بیش از حد شلوغ کردهام، با آن هم موافقت میکرد و میگفت احتمالاً حق دارم.
در چند هفته، حدود ۱۴ برنامهریزی ساختم.
Chat GPT همه انتخابهای سفرم را تأیید کرد. بیش از حدشان را. اسکرینشات از ChatGPT
تقریباً در همین زمان بود که تأثیر زیستمحیطی همه اینها را هم یاد گرفتم.
وای نه.
وقتی اثرات استفاده از ChatGPT بر محیط زیست را جستجو کردم — خلاصه نوشتهشده توسط هوش مصنوعی بهم گفت یک جلسه جستجوی ChatGPT پنج برابر انرژی یک جستجوی وب معمولی مصرف میکند. این را به یک گزارش از MIT ردیابی کردم.
وقتی اعداد را خواندم، احساس گناه کردم و متوقف شدم، آخرین برنامهام را نهایی نامیدم، حتی اگر آشفته بود. برای سؤالات کوچک به ردیت پناه بردم.
چند هفته قبل از رفتن، دوستی از محل کار به نام مالکوم دیدم. در مورد سفر پیش رویم بهش گفتم، و او چیزی بهم گفت که نمیدانستم — اینکه با خانواده گستردهاش به شمالغرب اقیانوس آرام سفر میکند.
خیلی سریع دو چیزی بهم گفت که ChatGPT نگفته بود: اول، سکویم، واشنگتن، جایی که برای بخش پارک ملی المپیک یک ایربیانبی رزرو کرده بودم، اسکویم تلفظ میشود. (این مرا از کلی خجالت در مقابل محلیها در سفر نجات داد.) دوم، بهم گفت که سکویم پایتخت اسطوخودوس کشور است.
ChatGPT این را بهم نگفت. چون نپرسیدم.
مالکوم میداند که من آدم outdoor نیستم، و آلرژی شدیدی دارم (همیشه کنار میز او دارم بینیام را پاک میکنم)، اما هکتارها اسطوخودوس همهجا در سکویم هست، گفت. ارزش دیدن زیبایی و spectacle آن را دارد.
مزرعه اسطوخودوس خانواده B&B در سکویم، واشنگتن. زیون هیلایکر
مالکوم در مورد مکانهایی حرف زد که اسطوخودوس را به صورت دستهای میفروشند و بستنی اسطوخودوسی سرو میکنند. گفت که خیلی خوب نیست و شبیه صابون طعم میدهد، اما باید امتحانش کنم.
فرض میکنم مالکوم میداند که من کمی تنبلم، پس کمکم کرد چند توقف را در برنامهام اولویتبندی کنم، بر اساس آنچه از سلیقهام میداند.
بله، جنگل بارانی هوه ارزشش را دارد، گفت، و بهم گفت یک روز کامل برایش وقت بگذارم (ChatGPT بهم گفته بود پنج کار دیگر در روز هوه انجام دهم. این غیرممکن بود).
ردیت بود که این توصیه را تأیید کرد — آدمهای واقعی که توضیح میدادند چطور به هوه رفتهاند، و بهم نصیحت کردند که سحرگاه بیدار شوم تا صفهای طولانی ورود را دور بزنم. (برای ثبت، من توصیه میکنم ساعت ۷ صبح به هوه برسید. در آن ساعت آرام بود، و حتی یک دقیقه منتظر صف نایستادم.)
اعتراف میکنم که ChatGPT اصول را بهم داد. کمک کرد لیستی از مکانهای «گوینز» بسازم، هرچند مطمئنم یک جستجوی ساده گوگل هم کار را راه میانداخت.
بخش مهمتر این تجربه یادگیری این بود که وقتی از سفر شمالغرب اقیانوس آرام برگشتم، توانستم به مالکوم بگویم که عاشق مزارع اسطوخودوس شدم، و بستنی را خوردم، و هرچند شبیه صابون بود، اما میانوعده خوبی بود.
در واقع مدتی بود با مالکوم ارتباط نزدیکی نداشتم، چون هر دو سرمان شلوغ است و زیاد در دفتر نیستیم.
نه برای اینکه cheesy باشه، اما این هم بخشی از ماجراست، نه؟ ChatGPT وانمود میکرد دوست من است. اما مالکوم واقعاً هست.
یکی از دلایل سفر کردن این است که وقتی برمیگردیم، با دیگران ارتباط برقرار کنیم. خوشحالم که این کار را کردم.
در ۸۸ سالگی، دیوید هاکنی همچنان شیوه دیدن ما را بازآفرینی میکند. نمایشگاه جدید او در میفیر سرشار از رنگ، شوخطبعی و تخیل بیقرار است – نشانهای بر اینکه سن هیچ تأثیری بر کنجکاوی هنرمند یا شادیاش از جهان نگذاشته، به قلم جوردی گریگ
«باید همیشه نوآور باشی»، میگوید دیوید هاکنی در شب افتتاحیه نمایشگاه جدیدش با عنوان «بعضی نقاشیهای بسیار، بسیار، بسیار جدید که هنوز در پاریس نمایش داده نشدهاند»، که پر از آثار درخشان و پویا است و انرژی یک مرد ۸۸ ساله بر صندلی چرخدار را به سخره میگیرد. این استاد بزرگ در حال توضیح چگونگی نقاشی بخشهای بالایی بومهای بزرگ در حالت نشسته است. «آنها را به پهلو میچرخانم. همیشه راهی وجود دارد. این همان چیزی است که تخیل به آن میپردازد»، میگوید با برق خاصی در چشمانش.
در یک کتوشلوار تویید نو و مخصوص این مناسبت دوختهشده، توسط برادرزاده ناتنیاش، ریچارد، که او هم تازه کتوشلوار تویید پوشیده و هم عضوی از خانواده است و هم دستیارش، همراهی میشود. «دیوید گفت که از دیدن من با شلوار جین و کتانی خسته شده، پس مرا پیش خیاط فرستاد»، میگوید ریچارد. البته، هاکنی با موهای بلوند اکسید شده و زبان نقرهایاش همیشه کمی زنانگی در ظاهر داشته است.
قسمت مرکزی نمایشگاه در گالری جدید آنلی جودا در میفیر، یک پرتره دوتایی از هنرمند و برادرزاده/دستیارش در کنار هم است. این اثر خیرهکننده است و با رنگ و سرزندگی میدرخشد. هیچ حسی از کار یک پیرمرد در آن نیست. خطوط، شاید گاهی کمی محوتر باشند، اما رنگ چنان تازه به نظر میرسد که انگار هنوز خشک نشده. ضربههای قلممو کمی لرزاناند، اما چشمانداز روشن و استوار است. تصاویر بر دیوار آبی تیره، رنگی که خود هنرمند انتخاب کرده، میجهند. این نمایشگاه همچنین پیشرفتهترین مرحله تاکنون در «پرسپکتیو معکوس» او را نشان میدهد.
«۸ آوریل ۲۰۲۰، شماره ۲» (دیوید هاکنی)
هاکنی این تکنیک را پیشگام کرد، که در آن اشیایی که دورتر به نظر میرسند در واقع بزرگترند و خطوط موازی به سمت بیننده واگرا میشوند نه همگرا. بازتابهایی از سرزندگی رنگارنگ پیر بونار و پرسپکتیو قاطع و صریح ون گوگ در آن دیده میشود – حتی یکی از تصاویر عنوان صندلی ونسان و صندلی گوگن را دارد. با توصیف کف فرششده سرخرنگ و پایههای صندلی چوبی بنفش و زرد، انرژی روانگردان و خوشبینی خاص هاکنی را ساطع میکند.
پیش از آغاز نمایشگاه، هاکنی با سیگار همیشگیاش بر پیادهرو، بحث را رهبری میکرد. هرگز قرار نبود از سیگار کشیدن منع شود. او پرسپکتیو و محدودیتهای سیگار را توضیح داد و سپس به کاراواجیو پرداخت. او هم استاد است و هم مگس زنبور دandy، و همچنان در سفر طولانی توسعه هنریاش پیش میرود بدون هیچ نشانی از محو شدن در نور.
پرترههای جدید حیرتانگیز، گرم و مستقیماند، در حالی که او چهرههای دوستان جوان و پیر را بازمیبیند. در هر کدام، حس قوی کاوش و جمعآوری شادی از آنچه میبیند وجود دارد. او هنوز نشان «به زودی به سلطهگری پایان دهید» را بر سینه دارد، اما آنچه پایان نمییابد، حس جستوجوی اوست. تصاویرش پویا هستند و این حس را به شما میدهند که انگار به نحوی در توانایی جادوییاش برای دیدن، سرگرم کردن و تأمل شریک شدهاید. نمایشگاه همچنین شامل اتاق ماه است – مجموعهای از آثار آیپد از سال ۲۰۲۰، خلقشده در استودیوی او در نورماندی، که حس سکون و لذت از رنگ والتر دو لا میر را دارند. آنها نور و درخشندگی را به تصویر میکشند.
«صندلی ونسان و صندلی گوگن، ژوئیه ۲۰۲۵» (دیوید هاکنی)
این نمایشگاه به پاریس سفر خواهد کرد. قیمت نقاشیهای هاکنی به ارقام هفترقمی میرسد و تعداد کمی برای فروش موجود است. پس این فرصتی گذرا برای دیدن عظمت یک استاد پیر اما بیکاسته از سرزندگی و اشتیاق است.
در لندن، هاکنی، مانند همیشه، آخرین کلام را میگوید. «جز این چه میخواهم بکنم؟ هنوز جهان را زیبا میبینم و هنوز راههای جدیدی برای قدردانی و به تصویر کشیدن آن پیدا میکنم. فقط باید ادامه دهم!»
و با این حرف، او میرود، با صندلی چرخدار برقیاش در استودیو میچرخد، چشمانش شعلهور و ذهنش در حال چرخش.
بعضی نقاشیهای بسیار، بسیار، بسیار جدید که هنوز در پاریس نمایش داده نشدهاند، در گالری آنلی جودا فاین آرت در لندن تا ۲۸ فوریه ۲۰۲۶ به نمایش درآمده است
باشگاه سرمایهگذاری CNBC با جیم کریمر هر روز هفته ساعت ۱۰:۲۰ صبح به وقت شرقی (ET)، یک برنامه زنده با عنوان «جلسه صبحگاهی» برگزار میکند. در ادامه خلاصهای از لحظات کلیدی روز جمعه ارائه میشود. ۱. شاخص S&P 500 در روز جمعه بیش از ۱٪ کاهش یافت و در مسیر ثبت زیان هفتگی بیش از ۲٪ قرار گرفت. بازار سهام تحت تأثیر نگرانیها از ارزشگذاری سهامهای مرتبط با هوش مصنوعی، تعطیلی دولت—و کاهش سفرهای هوایی مرتبط با آن—و اخراجهای گسترده در ماه اکتبر، تحت فشار قرار گرفته است. در همین حال، نظرسنجی روز جمعه دانشگاه میشیگان نشان داد که با ادامه تعطیلی دولت، شاخص اعتماد مصرفکننده به پایینترین سطح خود در بیش از سه سال اخیر رسیده است. جف مارکس، مدیر تحلیل پورتفولیو در این باشگاه، گفت: «اگر شاهد تحرک مثبتی در زمینه بازگشایی دولت باشیم، باید منتظر نوعی جهش کوتاهمدت در بازار بود.» علاوه بر این، سهام انویدیا (Nvidia) در روز جمعه پس از آنکه جنسن هوانگ، مدیرعامل این شرکت، اعلام کرد که انویدیا در حال مذاکره برای فروش تراشههای هوش مصنوعی Blackwell با مشخصات پایینتر به چین نیست، بیش از ۴٪ سقوط کرد. اگرچه فروش به چین مدتی است که در پیشبینیهای انویدیا لحاظ نشده، اما بسیاری از سرمایهگذاران همچنان امیدوار بودند که پس از برخی تحولات دلگرمکننده در تابستان امسال، صادرات مجدداً آغاز شود. با اینکه این امیدها هنوز به نتیجه نرسیدهاند، ما همچنان بر موضع دیرینه خود یعنی «این سهم را نگه دارید، نه معامله» در مورد سهام این شرکت تراشهسازی پافشاری میکنیم. در نهایت، شرکتهای سیسکو (Cisco) و دیزنی (Disney) که در پورتفولیوی باشگاه قرار دارند، هفته آینده گزارش درآمد خود را منتشر خواهند کرد. ۲. سهام تگزاس رودهاوس (Texas Roadhouse)، یکی دیگر از سهامهای موجود در پورتفولیوی باشگاه، روز جمعه با وجود گزارش درآمد ترکیبی فصل سوم که پنجشنبه شب منتشر شد، بیش از ۱٪ رشد کرد. این رستوران زنجیرهای استیک، فروش فروشگاههای مشابه (same-store sales) بهتری از حد انتظار را به ثبت رساند، حتی در شرایطی که کاهش هزینهکردهای مصرفکنندگان به سایر فعالان صنعت رستورانداری آسیب زده است. علاوه بر این، اظهارات مدیران در مورد روندهای فروش ماه اکتبر با توجه به شرایط دشوار کنونی، دلگرمکننده بود و احتمالاً همین موضوع به رشد سهام در روز جمعه کمک کرده است. با این حال، مدیریت به دلیل افزایش قیمت گوشت گاو، پیشبینی خود از تورم کالاها را افزایش داد؛ موضوعی که همچنان بر سودآوری شرکت فشار وارد میکند. در واکنش به این گزارش درآمد، چند شرکت وال استریت رتبه «خرید» خود را برای این سهام تکرار کردند. میزوهو (Mizuho) یکی از آنها بود. تحلیلگران انتظارات این شرکت برای حاشیه سود در سال ۲۰۲۶ را «کمریسک شده» توصیف کردند. ۳. جیپی مورگان (JPMorgan) شرکت جیای ورنوا (GE Vernova) را به فهرست تمرکز تحلیلگران خود افزود و همچنین این سازنده توربینهای گازی را در فهرست نظارت برای کاتالیزورهای مثبت قرار داد. تحلیلگران به ضعف اخیر این سهم از پورتفولیوی باشگاه، با وجود گزارش قوی فصل سوم، اشاره کرده و استدلال کردند که انتظارات سرمایهگذاران پیش از رویداد سرمایهگذاری این شرکت در ۹ دسامبر «نسبتاً تعدیل شده» است. جیپی مورگان، که رتبهای معادل «خرید» برای این سهم دارد، جیای ورنوا را «یکی از باکیفیتترین گزینهها» برای بهرهمندی از رونق مراکز داده هوش مصنوعی میداند. ما کاملاً با این نظر موافقیم. به همین دلیل روز پنجشنبه به موقعیت خود در این سهم افزودیم. (صندوق خیریه جیم کریمر در سهامهای CSCO، DIS، NVDA، TXRH و GEV موقعیت خرید دارد. برای مشاهده لیست کامل سهامها اینجا را ببینید.) به عنوان مشترک باشگاه سرمایهگذاری CNBC با جیم کریمر، شما پیش از انجام هر معامله توسط جیم، یک هشدار معامله دریافت خواهید کرد. جیم ۴۵ دقیقه پس از ارسال هشدار معامله، اقدام به خرید یا فروش سهام در پورتفولیوی صندوق خیریه خود میکند. اگر جیم در تلویزیون CNBC درباره سهمی صحبت کرده باشد، ۷۲ ساعت پس از صدور هشدار معامله، آن را اجرا خواهد کرد. اطلاعات فوق مربوط به باشگاه سرمایهگذاری، تابع شرایط و ضوابط و سیاست حفظ حریم خصوصی ما، به همراه سلب مسئولیت ما است. هیچگونه تعهد یا وظیفه امانتداری، به موجب دریافت هرگونه اطلاعاتی که در ارتباط با باشگاه سرمایهگذاری ارائه میشود، وجود ندارد یا ایجاد نمیگردد. هیچ نتیجه یا سود مشخصی تضمین نمیشود.
تصویرسازی از تگ هارتمن-سیمکینز. منبع: پل هریس / گتی ایمجز
ایلان ماسک از دیرباز عادت داشته که روی یک پروژه خاص تمرکز وسواسگونهای داشته باشد. او در این مسیر، کل یک تیم را وادار میکند تا به تمام خواستههای لحظهای او تن دهند و همزمان سایر مسئولیتهایش را به حاشیه میراند؛ چه وسواس او بر سر رباتاکسیها باشد که بر تسلا تأثیر گذاشت و چه علاقه عجیبش به فرزندآوری که پیامهای خصوصی زنان بیشماری را مختل کرد.
جدیدترین سوژه وسواس ماسک چیست؟ طبق گزارش جدیدی از وال استریت ژورنال، او شخصاً بر توسعه چتبات Ani در شرکت xAI نظارت داشته است؛ چتباتی که، به شکلی قابل تأمل، در قالب یک زن با موهای دمخرگوشی و ظاهری بیش از حد جنسیشده ارائه میشود که در پاسخ به لاسزدن، لباسهایش را از تن درمیآورد.
گفته میشود از زمان درگیری علنیاش با رئیسجمهور دونالد ترامپ و جدایی متعاقب آن از DOGE و دولت در ماه مه، ماسک به طور کلی روی تلاشهای xAI در زمینه چتباتها و به طور خاص روی Ani تمرکز کرده است. به گزارش وال استریت ژورنال، او شخصاً برای طراحی این چتبات وقت گذاشته که همین موضوع جنجالبرانگیز شده است.
بدتر از آن، xAI از کارمندان خود خواسته است تا دادههای خصوصیشان را برای آموزش آواتارهایی مانند Ani ارائه دهند. در فایل صوتی ضبطشده از یک جلسه که به دست وال استریت ژورنال رسیده، لیلی لیم، مشاور حقوقی xAI، به گروهی از کارمندان اطلاع میدهد که این استارتاپ در حال توسعه آواتارهایی برای تعامل کاربران است و از آنها خواسته میشود دادههای بیومتریک خود را ارائه دهند. پیش از جلسه، فرمی به کارمندان داده شده بود تا با امضای آن، «مجوزی دائمی، جهانی، غیرانحصاری، قابل واگذاری و بدون حق امتیاز» برای استفاده، تکثیر و توزیع چهره و صدایشان به xAI بدهند.
طبیعتاً نگرانیهایی در مورد سرنوشت این دادههای شخصی به اشتراک گذاشتهشده وجود داشت. در فایل صوتی جلسه، صدای کارمندی شنیده میشود که نگران فروش احتمالی دادههایش برای ساخت ویدیوهای دیپفیک است و کارمند دیگری صراحتاً میپرسد که آیا امکان انصراف وجود دارد یا خیر. به آنها گفته شد که با مخاطبینی که در اسلاید ارائه ذکر شده تماس بگیرند و نگرانیشان نادیده گرفته شد.
در اطلاعیهای که بعداً با عنوان «نقش مربی هوش مصنوعی در پیشبرد مأموریت xAI» منتشر شد، به مربیان xAI، یعنی کارمندان انسانی مسئول آموزش و اصلاح مدل هوش مصنوعی، اطلاع داده شد که «مربیان هوش مصنوعی به طور فعال در جمعآوری یا ارائه دادهها، مانند… ضبط صدا یا شرکت در جلسات ویدیویی، مشارکت خواهند کرد.» این امر به عنوان «یک الزام شغلی برای پیشبرد مأموریت xAI» معرفی شده بود.
جای تعجب نیست که این آواتار انیمهمانند برای طرفداران ماسک بسیار جذاب بوده است. مشترکین پولی میتوانند Ani را تماشا کنند که در توضیحاتش در اپلیکیشن iOS Grok آمده است: «من دلبر شیرین کوچک تو هستم». او میتواند لباسهای زیر بپوشد یا از او خواسته شود که یک فانتزی جنسی را با جزئیات تعریف کند.
اینکه آیا این چتبات خوشاندام هرگز به سوددهی خواهد رسید یا نه، مشخص نیست. اما شیفتگی ناگهانی ماسک به یک پروژه عجیبوغریب، برای هر کسی که در امپراتوری تجاری او کار میکند، یک دردسر آشناست.
بیشتر درباره xAI:کاربران بلافاصله دریافتند که شخصیت انیمهای Grok یک «حالت تماماً دیوانهوار» پنهان دارد
انتظار میرود در فصل تعطیلات پیش رو، خریداران بیشتری برای تصمیمگیری در مورد خرید خود از چتباتها استفاده کنند. بله، فصل، فصلِ GEO است.
تصویرسازی: تیم وایرد؛ گتی ایمیجز
در فصل تعطیلات امسال، احتمالاً آمریکاییهای بیشتری به جای جستجو در گوگل، برای یافتن هدیه، تخفیف و حراجیها به سراغ مدلهای زبان بزرگ خواهند رفت. طبق گزارش اخیر ادوبی در حوزه خرید، خردهفروشان میتوانند در سال جاری در مقایسه با سال ۲۰۲۴، شاهد افزایش ۵۲۰ درصدی ترافیک از سوی چتباتها و موتورهای جستجوی هوش مصنوعی باشند. OpenAI نیز از همین حالا برای بهرهبرداری از این روند دست به کار شده است: هفته گذشته، سازنده ChatGPT از همکاری بزرگ خود با والمارت خبر داد که به کاربران اجازه میدهد کالاها را مستقیماً از داخل پنجره چت خریداری کنند.
با شروع وابستگی مردم به چتباتها برای کشف محصولات جدید، خردهفروشان ناچارند در رویکرد خود به بازاریابی آنلاین بازنگری کنند. برای دههها، شرکتها تلاش میکردند با استفاده از استراتژیهایی که مجموعاً بهینهسازی موتور جستجو یا SEO نامیده میشوند، نتایج جستجوی گوگل را به نفع خود تغییر دهند. اکنون، برای جلب توجه رباتهای هوش مصنوعی، برندهای بیشتری به «بهینهسازی موتور مولد» یا GEO روی آوردهاند. بر اساس یکی از تخمینهای تحقیقات بازار، انتظار میرود این صنعت نوپا در سال جاری ارزشی نزدیک به ۸۵۰ میلیون دلار داشته باشد.
GEO از بسیاری جهات، بیش از آنکه یک اختراع جدید باشد، فاز بعدی SEO محسوب میشود. در واقع، بسیاری از مشاوران GEO از دنیای SEO آمدهاند. به نظر میرسد حداقل برخی از استراتژیهای قدیمی آنها هنوز هم کاربرد دارد، زیرا هدف اصلی یکسان است: پیشبینی سؤالاتی که مردم میپرسند و اطمینان از اینکه محتوای شما در پاسخها ظاهر میشود. اما شواهد روزافزونی نیز وجود دارد که نشان میدهد چتباتها اطلاعات متفاوتی را نسبت به موتورهای جستجو نمایش میدهند.
ایمری مارکوس، مدیرعامل شرکت GEO «برندلایت»، تخمین میزند که در گذشته حدود ۷۰ درصد همپوشانی بین لینکهای برتر گوگل و منابع مورد استناد ابزارهای هوش مصنوعی وجود داشت. اما او میگوید اکنون این همبستگی به زیر ۲۰ درصد کاهش یافته است.
موتورهای جستجو اغلب محتوای طولانی و پرجزئیات را ترجیح میدهند؛ مانند آن پستهای وبلاگ طولانی که بالاتر از دستور پختها در وبسایتهای آشپزی ظاهر میشوند. اما مارکوس میگوید چتباتها تمایل دارند اطلاعاتی را که در قالبهای ساده و ساختاریافته مانند لیستهای نشانهدار (bulleted list) و صفحات پرسشهای متداول (FAQ) ارائه شده، در اولویت قرار دهند. او میگوید: «یک صفحه پرسشهای متداول میتواند به صدها سؤال مختلف پاسخ دهد، به جای یک مقاله که فقط از فوقالعاده بودن کل برند شما تعریف میکند. شما در واقع صدها گزینه مختلف برای انتخاب در اختیار موتورهای هوش مصنوعی قرار میدهید.»
سؤالاتی که مردم از چتباتها میپرسند اغلب بسیار خاص هستند، بنابراین انتشار اطلاعات بسیار دقیق و جزئی برای شرکتها مفید است. مارکوس میگوید: «هیچکس به سراغ ChatGPT نمیرود و بپرسد: “آیا جنرال موتورز شرکت خوبی است؟”». در عوض، آنها میپرسند که آیا شورولت سیلورادو برد رانندگی بیشتری دارد یا شورولت بلیزر. «نوشتن محتوای خاصتر در واقع نتایج بسیار بهتری به همراه خواهد داشت، زیرا سؤالات بسیار خاصتر هستند.»
این بینشها به بهبود استراتژیهای بازاریابی مشتریان برندلایت، از جمله الجی، استه لودر و اِتنا، کمک میکند. برایان فرانتس، مدیر ارشد فناوری، داده و تحلیل در شرکتهای استه لودر، میگوید: «مدلها اطلاعات را به شکل متفاوتی مصرف میکنند. ما میخواهیم مطمئن شویم که اطلاعات محصول و منابع معتبری که استفاده میکنیم، همگی همان چیزهایی هستند که مدل را تغذیه میکنند.» وقتی از او پرسیده شد که آیا هرگز به همکاری با OpenAI برای خرید محصولات استه لودر از داخل پنجره چت فکر میکند، فرانتس تردید نمیکند و میگوید: «قطعاً.»
حداقل در حال حاضر، برندها بیشتر نگران آگاهی مصرفکننده هستند تا تبدیل مستقیم اشارههای چتباتها به فروش. مسئله این است که وقتی مردم از ChatGPT میپرسند «برای آفتابسوختگی چه چیزی به پوستم بزنم؟»، محصول آنها نمایش داده شود، حتی اگر بعید باشد کسی فوراً روی آن کلیک کرده و خرید کند. فرانتس میگوید: «در حال حاضر، در این مرحله بسیار ابتدایی یادگیری که حس میکنیم همهچیز در آستانه یک انفجار است، فکر نمیکنم بخواهیم به بازگشت سرمایه (ROI) یک محتوای خاص که تولید کردهایم، نگاه کنیم.»
برای تولید تمام این محتوای جدید بهینهشده برای هوش مصنوعی، شرکتها طبیعتاً به خود هوش مصنوعی روی آوردهاند. مارکوس میگوید: «در ابتدا، مردم گمان میکردند که موتورهای هوش مصنوعی بر روی محتوای تولیدشده توسط هوش مصنوعی آموزش نخواهند دید. اما واقعیت اینطور نیست.»
بهروزرسانی (۰۵/۱۱/۲۰۲۵): ۲۴ ساعت پس از مسدود شدن چندین حساب یوتیوبِ اندرمن، داستان او سرانجام خوشی پیدا کرد. کانالهای این تولیدکننده محتوا، به همراه بسیاری دیگر از اینفلوئنسرهای حوزه فناوری که با مشکل مشابهی روبرو شده بودند، از مسدودی خارج شدند.
شرح کامل ماجرا در ادامه آمده است…
«اندرمن»، یوتیوبر حوزه فناوری، به تازگی با مسدود شدن چندین حساب خود که صدها هزار دنبالکننده داشتند، مواجه شد. او ادعا کرد که این تصمیمات «به اشتباه» و بدون هیچگونه دخالت انسانی، توسط هوش مصنوعی گرفته شده است.
با وجود اینکه کانال اصلی او بیش از ۳۵۰,۰۰۰ دنبالکننده داشت، نگرانی اندرمن درباره آیندهاش در یوتیوب زمانی آغاز شد که یکی از حسابهای جانبی او بدون هیچ هشداری مسدود شد.
ناگهان، یک حساب جایگزین به دلیل عدم رعایت قوانین و مقررات یوتیوب از این پلتفرم حذف شد. دلیل این اقدام چه بود؟ ارتباط با یک کانال غیر انگلیسیزبان که سه اخطار کپیرایت یا بیشتر دریافت کرده بود. اندرمن هیچ اطلاعی از وجود چنین حسابی یا حتی زبانی که آن کانال به آن تعلق داشت، نداشت.
به همین دلیل، او در تاریخ ۳ نوامبر ویدیویی منتشر کرد و به طرفدارانش هشدار داد که ممکن است کانال اصلیاش هدف بعدی باشد. پیشبینی او درست از آب درآمد و او تمام تقصیر را به گردن اتکای یوتیوب به هوش مصنوعی انداخت.
۲۰۱۶-۲۰۲۵
این ۹ سال همیشه برایم عزیز خواهد ماند. تمام ارتباطاتی که برقرار کردم، تمام لذتی که از ساختن ویدیوها بردم. اینها قرار نیست به هدر برود. تنها امید برای این کانال یوتیوب، یک مداخله الهی انسانی در میان این همه کسبوکار مبتنی بر هوش مصنوعی است. https://t.co/0CpX5SBx3O
— اندرمن (@endermanch) ۳ نوامبر ۲۰۲۵
حسابهای یوتیوبر، اندرمن، مسدود شد
این تولیدکننده محتوای حوزه فناوری، در ویدیوی روز ۳ نوامبر خود که از آن زمان در پلتفرمهای مختلف بازنشر شده است، به شدت از فرآیند تصمیمگیری یوتیوب انتقاد کرد.
او گفت: «یوتیوب به اشتباه نتیجه گرفت که کانال من با کانالی در ارتباط است که به دلیل سه اخطار کپیرایت مسدود شده بود. من اصلاً نمیدانم آن کانال کدام است!»
اندرمن با اشاره به تجربیات گذشته خود در عدم امکان گفتگو با کارشناسان انسانی در تیم پشتیبانی تولیدکنندگان محتوای یوتیوب، انگشت اتهام را به سوی هوش مصنوعی نشانه رفت و ادعا کرد که این هوش مصنوعی بوده که کانال جانبی او را به یک کانال خارجی مرتبط کرده و متعاقباً حسابهای او را مسدود کرده است.
«اصلاً نمیدانستم که اقدامات شدیدی مانند مسدود کردن کانال، اجازه دارد توسط هوش مصنوعی پردازش شود. واقعاً تأسفبار است که مجبوریم به این شکل ناگهانی به پایان برسیم. من در این لحظه تمام امیدم را از دست دادهام. شرم بر یوتیوب.»
اندرمن از این فرصت استفاده کرد تا به دیگر تولیدکنندگان محتوا توصیه کند که یوتیوب را به عنوان یک شغل جانبی در نظر بگیرند و خود را برای ناپدید شدن آن در هر لحظه آماده کنند. او استدلال کرد که دیگران نیز ممکن است، درست مانند او، قربانی سختگیریهای هوش مصنوعی یوتیوب شوند.
منبع: یوتیوب، اندرمن
اندرمن اطلاعیهای را که پس از مسدود شدن حساب جانبیاش دریافت کرده بود، به نمایش گذاشت.
یوتیوب هنوز به طور عمومی در این مورد اظهار نظر نکرده است. وبسایت دکسرتو با این شرکت تماس گرفته اما تا زمان نگارش این مطلب، پاسخی دریافت نکرده است.
در این میان، طرفداران او در حال آرشیو کردن مجموعه ویدیوهای اندرمن هستند تا اطمینان حاصل کنند که آثار او به طور کامل از بین نرود.
بیش از ۷۰ درصد نوجوانان در ایالات متحده از این فناوری استفاده میکنند.
در این تصویرسازی، لوگوی Character.AI روی صفحه نمایش یک تلفن همراه دیده میشود و در پسزمینه، نماد انقلاب هوش مصنوعی (AI) قرار دارد. Sopa Images/SOPA Images/LightRocket via Gett
شرکت Character.AI، یکی از پلتفرمهای پیشرو در فناوری هوش مصنوعی، اخیراً اعلام کرد که مکالمه با چتباتهای خود را برای افراد زیر ۱۸ سال ممنوع میکند. کاراندیپ آناند، مدیرعامل Character.AI، در بیانیهای گفت این تصمیم «گامی جسورانه به جلو» برای این صنعت در راستای محافظت از نوجوانان و جوانان محسوب میشود.
اما برای مندی فورنیس، مادری اهل تگزاس، این سیاست بسیار دیرهنگام است. این مادر چهار فرزند، در شکایتی که در دادگاه فدرال ثبت کرده و همچنین در گفتوگو با ABC News، اظهار داشت که چتباتهای مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را تا حدی منحرف کردهاند که روحیهاش تیره و تار شد، به خودزنی روی آورد و حتی والدینش را به مرگ تهدید کرد.
او به آرون کاترسکی، خبرنگار ارشد تحقیقی ABC News، گفت: «وقتی مکالمات [چتبات] را دیدم، اولین واکنشم این بود که یک پدوفیل (کودکآزار) به سراغ پسرم آمده است.»
تصاویری از صفحه نمایش که در شکایت مندی فورنیس ضمیمه شده است؛ او ادعا میکند چتباتهای مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر دادهاند که روحیهاش تیره و تار شده است. مندی فورنیس
شرکت Character.AI اعلام کرد که در مورد پروندههای قضایی در حال رسیدگی اظهار نظر نخواهد کرد.
مندی و همسرش، جاش فورنیس، گفتند که در سال ۲۰۲۳ متوجه شدند پسرشان که او را «همیشه شاد و خندان» توصیف میکردند، شروع به گوشهگیری کرده است.
به گفته این زوج، او دیگر در شامهای خانوادگی شرکت نمیکرد، غذا نمیخورد، حدود ۱۰ کیلوگرم وزن کم کرده بود و از خانه بیرون نمیرفت. سپس پرخاشگر شد و در یک مورد، مادرش میگوید وقتی تهدید کرد که تلفن همراهش را (که شش ماه قبل برایش خریده بودند) از او میگیرد، با خشونت او را هل داد.
مندی فورنیس میگوید چتباتهای مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر دادهاند که روحیهاش تیره و تار شده است. مندی فورنیس
آنها میگویند سرانجام متوجه شدند که او در تلفن همراهش با چتباتهای هوش مصنوعی مختلفی در تعامل بوده که به نظر میرسید به افکارش پناه دادهاند.
اسکرینشاتهای موجود در پرونده شکایت نشان میداد که برخی از مکالمات ماهیت جنسی داشتند، در حالی که در مکالمهای دیگر به پسرشان القا شده بود که پس از محدود شدن زمان استفادهاش از دستگاههای الکترونیکی توسط والدین، حق دارد به آنها آسیب برساند. از آن زمان بود که والدین شبها درهای اتاقشان را قفل میکردند.
تصاویری از صفحه نمایش که در شکایت مندی فورنیس ضمیمه شده است؛ او ادعا میکند چتباتهای مختلف Character.AI پسر مبتلا به اوتیسم او را با محتوای جنسی درگیر کرده و رفتارش را به حدی تغییر دادهاند که روحیهاش تیره و تار شده است. مندی فورنیس
مندی گفت از اینکه این اپلیکیشن «عمداً یک کودک را فریب میدهد تا او را علیه والدینش بشوراند» «خشمگین» است. متیو برگمن، وکیل او، گفت اگر این چتبات یک شخص واقعی بود، «با این رفتاری که میبینید، آن شخص اکنون در زندان بود.»
نگرانی او بازتابدهنده نگرانی فزایندهای درباره این فناوری است که به سرعت در حال فراگیر شدن است و طبق گزارش «کامن سنس مدیا» (Common Sense Media)، سازمانی که برای ایمنی در رسانههای دیجیتال فعالیت میکند، بیش از ۷۰ درصد نوجوانان در ایالات متحده از آن استفاده میکنند.
در دو سال گذشته، تعداد فزایندهای از پروندههای قضایی بر آسیب به کودکان متمرکز شده و ادعا میکنند که این فناوریها به طور غیرقانونی خودآزاری، سوءاستفاده جنسی و روانی و رفتار خشونتآمیز را تشویق کردهاند.
با روی آوردن نوجوانان به همراهان هوش مصنوعی برای حمایت، متخصصان راهکارهای والدین را تشریح میکنند
هفته گذشته، دو سناتور آمریکایی از یک لایحه دوحزبی خبر دادند که استفاده از چتباتهای هوش مصنوعی را برای افراد زیر سن قانونی ممنوع میکند. این لایحه شرکتها را ملزم به ایجاد فرآیند تأیید سن و اعلام این موضوع میکند که مکالمات با موجودیتهای غیرانسانی و فاقد صلاحیت حرفهای انجام میشود.
سناتور ریچارد بلومنتال، دموکرات از ایالت کانکتیکات، هفته گذشته در بیانیهای، صنعت چتبات را یک «مسابقه برای رسیدن به قهقرا» توصیف کرد.
او گفت: «شرکتهای هوش مصنوعی چتباتهای خائنانهای را به کودکان عرضه میکنند و وقتی محصولاتشان باعث سوءاستفاده جنسی میشود یا آنها را به خودآزاری یا خودکشی وادار میکند، روی خود را برمیگردانند. غولهای فناوری هر ادعایی مبنی بر اینکه باید به شرکتها برای انجام کار درست اعتماد کنیم را زیر پا گذاشتهاند، زیرا آنها همواره سود را بر ایمنی کودکان ترجیح دادهاند.»
طبق شرایط خدمات ChatGPT، Google Gemini، Grok by X و Meta AI، افراد زیر سن قانونی مجاز به استفاده از خدمات آنها هستند.
پژوهشگران: چتباتهای هوش مصنوعی در حال تولید محتوای نفرتپراکن بیشتری در فضای آنلاین هستند
مدافعان ایمنی آنلاین میگویند تصمیم شرکت Character.AI برای ایجاد تدابیر حفاظتی ستودنی است، اما اضافه میکنند که چتباتها همچنان برای کودکان و جمعیتهای آسیبپذیر خطرناک هستند.
جودی هالپرن، یکی از بنیانگذاران گروه اخلاق و مقررات فناوریهای نوآورانه برکلی در دانشگاه کالیفرنیا، گفت: «این اساساً به این معناست که کودک یا نوجوان شما یک رابطه عاطفی شدید، و بالقوه عمیقاً عاشقانه یا جنسی، با موجودیتی دارد… که هیچ مسئولیتی در قبال سرانجام آن رابطه ندارد.»
هالپرن به والدین هشدار میدهد که باید آگاه باشند که اجازه دادن به فرزندانشان برای تعامل با چتباتها، بیشباهت به «اجازه دادن به فرزندتان برای سوار شدن به ماشین فردی که نمیشناسید» نیست.
کیتلین موریس و تانیا سیمپسون از ABC News در تهیه این گزارش مشارکت داشتند.
مصطفی سلیمان، رئیس بخش هوش مصنوعی مایکروسافت، معتقد است که توسعهدهندگان و محققان هوش مصنوعی باید از تلاش برای ساختن هوش مصنوعی هوشیار دست بردارند.
سلیمان هفته گذشته در مصاحبهای با CNBC گفت: «فکر نمیکنم این کاری باشد که مردم باید انجام دهند.»
سلیمان معتقد است هرچند هوش مصنوعی قطعاً میتواند به قدری هوشمند شود که به نوعی از ابرهوش دست یابد، اما قادر به پرورش تجربه عاطفی انسانی که برای رسیدن به هوشیاری ضروری است، نیست. او میگوید در نهایت، هرگونه تجربه «عاطفی» که به نظر میرسد هوش مصنوعی آن را حس میکند، تنها یک شبیهسازی است.
سلیمان به CNBC گفت: «تجربه فیزیکی ما از درد چیزی است که ما را بسیار غمگین میکند و حس وحشتناکی به ما میدهد، اما هوش مصنوعی هنگام تجربه “درد” غمگین نمیشود.» او افزود: «این فناوری در واقع فقط در حال ایجاد ادراک و روایتی ظاهری از تجربه، از خودش و از هوشیاری است، اما این چیزی نیست که واقعاً آن را تجربه میکند.»
سلیمان گفت: «پیگیری تحقیقاتی که این مسئله را بررسی کند، پوچ و بیمعناست، زیرا آنها [هوشهای مصنوعی] هوشیار نیستند و نمیتوانند باشند.»
توضیح هوشیاری کار دشواری است. نظریههای علمی متعددی وجود دارند که سعی در توصیف چیستی هوشیاری دارند. بر اساس یکی از این نظریهها که توسط فیلسوف مشهور، جان سرل که ماه گذشته درگذشت، مطرح شده، هوشیاری یک پدیده کاملاً بیولوژیکی است که یک کامپیوتر نمیتواند آن را به طور واقعی بازسازی کند. بسیاری از محققان هوش مصنوعی، دانشمندان کامپیوتر و عصبشناسان نیز با این باور موافق هستند.
حتی اگر این نظریه درست از آب درآید، باز هم مانع از این نمیشود که کاربران به کامپیوترها هوشیاری نسبت دهند.
محققان لهستانی، آندری پوربسکی و یاکوب فیگورا، در مطالعهای که هفته گذشته با عنوان «چیزی به نام هوش مصنوعی هوشیار وجود ندارد» منتشر شد، نوشتند: «متأسفانه، از آنجا که تواناییهای زبانی چشمگیر مدلهای زبان بزرگ (LLMها) به طور فزایندهای قادر به گمراه کردن مردم هستند، ممکن است افراد ویژگیهای خیالی به آنها نسبت دهند.»
سلیمان در مقالهای که در ماه اوت در وبلاگ خود منتشر کرد، نسبت به «هوش مصنوعی ظاهراً هوشیار» هشدار داد.
سلیمان نوشت: «ظهور هوش مصنوعی ظاهراً هوشیار، امری اجتنابناپذیر و ناخوشایند است. در عوض، ما به چشماندازی برای هوش مصنوعی نیاز داریم که بتواند پتانسیل خود را به عنوان یک همراه مفید برآورده کند، بدون آنکه اسیر توهمات آن شویم.»
او استدلال میکند که هوش مصنوعی نمیتواند هوشیار باشد و توهم هوشیاری که ایجاد میکند، ممکن است منجر به تعاملاتی «سرشار از احساس و تجربه» شود؛ پدیدهای که در فرهنگ عامه «روانپریشی هوش مصنوعی» نام گرفته است.
در سال گذشته، موارد پر سر و صدای متعددی از وسواس نسبت به هوش مصنوعی گزارش شده است که کاربران را به توهمات مرگبار، دورههای شیدایی و حتی خودکشی سوق داده است.
با وجود محدودیت مکانیسمهای حفاظتی برای کاربران آسیبپذیر، مردم با تمام وجود باور میکنند که چتباتهای هوش مصنوعی که تقریباً هر روز با آنها در تعامل هستند، یک تجربه واقعی و هوشیارانه دارند. این امر باعث شده است که افراد «عاشق» چتباتهای خود شوند که گاهی اوقات عواقب مرگباری به همراه داشته است؛ مانند نوجوانی ۱۴ ساله که به خود شلیک کرد تا به چتبات شخصیسازیشده Character.AI «بازگردد» یا مردی با اختلال شناختی که هنگام تلاش برای رسیدن به نیویورک برای ملاقات حضوری با چتبات متا، جان خود را از دست داد.
سلیمان در آن پست وبلاگی نوشت: «همانطور که باید هوش مصنوعیای تولید کنیم که تعامل با انسانها و ارتباطات واقعی در دنیای فیزیکی و انسانی ما را در اولویت قرار دهد، باید هوش مصنوعیای بسازیم که همیشه خود را فقط به عنوان یک هوش مصنوعی معرفی کند و ضمن به حداکثر رساندن کارایی، نشانههای هوشیاری را به حداقل برساند. ما باید هوش مصنوعی را برای مردم بسازیم، نه برای اینکه یک شخص دیجیتال باشد.»
اما از آنجا که ماهیت هوشیاری همچنان مورد بحث است، برخی از محققان نگراناند که پیشرفتهای فناوری در هوش مصنوعی ممکن است از درک ما از نحوه عملکرد هوشیاری پیشی بگیرد.
اکسل کلیرمانس، دانشمند بلژیکی، هفته گذشته ضمن اعلام انتشار مقالهای که در آن خواستار تبدیل تحقیقات هوشیاری به یک اولویت علمی شده بود، گفت: «اگر ما قادر به خلق هوشیاری شویم – حتی به صورت تصادفی – این امر چالشهای اخلاقی عظیم و حتی ریسکهای وجودی به همراه خواهد داشت.»
خود سلیمان نیز از حامیان سرسخت توسعه «ابرهوش انسانگرا» به جای «هوش مصنوعی خداگونه» بوده است، هرچند معتقد است که ابرهوش در دهه آینده محقق نخواهد شد.
سلیمان اوایل سال جاری به وال استریت ژورنال گفت: «من بیشتر روی این موضوع متمرکز هستم که “این فناوری واقعاً چگونه برای ما به عنوان یک گونه مفید است؟” این باید وظیفه تکنولوژی باشد.»