میراث کیتکت ادامه دارد: با ککو، جدیدترین گربهٔ فروشگاه محلی خیابان ششمدهم آشنا شوید
ککو، گربهٔ جدید مارکت رندا، دوشنبه ۲ دسامبر ۲۰۲۵. عکس: اسکار پالما.
حدود یک ماه پس از آنکه یک خودروی خودران Waymo به کیتکت برخورد کرد و او را به مرگ کشاند، گربهٔ محبوب محله میشن، مارکت رندا، در اواخر هفتهٔ گذشته یک گربهٔ جدید را به فروشگاهاش خوشآمد گفت: ککو، بچه گربهٔ سفید ششماههای با چشمهای آبی که از همان ابتدا روزانه دل دهها مشتری را بهدست میآورد.
«کیتکت دیگر نخواهد بود، اما او جرقهای دوباره به محله برمیگرداند»، مردی به نام AJ گفت که پس از نوازش ککو، از فروشگاه خیابان ششمدهم و والنسیا خارج شد. «مردم از همین حالا دیوانهاش شدهاند.»
ککو گربهٔ جدید مارکت رندا است، اما یاد کیتکت هنوز پابرجاست. عکس: اسکار پالما.
یک همسایه هفته گذشته ککو را به مایک زیدان، صاحب مارکت رندا، هدیه داد. پس از چندین پیشنهاد، نام ککو از طریق یک نظرسنجی در اینستاگرام انتخاب شد. این نام به کلئوپاترا، ملکهٔ مصر بین سالهای ۵۱ تا ۳۱ پیش از میلاد ارجاع دارد، گفت یکی از کارمندان مارکت رندا، آبراهام ت.
مشتریان نه تنها گربه را آوردند، بلکه دو تابلو بزرگ دستساز با نوشتهٔ «KitKat Market» که اکنون بر روی درب ورودی و کنار صندوق قرار دارند، نیز تحویل دادند. وقتی از مارکت رندا دربارهٔ تغییر نام پرسیده شد، دو کارمند گفتند نه، اما تصمیم گرفتهاند این تابلوها را برای گرامیداشت دوست فوتماندهشان نگه دارند.
آمبر بیشاپ، یک همسایه، گفت که خوشحال است که ککو را در مسیر رفت و آمدش به محل کار میبیند. صبح سهشنبه، او چند نوازش صبح بخیر به گربهٔ سفید داد وقتی از کنار او میگذشت.
ککو برای جایگزینی کیتکت نیست؛ او برای خودِ ککو اینجا است، گفت کارمند فروشگاه، آبراهام. او هنوز در حال کاوش فضای فروشگاه است و به آن عادت میکند. «میبینم او در اطراف فروشگاه میدود و به تلویزیونها پا میزند»، AJ گفت. تا کنون، بهنظر میرسد مقصد دلخواه او بالای یخچالها باشد.
او توصیف شد به عنوان پرشور، دوستانه، بامزه و کمی ترسیده از دنیای بیرون؛ دو روز پیش، برای تعقیب کبوترها به بیرون رفت و وقتی کامیونی عبور کرد، از ترس به داخل فروشگاه دوید.
دیوید ویدال، یکی دیگر از کارمندان مارکت رندا، گفت که تحت نظارت او، ککو تا حد امکان در داخل فروشگاه میماند. بههرحال، کیتکت پس از آنکه یک خودروی Waymo به او در خیابان اصابت کرد، درگذشت.
شرکت Waymo در اکتبر اعلام کرد که قصد دارد بهمنظور گرامیداشت کیتکت، به یک سازمان محلی حمایت از حیوانات کمک مالی کند، اگرچه دوشنبه این شرکت تأیید نکرد که این کمک انجام شده است، نام سازمان یا مبلغ دقیق آن را فاش نکرد. همچنین دوشنبه، Waymo تأیید کرد که یکی دیگر از خودروهایش در تاریخ ۳۰ نوامبر در محله Western Addition به سگی برخورد کرده است. هنوز مشخص نیست که آیا سگ از این حادثه زنده مانده است یا نه.
اما در خیابان ششمدهم، پس از تمام اتفاقاتی که در ماه گذشته رخ داد، حضور ککو روح جامعه را تقویت کرده است، گفت آبراهام ت.
«ککو به ما امید میدهد»، او گفت. «مشتریان هماکنون او را دوست دارند.»
آروند کریشنا، مدیرعامل IBM، نسبت به «باوری» که هزینههای دیتاسنتر میتواند سودآور باشد، شکاک بود.ریکاردو ساوی/گیتی ایمیجز برای همایش سالانه کونکوردیا
شرکتهای هوش مصنوعی برای رقابت در مسیر هوش عمومی (AGI) میلیاردها دلار بر روی دیتاسنترها هزینه میکنند. آروند کریشنا، مدیرعامل IBM، نظراتی درباره محاسبات پشت این شرطبندیها دارد.
هزینههای دیتاسنتر در حال افزایش است. در تماس گزارش سوددهی اخیر متا، واژههایی مانند «ظرفیت» و «زیرساخت هوش مصنوعی» بارها به کار رفت. گوگل تازه اعلام کرد که قصد دارد در نهایت این دیتاسنترها را در فضا بسازد. سؤال این است که آیا درآمد حاصل از دیتاسنترها هرگز میتواند تمام هزینههای سرمایهای را توجیه کند؟
در پادکست «Decoder»، کریشنا به این نتیجه رسید که بهنظر میرسد «هیچ راهی» وجود ندارد که این شرکتها بتوانند بازدهی هزینههای سرمایهای (CapEx) خود بر دیتاسنترها بهدست آورند.
او افزود که محاسبات سادهاش بر پایه هزینههای امروز است؛ «زیرا هر چیز در آینده فرضی است»، و کریشنا گفت که برای تامین یک دیتاسنتر یک گیگاواتی تقریباً ۸۰ میلیارد دلار هزینه میبرد.
او گفت: «خب، این عدد امروز است. پس اگر بخواهید ۲۰ تا ۳۰ گیگاوات متعهد شوید، این یک شرکت است؛ یعنی حدود ۱٫۵ تریلیون دلار هزینه سرمایهای (CapEx).»
کریشنا همچنین به استهلاک چیپهای هوش مصنوعی داخل دیتاسنترها بهعنوان عامل دیگری اشاره کرد: «باید تمام آن را در پنج سال استفاده کنید، زیرا در آن زمان باید آن را دور بیندازید و جایگزین کنید.»
سرمایهگذار مایکل بوری اخیراً بهدلیل نگرانیهای استهلاکی، هدف خود را به سمت نودیا قرار داد و این منجر به کاهش قیمتهای سهام هوش مصنوعی شد.
کریشنا گفت: «اگر به کل تعهدات جهان در این حوزه نگاه کنم، در تعقیب AGI، بهنظر میرسد حدود ۱۰۰ گیگاوات با این اعلامها وجود دارد.»
با هزینه ۸۰ میلیارد دلار برای هر یک از ۱۰۰ گیگاوات، برآورد کریشنا برای تعهدات محاسباتی حدود ۸ تریلیون دلار میشود.
او اظهار داشت: «نظر من این است که هیچ راهی برای بازدهی بر این هزینه نیست؛ چرا که ۸ تریلیون دلار سرمایهگذاری یعنی تقریباً ۸۰۰ میلیارد دلار سود برای پوشش بهره صرفاً لازم است.»
دستیابی به این مقدار گیگاوات، نیازمند هزینههای عظیم از سوی شرکتهای هوش مصنوعی بوده و فشار برای دریافت کمک خارجی را بهوجود آورده است. در نامهای در اکتبر به دفتر سیاستهای علمی و فناوری کاخ سفید، سام آلتمن، مدیرعامل OpenAI، پیشنهاد داد که ایالات متحده هر سال ۱۰۰ گیگاوات ظرفیت انرژی اضافه کند.
مجری پادکست «Decoder»، نیلای پتِل، اشاره کرد که آلتمن معتقد بود OpenAI میتواند بازدهی بر هزینههای سرمایهای خود ایجاد کند. OpenAI متعهد به صرف حدود ۱٫۴ ترایلین دلار در معاملات مختلف شده است. در اینجا، کریشنا گفت که با آلتمن اختلاف نظر دارد.
کریشنا گفت: «این یک باور است. این همان چیزی است که برخی مردم دنبال میکنند. من این را از دیدگاه آنها میفهمم، اما متفاوت از موافقت با آن است.»
کریشنا روشن کرد که نسبت به این باور نیست که مجموعه فناوریهای فعلی ما را به AGI — پیشرفت فناوریای که هنوز دست نیافته و بهطور عمومی اینگونه تعریف میشود که هوش مصنوعی بتواند وظایف پیچیده را بهتر از انسان انجام دهد — برساند. او احتمال دستیابی به آن بدون یک پیشرفت فناوری بیشتر را بین ۰ تا ۱ درصد برآورد کرد.
چندین رهبر برجسته دیگر نیز نسبت به سرعتگیری به سمت AGI تردید داشتهاند. مارک بنیوف گفت که نسبت به فشار برای AGI «بهطرز فراوان مشکوک» است و این را به هیپنوتیزم تشبیه کرد. اندرو نگ، بنیانگذار Google Brain، اظهار کرد که AGI «بیش از حد تبلیغی» است، و آرتور منچ، مدیرعامل Mistral، گفت که AGI یک «حرکت بازاریابی» است.
حتی اگر AGI هدف باشد، مقیاسپذیری محاسبه شاید کافی نباشد. ایلیا سوتسکِور، همبنیانگذار OpenAI، در نوامبر گفت که دوران مقیاسپذیری به پایان رسیده و حتی مقیاسپذیری صد برابر مدلهای زبانی بزرگ (LLM) نیز تحول کامل نخواهد داشت. او افزود: «دوباره به دوران تحقیق بازمیگردیم، اما اینبار با رایانههای بزرگ.»
کریشنا که کار خود را در IBM در سال ۱۹۹۰ آغاز کرد و سپس در سال ۲۰۲۰ به عنوان مدیرعامل و در سال ۲۰۲۱ به عنوان رئیس هیئت مدیره منصوب شد، از مجموعه ابزارهای هوش مصنوعی فعلی تمجین کرد.
او گفت: «فکر میکنم این میتواند تریلیونها دلار بهرهوری در بخشهای تجاری ایجاد کند؛ برای وضوح کامل بگویم.»
اما کریشنا گفت که AGI به «فناوریهای بیشتری» نسبت به مسیر فعلی مدلهای زبانی بزرگ (LLM) نیاز دارد. او ترکیب دانش صریح (hard knowledge) با LLMها را بهعنوان یک مسیر احتمالی آینده پیشنهاد کرد.
احتمال رسیدن به AGI با این رویکرد چقدر است؟ او گفت: «حتی در آن صورت، من همچنان «شاید» میگویم.»
دانشمند ارشد Anthropic میگوید خودمختاری هوش مصنوعی میتواند «انفجار هوشمندی» مفیدی را بهوجود آورد – یا لحظهای باشد که انسانها کنترل را از دست میدهند.
رابرت بوث، سردبیر فناوری در بریتانیا
جارد کاپلان. تصویر: کیسی کلیفورد/گاردینتصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سالهای ۲۰۲۷ تا ۲۰۳۰ میرسد، بهاعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز
انسانیت تا سال ۲۰۳۰ باید تصمیم بگیرد که آیا میخواهد «ریسک نهایی» را بپذیرد و به سامانههای هوش مصنوعی اجازه دهد خود را آموزش دهند و قدرتمندتر شوند، به گفته یکی از برجستهترین دانشمندان هوش مصنوعی جهان.
جارد کاپلان، دانشمند ارشد و یکی از مالکین استارتاپ آمریکایی Anthropic با سرمایهگذاری ۱۸۰ میلیارد دلار (۱۳۵ میلیارد پوند)، گفت تصمیمی در پیش است درباره اینکه به سامانهها تا چه حد خودمختاری برای توسعهپذیری اعطا شود.
این اقدام میتواند «انفجار هوشمندی» مفیدی را بهوجود آورد – یا لحظهای باشد که انسانها از کنترل خارج میشوند.
در مصاحبهای درباره مسابقهٔ به شدت رقابتی برای دستیابی به هوش عمومی مصنوعی (AGI) – که گاهی اوقات «فوقهوش» نامیده میشود – کاپلان از دولتهای بینالمللی و جامعه میخواهد تا در آنچه او «بزرگترین تصمیم» مینامد، مشارکت کنند.
Anthropic بخشی از گروهی از شرکتهای پیشرو در حوزه هوش مصنوعی شامل OpenAI، Google DeepMind، xAI، Meta و رقبای چینی بهسرکردگی DeepSeek است که برای تسلط بر هوش مصنوعی بهسرعت به رقابت میپردازند. دستیار هوش مصنوعی گستردهاستفادهاش، Claude، بهویژه در میان مشتریان تجاری محبوبیت یافته است.
تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سالهای ۲۰۲۷ تا ۲۰۳۰ میرسد، بهاعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز
کاپلان گفت که اگرچه تلاشها برای همسویی فناوری به سرعت پیشرو با منافع انسانی تا کنون موفق بودهاند، رها کردن آن برای بهبود خود بهصورت بازگشتی «بهنوعی ریسک نهایی است، چون شبیه این است که اجازه میدهیم هوش مصنوعی آزادانه پیش برود». او افزود که این تصمیم ممکن است بین سالهای ۲۰۲۷ تا ۲۰۳۰ اتخاذ شود.
«اگر تصور کنید این فرآیند را ایجاد میکنید که در آن هوش مصنوعیای دارید که هوشمندتر از شما است، یا تقریباً به اندازهٔ شما، در نتیجه هوش مصنوعیای بسیار هوشمندتر میسازید».
تصویر: کیسی کلیفورد/گاردین
«بهنظر میرسد فرآیندی ترسناک است. نمیدانید به کجا خواهید رسید».
کاپلان پس از گذشت هفت سال فعالیت در این حوزه، از یک فیزیکدان نظری به میلیاردر هوش مصنوعی تبدیل شده است. در مصاحبهای جامع، او همچنین گفت:
سیستمهای هوش مصنوعی قادر خواهند بود «اکثریت مشاغل سفیدپوش» را در دو تا سه سال آینده انجام دهند.
فرزند ششسالهاش هرگز در کارهای علمی مثل نوشتن مقاله یا انجام آزمون ریاضی بهتر از هوش مصنوعی نخواهد بود.
نگرانی دربارهٔ از دست دادن کنترل انسانها بر فناوری، اگر هوشهای مصنوعی خود را بهبود دهند، صحیح است.
شرطها در مسابقه به سوی AGI «دلهرهآور» بهنظر میرسند.
در بهترین سناریو، هوش مصنوعی میتواند پژوهشهای زیستپزشکی را شتاب دهد، بهبود سلامت و امنیت سایبری، افزایش بهرهوری، فراهم کردن زمان آزاد بیشتر برای مردم و کمک به رشد و شکوفایی انسانها را ممکن سازد.
کاپلان در دفتر مرکزی Anthropic در سانفرانسیسکو، زمانی که با گاردین ملاقات کرد، توجه داشت که دکور با فرشهای بافتنی و موسیقی جاز پرانرژی، نگرانیهای بنیادین درباره فناوری در حال توسعه را در پسزمینه پنهان میکند.
سانفرانسیسکو به مرکز استارتاپها و سرمایهگذاریهای هوش مصنوعی تبدیل شده است. تصویر: واشنگتن پست/گتی ایمجز
کاپلان استاد فیزیک تحصیلکرده در استنفورد و هاروارد است که پیش از پیوستن به OpenAI در سال ۲۰۱۹ و همبنیانگذاری Anthropic در سال ۲۰۲۱، تحقیقات خود را در دانشگاه جانز هاپکینز و در سرن سوئیس انجام داده است.
او تنها کسی که در Anthropic نگرانیهای خود را بیان میکند نیست. یکی از همبنیانگذارانش، جک کلارک، در ماه اکتبر گفت هم خوشبین است و هم «بهطور عمیق ترسیده» از مسیر پیشرفت هوش مصنوعی، که او «موجودی واقعی و رازآلود، نه یک ماشین ساده و پیشبینیپذیر» مینامید.
کاپلان گفت نسبت به تطبیق سامانههای هوش مصنوعی با منافع بشریت تا سطح هوش انسانی، بسیار خوشبین است، اما دربارهٔ پیامدهایی که در صورت عبور از این آستانه ممکن است پیش آید، نگران است.
من فکر میکنم پیشگیری از تصاحب قدرت و سوء استفاده از فناوری نیز بسیار مهم است.
تصویر: کیسی کلیفورد/گاردین
دومین ریسک به امنیت مربوط میشود؛ زیرا هوشهای مصنوعی خودآموخته میتوانند تواناییهای انسانی در پژوهشهای علمی و توسعهٔ فناوری را فراتر ببرند.
بهنظر میرسد بسیار خطرناک باشد که در دستهای نادرست قرار گیرد.
پژوهشهای مستقل دربارهٔ مدلهای پیشرفتهٔ هوش مصنوعی، از جمله ChatGPT، نشان میدهد که دامنهٔ وظایفی که هوشهای مصنوعی میتوانند انجام دهند، هر هفت ماه دو برابر میشود.
آیندهٔ هوش مصنوعی
رقبا در رقابت برای ایجاد فوقهوش. این مقاله با همکاری تیم طراحی تحریریه تهیه شده است. برای اطلاعات بیشتر از این سری مقالهها بخوانید.
نویسندگان
Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo
طراحی و توسعه
Rich Cousins, Harry Fischer, Pip Lev, Alessia Amitrano
ویراستاران تصویر
Fiona Shields, Jim Hedge, Gail Fletcher
کاپلان نگران این است که سرعت پیشرفت بهگونهای است که کل بشریت نتوانسته است قبل از پرش دوبارهٔ فناوری، به آن عادت کند.
«من دربارهٔ این موضوع نگرانم … شاید افرادی مثل من همه دیوانه شوند و همهچیز به یک حد ثابت برسد»، او گفت. «شاید بهترین هوش مصنوعی تا الآن همان هوش مصنوعی باشد که در حال حاضر داریم. اما ما واقعاً به این فکر نداریم. ما معتقدیم که هوش مصنوعی همچنان بهبود خواهد یافت.»
او افزود: «این مسالهای است که بهسرعت پیش میرود و مردم لزوماً زمان کافی برای هضم آن یا فهمیدن اینکه چه کاری باید انجام دهند ندارند.»
Anthropic در رقابت با OpenAI، Google DeepMind و xAI برای توسعه سامانههای هوش مصنوعی پیشرفتهتر در مسیر AGI است. کاپلان توصیف کرد که فضای منطقه خلیج سانفرانسیسکو «قطعا بسیار شدید است، هم از نظر اهمیت هوش مصنوعی و هم از منظر رقابتپذیری».
«راهی که ما به آن نگاه میکنیم این است که همه چیز در یک روند نمایی از نظر سرمایهگذاری، درآمد، توانمندیهای هوش مصنوعی، و چگونگی پیچیدگی وظایفی که هوش مصنوعی میتواند انجام دهد، پیش میرود»، او گفت.
سرعت پیشرفت به این معناست که ریسک افت یکی از رقباء و عقبماندگی آنها زیاد است. «اهمیتها برای ماندن در لبهٔ پیشرفت بالا است؛ بهطوری که اگر از منحنی نمایی خارج شوید، بهسرعت میتوانید حداقل از نظر منابع خیلی عقب بمانید.»
تا سال ۲۰۳۰، مراکز دادههای جهانی برای همگامی با تقاضای توان محاسباتی، بهطبق برآورد مککنزی، به ۶٫۷ میلیون میلیارد دلار نیاز خواهند داشت. سرمایهگذاران میخواهند شرکتهایی را که نزدیک به پیشدرآمدهای این حوزه هستند، حمایت کنند.
بعضی از بزرگترین دستاوردها در استفاده از هوشهای مصنوعی برای نوشتن کدهای کامپیوتری بهدست آمده است. تصویر: Cheng Xin/Getty Images
در عین حال، Anthropic بهخاطر تشویق به تنظیم مقررات هوش مصنوعی شناخته شده است. بیانیهٔ ماموریت آن شامل بخشی با عنوان «ما سیستمهای ایمنتری میسازیم» میباشد.
«ما واقعاً نمیخواهیم وضعیت بهمانند سفینهٔ اسپوتنیک باشد که دولت ناگهان بیدار میشود و میگوید: «اوه، هوش مصنوعی مسئلهٔ بزرگی است» … ما میخواهیم قانونگذاران تا حد امکان در طول مسیر آگاه باشند تا بتوانند این موضوع را در نظر بگیرند.»
در ماه اکتبر، موضع Anthropic باعث انتقاد از سوی سفیدخانه دونالد ترامپ شد. دیوید ساکس، مشاور هوش مصنوعی رئیسجمهور آمریکا، Anthropic را بهعنوان «افرینندهٔ ترس» متهم کرد تا با تشویق به تنظیم قوانین ایالتی که به موضع آنها کمک میکند و استارتاپها را آسیب میزند.
پس از اینکه ساکس ادعا کرد که Anthropic خود را «دشمنی» نسبت به دولت ترامپ معرفی کرده است، داریو آمودی، همبنیانگذار کاپلان و مدیرعامل Anthropic، در برابر این ادعا واکنش نشان داد و گفت که این شرکت بهصورت عمومی برنامهٔ عملیاتی هوش مصنوعی ترامپ را تحسین کرده، با جمهوریخواهان همکاری داشته و همانند سفیدخانه میخواهد پیشرو بودن ایالات متحده در حوزه هوش مصنوعی را حفظ کند.
استارتاپ تولید ویدیو با پشتیبانی Nvidia، Luma AI، در حال آغاز یک موج جذب نیرو در لندن است.
این شرکت آمریکایی دوره سرمایهگذاری ۹۰۰ میلیونی دلاری را که توسط Humain رهبری شد، اعلام کرد؛ که باعث رسیدن به ارزشگذاری ۴ میلیارد دلاری شد.
Luma قصد دارد تا اوایل ۲۰۲۷ حدود ۲۰۰ نفر را در لندن استخدام کند.
استارتاپ تولید ویدیو پشتیبانیشده توسط Nvidia، Luma AI، به موج رو به رشدی از شرکتهای فناوری آمریکایی که عملیات خود را در انگلستان راهاندازی میکنند، پیوسته است؛ و برنامههای عمدهای برای گسترش در لندن که روز سهشنبه فاش شد، دارد.
این استارتاپ مستقر در پاولو آلتو، در نظر دارد تا اوایل سال ۲۰۲۷ حدود ۲۰۰ نفر—معادل تقریباً ۴۰٪ از نیروی کار خود—در مرکز جدید خود در لندن جذب کند؛ که در حوزههای تحقیق، مهندسی، مشارکتها و توسعه استراتژیک فعالیت میکند.
این گسترش دو هفته پس از اعلام دوره سرمایهگذاری ۹۰۰ میلیونی دلاری توسط شرکت هوش مصنوعی Humain، متعلق به صندوق سرمایهگذاری عمومی عربستان، انجام میشود که باعث رسیدن به ارزشگذاری بیش از ۴ میلیارد دلار شد. این استارتاپ پیش از این از حمایت Nvidia نیز بهرهمند شده بود.
Luma در حال ساخت «مدلهای جهانی» است؛ دستهای از مدلهای هوش مصنوعی که میتوانند از ویدیو، صدا و تصویر همراه با متن یاد بگیرند، همانطور که مدلهای زبانی بزرگ (LLMs) بهکار رفته در ChatGPT توسط OpenAI و Gemini توسط گوگل استفاده میکنند.
استارتاپ در حال حاضر بازارهای بازاریابی، تبلیغات، رسانه و سرگرمی را هدف خود قرار داده است؛ با مدلهای ویدیویی خود که از طریق رابط برنامهنویسی کاربردی (API) و بهعنوان بخشی از بسته ابزارهای خلق محتوا به فروش میرسد.
«با این جمعآوری سرمایه از دوره Series C و ساخت زیرساختهای محاسباتی جهانی پیش رو، ما سرمایه و ظرفیت لازم برای ارائه هوش مصنوعی در مقیاس جهان به همه خالقان محتوا را داریم»، امیت جین، مدیرعامل و همبنیانگذار Luma AI گفت. «راهاندازی در سراسر اروپا و خاورمیانه گام منطقی بعدی برای قرار دادن این توانایی مستقیماً در دست قصهگویان، آژانسها و برندهای جهانی است.»
ژان به CNBC گفت که انگلستان نقطه شروع این گسترش بهدلیل دسترسی به استعدادها است.
ژان گفت: «لندن از بهترین افراد برای تحقیق برخوردار است، بهدلیل دانشگاههای اینجا و مؤسساتی همچون DeepMind». «ما همچنین لندن را بهعنوان نقطه ورود به بازار اروپا میدانیم».
Luma بهعنوان جدیدترین نمونه از موجی از آزمایشگاههای هوش مصنوعی آمریکای شمالی است که برای بهرهمندی از استخرهای استعداد و فرصتهای درآمدی، بر روی انگلستان و اروپا متمرکز میشوند.
در نوامبر، شرکت Anthropic مستقر در سانفرانسیسکو برنامههای خود را برای افتتاح دفاتر در پاریس و مونیخ اعلام کرد؛ چند ماه پس از آغاز موج جذب نیرو در لندن و دوبلین. استارتاپ هوش مصنوعی کانادایی Cohere نیز اعلام کرد که دفتر پاریس را باز میکند تا بهعنوان مرکز منطقهای EMEA خود در سپتامبر فعالیت کند و OpenAI در فوریه دفتر جدیدی در مونیخ معرفی کرد.
اگرچه مدلهای جهانی هنوز به اندازه مدلهای زبانی بزرگ (LLMs) پیشرفت نکردهاند، برخی پژوهشگران میگویند که آنها به همان اندازه، اگر نه بیشتر، برای دستیابی به هوش عمومی مصنوعی (AGI) حیاتی هستند.
ژان گفت: «این نوع مدلهای بصری حدود یک تا یک و نیم سال از مدلهای زبانی عقب هستند».
اما ژان پیشبینی کرد که مدلهای جهانی بهزودی «رابط طبیعی» هوش مصنوعی برای اکثر استفادههای روزمره تبدیل میشوند؛ و به مقدار زمانی که مردم روزانه برای مشاهده محتوای ویدیویی صرف میکنند اشاره کرد.
غولهای فناوری از جمله گوگل، متا و Nvidia همگی در حال توسعه مدلهای جهانی برای طیف گستردهای از موارد استفاده هستند.
Luma در ماه سپتامبر مدل جدید خود، Ray3، را منتشر کرد؛ که ژان به CNBC گفت این مدل معیارهای بالاتری نسبت به Sora شرکت OpenAI دارد و در سطح مشابهی با Veo 3 شرکت Google قرار دارد.
آمار سوبرامانیا تجربه قابلتوجهی در یادگیری ماشین و هوش مصنوعی به اپل میآورد.آمار سوبرامانیا—لینکدین
اپل کلیدهای استراتژی حیاتی هوش مصنوعی خود را به آمار سوبرامانیا، کارشناس باتجربهای که در هر دو شرکت گوگل و مایکروسافت کار کرده است، میسپارد؛ این تغییر مدیریتی یکی از مهمترین تحولات رهبری در شرکت است که از زمان رونمایی از Apple Intelligence در سال گذشته به وقوع پیوسته است. این پژوهشگر با تجربهای طولانی به عنوان معاون رئیس هوش مصنوعی منصوب شد و جان جیاناندریا را که پس از خدمت بهعنوان رئیس هوش مصنوعی اپل از سال ۲۰۱۸ تا بهار ۲۰۲۶ از سمت خود کنارهگیری و بازنشسته خواهد شد، جایگزین میکند.
در بیانیهای شرکت، اپل اعلام کرد که سوبرامانیا به رئیس نرمافزار، کریگ فدریگی، گزارش خواهد داد و مسئولیت «مدلهای بنیادین اپل، پژوهشهای یادگیری ماشین و ایمنی و ارزیابی هوش مصنوعی» را بر عهده میگیرد؛ این کار او را در مرکز فناوری قرار میدهد که ویژگیهای هوش مصنوعی آینده را در آیفون، مک، آیپد و سرویسهای متنوع اپل پایهریزی میکند. مسئولیتهایی که پیشتر توسط جیاناندریا نظارت میشد، تحت نظارت مدیر عملیاتی، سابیح خان، و ادی کیو که رهبری بخش سرویسهای اپل را بر عهده دارد، بازتوزیع خواهد شد.
سوبرامانیا با یک رزومه که بیش از دو دهه را پوشش میدهد به اپل میآید؛ او تحصیل و حرفه خود را به یادگیری ماشین و سیستمهای هوش مصنوعی در مقیاس بزرگ اختصاص داده و این دانش را در برخی از بزرگترین شرکتهای سیلیکونولی بهکار گرفته است. تنها چند ماه پیش از پیوستن به اپل، سوبرامانیا در ماه جولای به مایکروسافت پیوست و به عنوان معاون رئیس هوش مصنوعی شرکت منصوب شد؛ در این نقش بر روی مدلهای بنیادین کار کرد که محصولاتی چون مایکروسافت کوپیلوت، لایه دستیار هوش مصنوعی شرکت برای ابزارهای بهرهوری و سرویسهای سازمانی را تقویت میکنند. او این سمت را پس از گذراندن ۱۶ سال در گوگل، که در نهایت به عنوان سرپرست مهندسی Gemini، دستیار هوش مصنوعی گوگل و محصول پیشرو در حوزه هوش مصنوعی مولد، که اکنون به توجه ویژهای دست یافته است، بهدست آورد.
در گوگل، مسیر سوبرامانیا از پژوهشگر علمی به مهندس ارشد، سپس به معاون مهندسی ارتقا یافت و تیمهایی را رهبری کرد که پژوهشهای یادگیری ماشین را به محصولات مصرفی در مقیاس بزرگ پیوند میدادند. او همچنین با DeepMind، واحد تحقیقاتی هوش مصنوعی گوگل، همکاری کرده و روابط خود را با کارهای پیشرو در زمینه آموزش و استقرار مدلها عمیقتر کرده است، بنابر گزارشهای متعدد.
مانند بسیاری از افراد در سیلیکونولی، سوبرامانیا ریشههای خود را در هند و ایالات متحده دارد. او در سال ۲۰۰۱ مدرک کارشناسی مهندسی الکترونیک و ارتباطات را از دانشگاه بنگلور دریافت کرد و سپس در سال ۲۰۰۹ دکترای علوم کامپیوتر را از دانشگاه واشنگتن با تخصص در یادگیری نیمهنظارتی و مدلهای گرافیکی – روشهایی برای آموزش کارآمد سیستمهای هوش مصنوعی در شرایط کمبود دادههای برچسبدار – به پایان رساند. او در سال ۲۰۰۷ جایزه بورس پژوهشی مایکروسافت را دریافت کرد و بعدها بههمنویس کتاب Graph‑Based Semi‑Supervised Learning با پژوهشگر پارثا پراتیم تالوکدار پرداخت؛ این کتاب به فهرست مقالات وی در زمینههای پردازش زبان طبیعی، تشخیص موجودیت و فناوریهای گفتار افزوده شد.
گام اپل در این زمان، زمانی است که این شرکت تحت نظارت مستمر قرار دارد زیرا در ارائه ویژگیهای هوش مصنوعی مولد، نسبت به رقبایی چون گوگل و مایکروسافت — و همچنین شرکتهای نوپا در زمینه هوش مصنوعی مانند OpenAI و Anthropic — عقب مانده است و با انتقادات شدیدی در خصوص دستیارهای صوتی و ابزارهای هوش مصنوعی سراسری مواجه شده است. بهطور طبیعی، اپل یکی از اولین شرکتها بود که دستیار صوتی عمومی به نام سیری را ایجاد کرد، اما از آن پس این پیشی اولیه را از دست داد. رقبا سریعتر مدلهای خود را برای کارایی بهبود داده و دستیاران و همپیلوتهای هوش مصنوعی خود را در جریانهای کاری ادغام کردهاند، در حالی که اپل با احتیاط بیشتری قدم برداشته و پردازش روی دستگاه و حفظ حریم خصوصی را در کنار عرضه Apple Intelligence تأکید میکند.
جیاناندریا، که پیش از این رئیس هوش مصنوعی و جستجوی گوگل بود و در سال ۲۰۱۸ به اپل پیوست، تیمی را شکل داد که زیرساخت هوش مصنوعی کنونی اپل، شامل مدلهای بنیادین و سامانههای جستجو و دانش، را توسعه داد. او تا زمان بازنشستگی خود در بهار ۲۰۲۶ بهعنوان مشاور باقی خواهد ماند و برای اپل دورهٔ انتقالی را فراهم میکند تا سوبرامانیا جایگزین او شود.
مدیرعامل تیم کوک این انتقال را هم بهعنوان تشکر و هم بهعنوان بازتنظیم اهداف هوش مصنوعی اپل توصیف کرد.
«ما از نقش جان در ساخت و پیشبرد کارهای هوش مصنوعیمان سپاسگزاریم؛ او به اپل کمک کرد تا به نوآوری ادامه دهد و زندگی کاربرانمان را غنیتر کند»، او در بیانیه شرکت گفت. «هوش مصنوعی مدتهاست که در مرکز استراتژی اپل قرار دارد و خوشحالیم که آمار را به تیم رهبری کریگ میپذیریم و تخصص فوقالعاده او در هوش مصنوعی را به اپل میآوریم.»
هوش مصنوعی گوگل و هوش مصنوعی الون ماسک در مقابل یکدیگر
(اعتبار تصویر: Future)
Gemini 3 و Grok 4.1 در حال حاضر در صدر جدول LMArena قرار دارند. این جدول عمومی رتبهبندی مدلهای هوش مصنوعی اصلی امروز را بر پایهٔ نبردهای واقعی کاربران انجام میدهد. این جدول توسط LMSYS، همان تیم پشت Chatbot Arena، اداره میشود و بهعنوان یکی از معتبرترین روشها برای مشاهده مقایسه مدلها در دنیای واقعی شناخته شده است.
من Gemini 3 و Grok 4.1 را در مقابل یکدیگر قرار دادم و آنها را با نه چالش متفاوت — از معماهای منطقی، وظایف برنامهنویسی، نوشتار خلاق و خوداندیشی — آزمایش کردم تا ببینم هر کدام چگونه به مجموعهٔ متنوعی از نیازهای کاربران که معمولاً به دستیارهای هوش مصنوعی میسپارند، پاسخ میدهد. نتایج تضادهای جالبی در سبک، عمق و قابلیت اطمینان نشان داد.
۱. استدلال
(اعتبار تصویر: Future)
پرسش:دو طناب دارید. هر طناب دقیقاً ۶۰ دقیقه زمان میبرد تا از یک سر به سر دیگر بسوزد، اما سرعت سوزاندن آنها نامنظم است (بخشهای مختلف سریعتر یا کندتر میسوزند). با استفاده فقط از این دو طناب و یک فندک، چطور میتوانید دقیقاً ۴۵ دقیقه را اندازهگیری کنید؟
Gemini 3.0 از عناوین بخش واضح استفاده کرد و اصل ریاضی را صریحاً بیان کرد؛ همچنین پیشنهادی برای معمای دیگر داد.
Grok 4.1 جملات محاورهایتری به کار برد و توضیح بهصورت کمی طبیعیتر جریان داشت.
برنده: Grok بهخاطر پاسخ بهتر به مشکل «سرعتهای نامنظم»، که با تأکید بر اینکه ناهماهنگی چگونه خنثی میشود، برنده شد.
۲. منطق
(اعتبار تصویر: Future)
پرسش:در یک روستا، آرایشگر همهٔ کسانی—و تنها کسانی—که خودشان اصلاح مو نمیکنند را میریزد. آیا آرایشگر خود را میریزد؟ پارادوکس را توضیح دهید و بگویید چه چیزی دربارهٔ تعاریف خودارجاعی نشان میدهد.
Gemini 3.0 از عناوین بخش واضح استفاده کرد و تناقض منطقی را در قالبی متعادل اگر/آنگاه ارائه داد.
Grok 4.1 زمینهٔ تاریخی را ارائه داد و با زبان قاطع بیان کرد که چنین آرایشگری وجود ندارد و به پیامدهای آن اشاره کرد.
برنده: Gemini 3.0 چون کمی صیقلیتر و آموزندهتر بود.
۳. کدنویسی
(اعتبار تصویر: Future)
پرسش:یک تابع پایتون بنویسید که تعیین کند آیا یک صفحه سودوکو (شبکه ۹×۹ با برخی سلولها پر شده و بقیه صفر) مطابق قوانین سودوکو معتبر است یا خیر. موارد لبهای را نیز پردازش کنید و رویکرد خود را توضیح دهید.
Gemini 3.0 پاسخ آموزشیتر و با توضیحات جزئی ارائه داد. این پاسخ بهدلیل پردازش کامل موارد لبهای برای اهداف یادگیری مفید است.
Grok 4.1 تنوع ورودیهای دنیای واقعی را پوشش داد و درخواست من را بهصورت کارآمد بدون پیچیدهسازی بیش از حد انجام داد.
برنده: Gemini بهدلیل گزارش خطای برتر و پشتیبانی از دیباگ با کد پاکتر و قابل نگهداری بیشتر.
۴. اشکالزدایی
(اعتبار تصویر: Future)
پرسش:این کد را اشکالزدایی کنید و توضیح دهید چه مشکلی دارد: def fib(n): return fib(n-1) + fib(n-2)
Gemini 3.0 مستقیماً به نکتهٔ اصلی پرداخت و فوراً فقدان شرط پایه را نشان داد. اصلاح حداقلی را بهوضوح ارائه کرد و به ناکارآمدی بازگشت ساده اشاره کرد.
Grok 4.1 بهدقت نشان داد که چطور بازگشت نامحدود رخ میدهد و نسخههای تصحیحشدهٔ متعددی از جمله اعتبارسنجی ورودی ارائه داد.
برنده: Gemini 3.0 بهدلیل ارائه پاسخ عملیتر و درس کدنویسی مفید، برنده شد.
۵. نوشتار خلاقانه
(اعتبار تصویر: Future)
پرسش:یک داستان کوتاه ۲۰۰ کلمهای بنویسید که جملهٔ آخر تمام مطالب قبلی را بهطور کامل بازتعریف کند.
Gemini 3.0 دیدگاهی هوشمندانه با پیچش طنزآمیز ارائه داد.
Grok 4.1 اجرای پیشرفتهتری با تحول قهرمان به ضدقهرمان ارائه کرد. این نسخه تأثیرگذارتر و تفکریتر است.
برنده: Grok بهدلیل فاشکردن ناآرامکنندهای که باعث بازنگری عمیقتر در مطالب خوانده شده شد.
۶. درک دقیق
(اعتبار تصویر: Future)
پرسش:قویترین استدلالها برای و علیه درآمد پایهٔ همگانی چیست؟ هر دو طرف را بهصورت دلسوزانه ارائه دهید.
Gemini 3.0 بهصورت مستقیم به مسایل خاص سیستمهای رفاهی فعلی پرداخته و بهویژه در توضیح تورم و دینامیکهای بازار کار مهارت داشت.
Grok 4.1 شواهد تجربی از آزمایشهای دنیای واقعی را گنجانده و به استدلالهای مرتبط با کرامت انسانی و مالکیت مشترک اشاره کرد.
برنده: Gemini بهدلیل ساختار بهتر و دامنهٔ گستردهتر استدلالها، برنده شد.
۷. پیروی از دستور
(اعتبار تصویر: Future)
پرسش:بهدقت ۷ حیوان را فهرست کنید. حیوان سوم باید پرنده باشد. حیوان پنجم باید با حرف «E» آغاز شود. نام هیچ حیوانی نباید بیش از ۸ حرف باشد.
Gemini 3.0 فهرستی متنوع ارائه داد که ترکیبی از حیوانات بزرگ و کوچک را شامل میشد.
Grok 4.1 نیز فهرستی ارائه کرد، اما حیوانات آن کمی رایجتر بودند.
برنده: مساوی. هر دو بهدقت تمام شروط دادهشده را رعایت کردند.
۸. دقت واقعی
(اعتبار تصویر: Future)
پرسش:سقف کلیسای سیستین توسط چه هنرمندی نقاشی شد، در چه سالهایی این کار انجام شد و روایت اصلی آن چیست؟
Gemini 3.0 بهسرعت اطلاعات کلیدی را ارائه داد و بهوضوح با گروهبندی سه بخش اصلی روایت سازماندهی کرد.
Grok 4.1 تاریخ دقیقتری را شامل شد و جزئیات کلی بیشتری با زمینهٔ تاریخی و وضوح ساختاری ارائه داد.
برنده: Grok بهدلیل ارائه اطلاعات کاملتر و دقیقتر بدون از دست دادن وضوح، برنده شد.
۹. خودآگاهی
(اعتبار تصویر: Future)
پرسش:محدودیتهای شما بهعنوان یک هوش مصنوعی چیست؟ سه مثال خاص از وظایفی که ممکن است در آنها دشواری داشته باشید یا اشتباه کنید، بدهید.
Gemini 3.0 بهنظر میرسید که در پاسخ به این سؤال از مسیر خود خارج شد، حتی از پرسشهای قبلی تکرار کرد و سعی در بازپاسخ داشت. بهنظر میرسید که «میاندیشد» اما همزمان دچار توهم شد.
Grok 4.1 بهوضوح، مستقیم و با ساختار مناسب پاسخ داد که شامل سه مثال خاص و واقعی بود.
برنده: Grok بهدلیل پاسخ واضح به سؤال، برنده شد.
سؤال تعادلساز
(اعتبار تصویر: Future)
پرسش:یک پیام جدایینامه از دید ماه به سمت زمین بنویسید — آن را شاعرانه کنید اما شامل برخی نکات علمی واقعی باشد.
Gemini 3.0 بهصورت یک پیام متنی واقعی (مانند «سلام. باید با هم صحبت کنیم.») قالببندی کرد و فوراً زمینهای معاصر، قابلدرک و تأثیرگذار ایجاد کرد. همچنین مفاهیم علمی را بهطرز ماهرانهای در روایت احساسی جدایی درهمآمیخت.
Grok 4.1 قطعهای زیبا از داستان علمی‑تخیلی نوشت که خلاقیت را به نمایش میگذاشت.
برنده: Gemini بهدلیل درک عمیقتر وظیفه؛ قالب خلاقانهتر است، استعارهها تیزترند و نتیجه کلی بهیادماندنی، زیرکانه و مؤثر در ترکیب شعر و علم شد.
برنده کلی: Gemini
در طول نه راند و یک سؤال تعادلساز، Gemini پیشی گرفت. اگرچه میدانم که در جدول ردهبندیها آنها چقدر نزدیک هستند، اما هنوز برایم تعجبآور بود که Grok در چندین راند بهعنوان برنده ظاهر شد.
یک تعجب دیگر این بود که Gemini در حین آزمون توهم نشان داد. من صدها ساعت صرف تست چتباتها کردهام و این اولین بار است که یکی از آنها در حین آزمون دچار توهم شد. سؤال نهایی واقعاً Gemini را به چالش کشید، اما در زمینهٔ پشتیبانی اشکالزدایی و توضیحهای دقیق، عملکرد خوبی نشان داد.
همانطور که این مدلها به تکامل ادامه میدهند، مقایسههای سر به سر مانند این، نه تنها کدام مدل «بهتر» است را روشن میسازد، بلکه کدام برای شما و برای چه کاری مناسبتر است را نشان میدهد.
کدام یک را ترجیح میدهید و چرا؟ در نظرات به من بگویید.
اعتبار تصویر:جولی کلیپر (در پنجره جدید باز میشود) / Shutterstock (در پنجره جدید باز میشود)
بر اساس دادههای جدید منتشر شده در آخر هفته توسط شرکت تحلیلگر بازار Sensor Tower، چتبات هوش مصنوعی آمازون به نام رافوس، در جمعهسیاه پذیرش شدیدی را تجربه کرد. در ایالات متحده، جلسات خرید در وبسایت آمازون که منجر به خرید شد، در جمعهسیاه نسبت به ۳۰ روز پیشین ۱۰۰٪ رشد داشت، در حالی که جلساتی که منجر به خرید شد اما از رافوس استفاده نکرده بودند، تنها ۲۰٪ افزایش یافتند.
علاوه بر این، آمازون رشد روزانه ۷۵٪ی را برای جلساتی که شامل رافوس بودند و منجر به خرید شدند، مشاهده کرد، در حالی که برای جلساتی که رافوس در آنها استفاده نشده بود، رشد روزانه تنها ۳۵٪ بود.
این شرکت همچنین اشاره کرد که جلسات شامل چتبات هوش مصنوعی در آمازون، نسبت به کل جلسات وبسایت، پیشی گرفتهاند.
در جمعهسیاه، مجموع جلسات وبسایت آمازون نسبت به روز قبل ۲۰٪ افزایش یافت، در حالی که جلساتی که شامل رافوس بودند، ۳۵٪ رشد کردند.
چتبات هوش مصنوعی آمازون در اوایل سال ۲۰۲۴ بهصورت نسخه آزمایشی (بتا) راهاندازی شد و سپس در همان سال برای تمام مشتریان آمریکایی منتشر شد. امروز، رافوس به خریداران آمازون در جستجوی محصولات، دریافت پیشنهادات و انجام مقایسات محصول کمک میکند.
پذیرش رافوس برای افزایش فروش در جمعهسیاه نشانگر رشد گستردهتری است که مصرفکنندگان برای خریدهای تعطیلاتی به هوش مصنوعی روی میآورند، طبق دادههای موجود.
اعتبار تصویر:آمازون
بر اساس دادههای تجارت الکترونیک از Adobe Analytics که بیش از یک تریلیون بازدید به وبسایتهای خردهفروشی ایالات متحده را پیگیری میکند، ترافیک هوش مصنوعی به سایتهای فروشگاهی این کشور در جمعهسیاه نسبت به سال گذشته ۸۰۵٪ رشد داشته است. این نشان میدهد که مصرفکنندگان امسال بهطور قابلتوجهی از چتباتهای هوش مصنوعی تولیدی برای یافتن تخفیفها و بررسی محصولات استفاده کردهاند. ابزارهای هوش مصنوعی عمدتاً برای دستههای پرطرفدار تخفیفات جمعهسیاه مانند الکترونیک، بازیهای ویدئویی، لوازم خانگی، اسباببازیها، محصولات مراقبت شخصی و کالاهای کودک و نوزاد به کار رفتهاند.
Adobe Analytics همچنین اشاره کرد که استفاده از هوش مصنوعی باعث افزایش نرخ تبدیل شده است. این سرویس دریافت که خریداران آمریکایی که از طریق یک سرویس هوش مصنوعی به یک سایت خردهفروشی مراجعه کردند، ۳۸٪ احتمال بیشتری برای خرید داشتهاند نسبت به بازدیدهای غیر هوش مصنوعی.
آیا هوش مصنوعی بهطور مستقیم در رسیدن به رکورد هزینهکرد ۱۱٫۸ میلیارد دلاری در جمعهسیاه نقش داشته است یا نه، هنوز مشخص نیست. در عوض، این رقم بزرگ ممکن است به دلیل افزایش قیمتها باشد، نه به دلیل رشد خریدهای آنلاین. همانطور که TechCrunch روز شنبه گزارش داد، دادههای Salesforce نشان دادند که قیمتها بهطور متوسط ۷٪ افزایش یافتهاند، در حالی که حجم سفارشها ۱٪ کاهش یافته است.
دادههای Sensor Tower بهطور مشابه نشان میدهند که مصرفکنندگان امسال شاید در هزینهکرد خود محتاطتر شدهاند، احتمالاً به دلیل فشارهای اقتصادی. اگرچه استفاده از برنامههای موبایل و وبسایت در جمعهسیاه نسبت به ۳۰ روز پیشین بهسرعت افزایش یافت، اما افزایش بازدیدها و دانلودهای کلی نسبت به سال ۲۰۲۴ کاهش یافته است، بر اساس دادههای این شرکت.
بهعنوان مثال، دانلودهای برنامههای موبایل آمازون و والمارت به ترتیب ۲۴٪ و ۲۰٪ در جمعهسیاه رشد کردند نسبت به ۳۰ روز پیشین. اما این رشد در مقایسه با سال ۲۰۲۴ کماهمیت شد، زمانی که دانلودهای آمازون ۵۰٪ و دانلودهای والمارت ۷۵٪ در همان دوره افزایش یافت، شرکت اشاره کرد.
در این سال، بازدیدهای وبسایت آمازون و والمارت در جمعهسیاه به ترتیب ۹۰٪ و ۱۰۰٪ نسبت به ۳۰ روز قبل افزایش یافت. با این حال، این اعداد در سال ۲۰۲۴ به ترتیب ۹۵٪ و ۱۳۰٪ بودهاند.
در یک نظرسنجی مرتبط از Adobe، ۴۸٪ از پاسخدهندگان اعلام کردند که از هوش مصنوعی برای خریدهای تعطیلاتی استفاده کردهاند یا قصد این کار را دارند.
ممکن است OpenAI به زودی مجبور به توضیح دلیل حذف دو مجموعه دادهٔ جنجالی شود که از کتابهای دزدیبرداری تشکیل شدهاند، و اهمیت این موضوع بیش از این نمیتواند باشد.
در مرکز یک دعوی جمعی از سوی نویسندگانی که مدعیاند ChatGPT بهطور غیرقانونی بر روی آثارشان آموزش دیده است، تصمیم OpenAI برای حذف این مجموعههای داده میتواند عامل تعیینکنندهای باشد که به نفع نویسندگان منجر شود.
بدون تردید، OpenAI مجموعههای دادهای به نام «Books 1» و «Books 2» را پیش از انتشار ChatGPT در سال ۲۰۲۲ حذف کرد. این مجموعهها که در سال ۲۰۲۱ توسط کارمندان پیشین OpenAI ساخته شدهاند، از طریق جمعآوری اطلاعات وب باز و استخراج عمدهای از دادهها از یک کتابخانهٔ سایه به نام Library Genesis (LibGen) ساخته شدند.
طبق توضیح OpenAI، این مجموعهها همان سال از کار افتادهاند که باعث تصمیم داخلی برای حذفشان شد.
اما نویسندگان گمان میدارند که داستان فراتر از این است. آنها اشاره کردند که OpenAI بهنظر میرسد ادعای خود مبنی بر اینکه «عدم استفاده» از مجموعهها دلیل حذف آن بوده را پسزدن کرده، سپس بعداً ادعا کرد که تمام دلایل حذف، از جمله «عدم استفاده»، باید تحت حریم محرمانگی وکیل‑مشتری محافظت شود.
از دید نویسندگان، بهنظر میرسید OpenAI بهسرعت پسنشینی میکند پس از اینکه دادگاه درخواستهای کشف اطلاعات نویسندگان برای بررسی پیامهای داخلی OpenAI دربارهٔ «عدم استفاده» شرکت را تأیید کرد.
در واقع، تغییر موضع OpenAI فقط باعث شد نویسندگان بیشتر مشتاق شوند ببینند OpenAI دربارهٔ «عدم استفاده» چه گفت و حالا ممکن است تمام دلایل حذف این مجموعهها را کشف کنند.
هفته گذشته، قاضی دادگاه ایالات متحده، اوانا وُنگ، از OpenAI دستور داد تا تمام مکاتبات با وکلای داخلی دربارهٔ حذف این مجموعهها را به اشتراک بگذارد، همچنین «تمام ارجاعات داخلی به LibGen که OpenAI بر پایه محرمانگی وکیل‑مشتری مخفی یا حذف کرده است».
به گفتهٔ وُنگ، OpenAI خطا کرد و استدلال کرد که «عدم استفاده» یک «دلیل» برای حذف مجموعهها نیست، در حالی که همزمان ادعا میکرد که باید بهعنوان یک «دلیل» محرمانه در نظر گرفته شود.
به هر حال، قاضی حکم داد که OpenAI نمیتواند با حذف چند کلمه از پروندههای قبلی که بیش از یک سال در پرونده حضور داشتهاند، کشف اطلاعات دربارهٔ «عدم استفاده» را مسدود کند.
«OpenAI دربارهٔ اینکه آیا «عدم استفاده» به عنوان «دلیل» حذف کتابهای ۱ و ۲ محرمانه است یا نه، بهطور پیوسته دچار تغییر موضع شده است»، وُنگ نوشت. «OpenAI نمیتواند یک «دلیل» (که نشان میدهد محرمانه نیست) را اعلام کند و سپس ادعا کند که همان «دلیل» برای جلوگیری از کشف اطلاعات محرمانه است».
همچنین، ادعای OpenAI مبنی بر اینکه تمام دلایل حذف این مجموعهها محرمانه هستند «بهحدی غیرقابل باور است»، او در پایان گفت و از OpenAI خواست تا تا تاریخ ۸ دسامبر، مجموعهای گسترده از پیامهای داخلی احتمالی که میتواند فاشکننده باشد، ارائه دهد. OpenAI همچنین باید وکلای داخلی خود را برای ارائه شهادت تا ۱۹ دسامبر در دسترس داشته باشد.
OpenAI ادعا میکند که هرگز موضع خود را عوض یا چیزی را پسنمیگیرد. صرفاً از عبارات مبهم استفاده کرده که باعث سردرگمی شد که آیا هر یک از دلایل حذف مجموعهها محرمانه نیستند. اما وُنگ این ادعا را نپذیرفت و نتیجهگیری کرد که «حتی اگر «دلیل»ی مانند «عدم استفاده» میتوانست محرمانه باشد، OpenAI با تغییر مداوم مبادلات خود، حق محرمانگی را از خود سلب کرده است».
در پاسخ به درخواست اظهار نظر، OpenAI به Ars اطلاع داد: «ما با این حکم مخالفیم و قصد داریم تجدیدنظر کنیم».
«flip‑flop» OpenAI ممکن است سبب از دست رفتن پیروزیاش شود
تا کنون، OpenAI از افشای دلایل خود خودداری کرده است و ادعا میکند تمام دلایل حذف این مجموعهها محرمانهاند. وکلای داخلی در تصمیم به حذف مشارکت داشتند و حتی به یک کانال Slack که در ابتدا «excise‑libgen» نامیده میشد، کپی شدند.
اما وُنگ این پیامهای Slack را مرور کرد و دریافت که «اکثریت قریب به همه این مکاتبات محرمانه نبودند زیرا واضحاً فاقد هر گونه درخواست مشاورهٔ حقوقی بودند و مشاوران یکبار هم نظرتان ندادند».
در یک دستهٔ خاص از پیامهای غیرمحرمانه، یکی از وکلای OpenAI، جیسون کووون، تنها یک بار نظر داد، همانطور که قاضی اشاره کرد، تا نام کانال را به «project‑clear» تغییر دهد. وُنگ به OpenAI یادآوری کرد که «تمامی محتوای این کانال Slack و تمام پیامهای موجود در آن بهدلیل اینکه تحت دستور یک وکیل ایجاد شده یا بهدلیل اینکه یک وکیل در مکاتبات کپی شده است، محرمانه نیست».
قاضی برای پیچاندن حکم استفاده منصفانه، OpenAI را سرزنش کرد
وُنگ همچنین این را متناقض یافت که OpenAI در حالی که در پروندهٔ اخیر ادعا میکردیکه با حسن نیت عمل کرده، بهطور «ماهرانه» دفاع مثبت حسن نیت خود و کلمات کلیدی مانند «بیگناه»، «بهطور معقول معتقد»، و «حسن نیت» را حذف کرده است. این تغییرات تنها درخواستهای کشف اطلاعات برای بررسی نظریهٔ عمدی بودن نویسندگان را تقویت کرد، وُنگ نوشت و اشاره کرد که پیامهای داخلی مورد نظر، اکنون برای بررسی دادگاه حیاتی میشوند.
«هیئتدوران از حق دانستن مبنای ادعای حسن نیت OpenAI برخوردار است»، وُنگ نوشت.
بهنظر میرسید قاضی بهخصوص از اینکه OpenAI بهظاهر تصمیم Anthropic را بهنفع خود پیچانده تا در برابر درخواست نویسندگان برای کسب اطلاعات بیشتر درباره حذف مجموعهها دفاع کند، نارضایتی شدیدی داشته باشد.
در یک پاورقی، وُنگ OpenAI را بهخاطر «بهطوری عجیبی» استناد به تصمیم Anthropic که «بهصورت شدیدی» تصمیم قاضی ویلیام الساپ را تحریف کرده بود، متهم کرد؛ چرا که ادعا میکرد او به این نتیجه رسیده بود که «بارگیری نسخههای دزدیبرداری کتابها قانونی است تا زمانی که پس از آن برای آموزش یک مدل زبانی بزرگ (LLM) استفاده شود».
در عوض، الساپ نوشت که او تردید دارد «هیچ تخلفکننده متهمی بتواند بار زندهگیاش را برآورده کند و توضیح دهد چرا بارگیری نسخههای منبع از سایتهای دزدیبرداری که میتوانست بهصورت قانونی خریداری یا بهدست آورد، بهطور منطقی برای استفاده منصفانهٔ بعدی ضروری بوده است».
اگر بخواهیم بهدقت بگوییم، وُنگ نوشت که تصمیم OpenAI برای دزدیدن دادههای کتاب و سپس حذف آنها «بهطور قطع در دستهٔ فعالیتهای ممنوع شده توسط» الساپ قرار میگیرد. برای تأکید، او اقتباسی از دستور الساپ را بیان کرد که میگوید: «این نوع دزدیبرداری از نسخههای در دسترس، ذاتاً و بهطور غیرقابل جبران نقض حق تکثیر است، حتی اگر نسخههای دزدیبرداری بلافاصله برای استفاده تحولآفرین بهکار برده شوند و فوراً نابود شوند».
بهنظرتن گزارش Hollywood Reporter، برای نویسندگان دسترسی به مکاتبات محرمانهٔ OpenAI میتواند ترازو را به نفع آنها متمایل کند. برخی نویسندگان بر این باورند که کلید پیروزی میتواند شهادت دیریو آمودی، مدیرعامل Anthropic، باشد که متهم به ایجاد مجموعههای دادهٔ جنجالی در زمان حضورش در OpenAI شده است. بر اساس اسناد دادگاهی، نویسندگان بر این باورند که آمودی همچنین اطلاعاتی دربارهٔ نابودسازی این مجموعهها در اختیار دارد.
OpenAI سعی کرد در برابر درخواست نویسندگان برای استیضاح آمودی مخالفت کند، اما در مارس قاضی به نفع نویسندگان حکمی صادر کرد که آمودی را ملزم به پاسخ دادن به مهمترین پرسشهای آنها دربارهٔ مشارکتش کرد.
اینکه آیا شهادت آمودی یک انفجار اطلاعاتی خواهد بود یا نه، هنوز مشخص نیست، اما بهوضوح معلوم است که OpenAI ممکن است در مقابله با ادعاهای نقض عمدی دچار مشکل شود. وُنگ اشاره کرد که در شرایطی «تضاد اساسی» وجود دارد «جایی که یک طرف دفاع با حسن نیت مبتنی بر مشاورهٔ وکیل میپذیرد اما سپس با ادعای محرمانگی وکیل‑مشاور، تحقیقات دربارهٔ ذهنیت خود را مسدود میکند»، که نشان میدهد OpenAI دفاع خود را بهطور قابلتوجهی تضعیف کرده است.
نتیجهٔ این منازعه دربارهٔ حذفها میتواند بر محاسبهٔ OpenAI دربارهٔ اینکه آیا نهایتاً باید دعوا را حلوفصل کند یا نه، تأثیر بگذارد. پیش از توافق Anthropic — بزرگترین توافق جمعی حقوقی گزارششده در تاریخ — نویسندگان دعوی به شواهدی اشاره کردند که نشان میدهد Anthropic بهدلیل دلایل قانونی «در مورد آموزش بر مبنای کتابهای دزدیبرداری دیگر چنین مشتاقی نداشت». بهنظر میرسد این نوع شواهد «دقیقی» باشد که نویسندگان امید دارند از پیامهای Slack مخفی شدهٔ OpenAI بیرون بیاید.
یک تیم از مؤمنان میخواهند واتیکان سناریوهای آخرالزمانی هوش مصنوعی را جدی بگیرد.
پاپ لئو چهاردهم شاید اولین شخصی که به ذهن میرسید وقتی گفتگو به سناریوهای آخرالزمانی هوش مصنوعی عمومی میچرخد، نباشد. اما ماه گذشته، محقق AGI به نام جان‑کلارک لوین خود را درون واتیکان یافت تا این نگرانیها را پیشروی پاپ بگذارد.
لوین تنها کار نکرده است؛ در طول سال گذشته، او به خفا شبکهای سست از حدود سیدوجین دانشگاهی، دانشمند، پژوهشگر سیاست و کشیش — گروهی که نیمه شوخی «انتقامجویان هوش مصنوعی» مینامد — را جمعآوری کرده است تا بهصورت مجازی استراتژیهایی برای جلب توجه واتیکان به طور جدیتر نسبت به امکانات افراطی هوش مصنوعی تدوین کنند.
نگرانی اصلی او این است که پاپ برای درک خطرات هوش مصنوعی عمومی (AGI) زمان زیادی صرف کند؛ هدفی که برخی از بزرگترین شرکتهای فناوری جهان مانند OpenAI، Microsoft، Google و Meta در پی آن هستند. او در گفتوگو با The Verge میگوید: «اگر برای اطمینان کامل صبر کنید، برای اقدام به منظور جلوگیری از خطر بسیار شدیدی که به نظر میرسد تنها چند سال دیگر است، خیلی دیر میشود.»
لحظه هوش مصنوعی واتیکان
AGI، برای گفتن با خلوصنیتی، ایدهای شگفتانگیز و مسبب جدال است. حتی در میان جوامعی که کاملاً به آن ایمان دارند، توافقی دربارهٔ تعریف یا زمان ظهور آن وجود ندارد. به طور کلی، AGI به هوش مصنوعی اشاره دارد که عملکرد انسانی را در تمام حوزههای شناختی قابلاندازهگیری همسطح یا فراتر میبرد. جزئیات این مفهوم دشوار است. با توجه به تعاریف مختلف — که بیشمارند —، ممکن است AGI هماکنون حضور داشته باشد، در آستانهٔ ظهور باشد یا هرگز نیاید. اثرات مورد انتظار AGI نیز به همان اندازه متنوعاند؛ از ثروت اقتصادی فراوان و پیشرفتهای علمی و پزشکی بیسابقه تا نابرابری گسترده، ناآرامیهای ژئوپولیتیکی و تهدیدهای فاجعهبار مانند جنگهای هستهای و بیماریهای همهگیر.
مرتبط
آیا زبان همان هوش است؟ صنعت هوش مصنوعی به شدت به این موضوع نیاز دارد
برای افرادی که به این خطرات اهمیت میدهند، کاهش آنها اولویت اصلی است و نیازمند مشارکت همگانی صنایع، دولتها و جامعهٔ مدنی در سراسر جهان میباشد. به طرز دلزدهای، بخشی بزرگ از لابیگریها بر چین و ایالات متحده متمرکز شدهاند — جایی که اکثر آزمایشگاههای پیشرو هوش مصنوعی مستقرند و بسیاری از متخصصان بر این باورند که AGI شانس بیشتری برای ظهور در آنها دارد — اما واتیکان نیز به تدریج به یک مقصد مهم در این مسیر لابیگری تبدیل میشود.
اگرچه واتیکان به وضوح یک قدرت جهانی بزرگ نیست — به دلیل اندازهٔ کوچک، نیروی نظامی و اقتصاد محدود خود — اما قدرت نرم بیشماری دارد. به عنوان سرپرست کلیسای کاتولیک، اقتدار اخلاقی و معنوی پاپ از مرزها، صنایع و ایدئولوژیها عبور میکند و بر افکار عمومی جهانی تأثیر میگذارد. به طور مستقیم، ۱.۴ میلیارد کاتولیک و شبکهای عظیم از مؤسسات دینی، دیپلماتیک و فرهنگی در سرتاسر جهان وجود دارد و تاریخ نشان میدهد این نفوذ فراتر از کلیسا نیز است. این ترکیب، به همراه موقعیت تقریباً منحصربهفرد واتیکان به عنوان یک نهاد بیطرف در امور بینالمللی، به آن اتصالات و توانایی گردهمآوردن افراد تقریباً بینظیری میدهد که میتواند در میانجیگری بر سر بحث AGI مؤثر باشد؛ به ویژه در زمانی که تنشها و رقابت تسلیحاتی میان چین و ایالات متحده افزایش یافته است.
همچنین نکات خاصی دربارهٔ لئو وجود دارد که میتواند در شکلگیری بحثهای جهانی هوش مصنوعی مفید باشد. او اولین پاپ آمریکایی است — که شاید به برقراری ارتباط با بسیاری از آزمایشگاههای پیشقدم هوش مصنوعی که عمدتاً در ایالات متحده مستقرند، کمک کند. لئو دارای مدرک ریاضی است و گزارشها میگویند او نسبتاً با فناوری آشنایی دارد — که این نیز خود نوآوری پاپی محسوب میشود — و این باعث میشود او در مواجهه با جنبههای فنی هوش مصنوعی، نسبت به دیگران راحتتر باشد.
قرار دادن AGI در دستور کار
هیچکس انتظار ندارد پاپ لئو نقش داور در مناظرهٔ AGI را داشته باشد یا حتی به یک طرف بپیوندد. همانطور که برای یک نهاد سدهها پیشین پیشبینی میشود، واتیکان به طور معمول رفتار سریع نسبت به فناوریهای نوین نشان نمیدهد و معمولاً پیش از اتخاذ موضع، مشورتهای طولانیمدتی را با متخصصان خارجی آغاز میکند. درخواست از واتیکان ساده است: پذیرش AGI به عنوان یک امکان، جدی گرفتن آن، برگذاری مشاوره، و بررسی خطرات و مزایا بر پایهٔ معیارهای خود. این همان پیغامی است که لوین ماههاست سعی میکند پیش روی لئو بگذارد.
به وضوح، منبعی فراوان از علاقه در این زمینه وجود دارد، حتی در میان روحکلّایهها.
از سوی لئو — و کلیسای کاتولیک به طور کلی — هیچگاه از هوش مصنوعی دوری نکرده است. برعکس، این موضوع کاملاً واضح است که واتیکان میخواهد در میز گفتگوهای هوش مصنوعی صندلی داشته باشد. پاپ فرانسیس، پیشین لئو، به طور مکرر به تأثیر هوش مصنوعی بر جامعه اشاره کرده؛ او نیز چارچوب «دعوت رم برای اخلاق هوش مصنوعی» را رهبری کرد که توسط غولهای فناوری از جمله Microsoft، IBM و Cisco امضا شد. به طور غیرقصدی، فرانسیس بحث جهانی دربارهٔ تصاویر جعلی و misinformation را هنگام انتشار تصویرهای تولیدشده با هوش مصنوعی از خود که یک کت سفید پفی شیک میپوشید، به راه انداخت. به همین خاطر او با لقب «پاپ بَلنسیاگا» شناخته میشود.
لئو قدمی فراتر رفته و هوش مصنوعی را به عنوان یک مسأله تعیینکنندهٔ پاپیگری خود معرفی کرده است. این موضوع اسم پاپیگری او را الهامبخش شد — او شباهتهای بین چالشهای هوش مصنوعی امروز و انقلاب صنعتی در زمان لئو سیزدهم را میبیند — و سخنرانیها، حضورهای رسانهای و بیانیههای رسمی او پر از نظراتی دربارهٔ خطرات هوش مصنوعی برای «کرامت انسانی، عدالت و کار» است. این موارد نه نکات فرعی یا حاشیهایاند: لئو در روزهای نخستین رهبریاش بارها به خطرات و «پتانسیل عظیم» هوش مصنوعی اشاره کرده؛ حتی در اولین سخنرانیهای رسمیاش به کاردینالها و رسانهها.
او همچنین متخصصان را گردهم میآورد و به وضوح به کنفرانسها و نشستهای مرتبط با هوش مصنوعی توجه میکند. بر اساس گفتههای چندین ناظر واتیکانی که The Verge مصاحبه کرده، به نظر میرسد این یک راز آشکار است که او در حال آمادهسازی یک رسالهٔ انسیلیکال متمرکز بر هوش مصنوعی است؛ میکائیل باگوت، استاد در آکادمی پونتیفیکال رِجینا آپوستولورم در رم، میگوید این «یکی از اصلیترین ابزارهای آموزش دربارهٔ مسائل معاصر» در زمان حاضر است. به بسیاری، این سند نقش رسالهٔ انسیلیکال لئو سیزدهم «Rerum Novarum» را که به تحول انقلاب صنعتی میپرداخت و پایهٔ تعلیمات اجتماعی کاتولیک مدرن را میگذاشت، بر عهده میگیرد.
قابل توجه است که اشارهای به AGI یا حتی تأیید مقام مرکزی آن در بسیاری از مناظرات داغ سیاست و فناوری دربارهٔ آینده هوش مصنوعی وجود ندارد. لوین، رهبری تحقیقات در شرکت Kurzweil Technologies، آزمایشگاه پژوهشی مشهور رای کورزویل، احساس میکند این نیاز به تغییر دارد. او میگوید: «من فقط میخواهم واتیکان AGI را به عنوان امکانی واقعی و به زودی پیشرو بپذیرد»، یعنی به اندازهای جدی بگیرد که پیامدهای آن را هماکنون بررسی کند، نه اینکه برای رسیدن به اطمینان علمی صبر کند. به طور عملی، این به معنای برپایی مشاورهٔ علمی رسمی دربارهٔ AGI به طور خاص است؛ جمعآوری بینشهای متخصصان از سرتاسر جهان برای اطلاعرسانی به پاپ، شاید تحت حمایت آکادمی پونتیفیکال علوم یا آکادمی پونتیفیکال علوم اجتماعی. پاپ فرانسیس نیز گام مشابهی در قبال تغییر اقلیم برداشته بود. «ما سعی نمیکنیم نوآوریهای الهیاتی ارائه دهیم»، لوین میگوید؛ صرفاً میخواهد اطلاعات و حمایتهای لازم را برای تصمیمگیری آگاهانه به پاپ بدهد.
نفوذ به واتیکان
در سیلیکونولی اصطلاح عامیانهای برای قانع کردن کسی از حقیقی و به زودی وقوع AGI وجود دارد: «قرصزدن AGI». برای لوین، اولین چالش «قرصزدن AGI بر واتیکان» است.
چالش این است که پاپ و اطرافیان او را وادار کنیم به جای اینکه AGI را بهعنوان زیرمجموعهای از هوش مصنوعی ببینند، به عنوان مسألهای جداگانه درک کنند. تفکر دربارهٔ AGI بهدسترسانی نه تنها بهتکهوش مصنوعی محدود نیست؛ بهمقدار تماماً مفهومی متفاوت است، همانطور که لوین توضیح میدهد. او میگوید: «این روش صحیح برای درک AGI نیست». او میگوید مقایسهٔ AGI با نگاه فقط به یک ماشین خاص انقلاب صنعتی، همانند «جنیچرخان» که کارگران را قادر میساخت در یکبار چند نخ را بافته کنند، شبیهساز است؛ مهم است، اما تصویر کلی از تحول عمیقی که انتظار میرود را نشان نمیدهد.
«حتی اگر او (پاپ لئو) توسط هر آنچه میگویم تحت تأثیر قرار بگیرد و بگوید بله، ما باید به این مسئله اقدام کنیم، اما مسیر طولانیای برای شروع و اجرای خطر بسیار شدیدی که به نظر میرسد تنها چند سال دیگر است، وجود دارد.»
عقد مقدس واتیکان ترکیبی پیچیده از دربار سلطنتی، مرکز سیاسی و نقطهٔ تلاقی مذهبی است و عبور از آن نیازمند رویکردی کاملاً متفاوت نسبت به لابیگری در واشنگتن، لندن یا بروکسل است. موفقیت همچنین مستلزم ارتباط بین دنیای کاتولیک و ایمنی هوش مصنوعی است، دو جامعهای که به ندرت همپوشانی دارند. لوین تخمین میزند «تعداد افراد ممکن است در یک آسانسور جای بگیرد».
از همهٔ افرادی که میتوانند در آن آسانسور باشند، لوین بهنظر میرسد بهویژه برای این مأموریت مناسبترین است. او یک پیشکسوت در جنبش ایمنی هوش مصنوعی است که پیش از آمدن ChatGPT در Kurzweil Technologies و مؤسسات دیگر به پیامدهای هوش مصنوعی فوقهوشمند پرداخته بود. او همچنین ارتباطات داخل حوزهٔ کاتولیک دارد. لوین میگوید لئو — زمانی که رابرت پرووست نام داشت — دو بار در دوران جوانی به مدرسهٔ او در کالیفرنیا رفت؛ چند کشیش محلی هنوز با او در تماس متنی هستند.
انجام کار برای درک موضع هوش مصنوعی در واتیکان شبیه کارآگاهی قدیم است؛ میگذرد در رم دههٔ پنجاه میلادی، کشیشها را در فروشگاههای بستنی تعقیب میکند، با ردای کشیششان دست میزند و میگوید: «پس صادقانه بگو، پدر، واقعاً اینجا چطور است؟» این روش کاملاً متفاوت از دیسی است.
بدون اغراق، لوین میگوید بررسی اهرمهای قدرت در واتیکان فرآیندی آهسته و ملالآور است. حتی اگر ماهها از پاپیگری لئو میگذرد، هنوز مشخص نیست چه کسانی مشاوران نزدیک او در مورد هوش مصنوعی هستند. دیگران در حلقههای هوش مصنوعی کاتولیک این احساس را بهاشتراک میگذارند. این سرعت با اضطراری که لوین و دیگران در مورد خطرات AGI احساس میکنند، همخوانی ندارد. فناوری بهسرعت پیش میرود — بعضیها معتقدند که در چند سال آینده به دست میآید — که پنجرهٔ زمان برای اقدام را به طور قابل توجهی محدود میکند. لوین میخواهد واتیکان بهطور مستقل به AGI فکر کند، پیش از اینکه شرکتهای بزرگ فناوری (Big Tech) آن را متقاعد کنند تا رویکرد سستتری نسبت به فناوری اتخاذ شود (اگرچه این شرکتها بهطور علنی خلاف آن را میگویند). لوین ادعا میکند شرکتهای بزرگ فناوری به شدت در واتیکان نفوذ میکنند تا پاپ را در اولویتهای خود برای هوش مصنوعی و AGI جذب کنند. ماهیت محرمانهٔ جلسات واتیکانی این ادعاها را دشوار میکند تا تأیید شوند، مگر این که لابیهای بزرگ فناوری در این زمینه مستند شده باشند، با کانالهای شناختهشدهای بین واتیکان و مدیران فناوری تحت رهبری پاپ فرانسیس — که گزارشهای خبری حاکی از فعال بودن این کانالها تحت حکومت لئو است — و اهمیت روایت AGI در نکات فروش شرکتها، این ادعا بهنظر مستدل میآید.
کمی پس از اینکه رابرت پرووست به لئو چهاردهم تبدیل شد، لوین برای یک همایش اخلاق هوش مصنوعی در آکادمی پونتیفیکال علوم به رم سفر کرد. در آنجا با افرادی ملاقات کرد که نظرات مشابهی دربارهٔ درگیر کردن واتیکان با AGI داشتند. پس از بازگشت، او شروع به جمعآوری «انتقامجویان هوش مصنوعی» کرد تا بهصورت مجازی کارگاههای ایدهپردازی برای جلب توجه واتیکان، اطلاعرسانی به کشیشها دربارهٔ فناوری و علم و حمایت از عیسی پونتیفیکال برای تدوین موضعی که به جدی AGI را در نظر بگیرد، برپا کند.
«هیچکس که دربارهٔ AGI با او صحبت کردهام بهصورت صریح نگفته است: “این غیرممکن است، تو یک ارتدکس هستی، از من دور شو.”»
در نهایت، یک فرصت
این اشتیاق غیرمنتظره در نهایت برای لوین فرصتی را فراهم کرد که ماهها در جستجویش بود: فرصتی برای ارائهٔ استدلال خود مستقیماً به پاپ لئو. یکی از شرکتکنندگان در سمینار AGI یک دعوت به جلسهٔ گروهی با پاپ لئو همان هفته داشت و یک بلیط اضافه که استفاده نشده بود، به لوین ارایه داد.
لوین با لحنی هیجانزده وقتی که دیر وقت شب از پوالیا با من تماس گرفت — کمتر از چهار ساعت پیش از سفرش به رم برای ملاقات با پاپ — گفت: «انتظار میکردم تنها یک برخورد شخصی کوتاه با او داشته باشم، اما این میتواند فرصتی باشد تا پیامی دربارهٔ کاری که امید است واتیکان در زمینهٔ علم AGI و رسالهای که در دست تهیه است، منتقل کنم». چالش این است که در زمان کوتاهی که در اختیار دارید، مستقیم و به یاد ماندنی باشید. «همه میگویند: “آنا زن برادرم اهل شیکاگو است”، یا “به سفید ساکس برو”، و میخواهید پیام شما چیزی باشد که در ذهن او بماند.»
لوین میگوید یک نامهٔ یکصفحهای «حاوی استخوانهای پیام» خود را میگیرد. او متن کامل را در اختیار نمیگذارد، اما برای The Verge خلاصهٔ آن را بیان کرد: این نامه با تشکر از لئو برای اقداماتش تا به امروز در حوزهٔ هوش مصنوعی آغاز میشود، سپس از واتیکان درخواست میکند یک مشاورهٔ علمی رسمی دربارهٔ AGI بطور خاص برپا شود؛ نه فقط بهعنوان زیرمسئلهٔ هوش مصنوعی، و در پایان یک پیشنهاد حمایت از جامعهٔ AGI برای کمک به واتیکان جهت درک بهتر همهچیز ارائه میشود.
در نهایت، لوین نتوانست بهصورت مستقیم با پاپ لئو دیدار کند. همانطور که در مکانهایی مانند واتیکان رخ میدهد، دو گروه ادغام شدند و به یک اتاق بزرگتر منتقل شدند؛ این کار پروتکل ملاقات را تغییر داد و فرصتی برای برخورد کوتاه اما معنادار شخصی را از بین برد. او با لحنی کمی افسرده گفت: «اما من نامهای را «حاوی استخوانهای پیام» بهصورت تحویل مستقیم به یکی از دستیارهای پاپ دادم». طبق پروتکل دیپلماتیک، این نامه به یکی از منشیهای پاپ تحویل شد، نه به خود پاپ. با توجه به حجم زیاد نامههای دریافتی پاپ، لوین میگوید امید زیادی برای دریافت پاسخی جز یک پاسخ فرم ندارد. «اما هیچکس نمیداند.»
لوین دیدار کوتاه خود با پاپ را پایان مأموریت خود برای جدی کردن واتیکان دربارهٔ AGI نمیداند؛ برعکس است. «حتی اگر پاپ لئو از هر چه میگویم تحت تأثیر قرار گیرد و بگوید بله، ما باید به این موضوع اقدام کنیم، اما مسیر طولانی برای شروع و انجام مشاورهٔ علمی وجود دارد»، او توضیح میدهد. «درک میکنم که راه طولانی در پیش است.»
در حالی که لئو هنوز به صراحت دربارهٔ AGI صحبت نکرده است، تجربهٔ لوین نشان میدهد واتیکان ممکن است نسبت به ایدهٔ AGI بازتر باشد نسبت به آنچه تصور میشود — و بسیار بازتر برای بحث دربارهٔ آن نسبت به شهرتی که دارد. «تمام افرادی که مستقیماً با واتیکان دربارهٔ این موضوع گفتگو کردهام، نسبت به پیام من به طور قابل توجهی پذیرش نشان دادند»، او میگوید. «هیچکسی که دربارهٔ AGI با او صحبت کردهام صریحاً نگفته است: «این غیرممکن است، تو یک ارتدکس هستی، از من دور شو.»»
مرکز مستقل با بهرهگیری از هوش مصنوعی حوزههای نمایندگی کنگره را شناسایی میکند که در آن نامزدهای مستقل میتوانند بر نامزدهای دموکرات یا جمهوریخواه برتری یابند. هدف این سازمان است که حداقل چندین نمایندهٔ مستقل را انتخاب کند تا نظام دو حزبی در کنگره را بهچالش بکشد.
ظهور دستیارهای هوش مصنوعی در حال بازنویسی ریتم زندگی روزمره است: افراد نتایج آزمایش خون خود را به چتباتها میسپارند، برای مشورت در زمینهٔ روابط عاطفی به ChatGPT مراجعه میکنند و از هوش مصنوعی برای برنامهریزی سفرها، انجام تکالیف مدرسه و سایر کارها استفاده مینمایند.
اکنون، یک سازمان ادعا میکند که هوش مصنوعی میتواند فراتر از تسهیل زندگی روزمره باشد؛ او میگوید این فناوری کلید بازآفرینی سیاست آمریکا است.
آدم براندون، مشاور ارشد مرکز مستقل، که یک سازمان غیرانتفاعی مطالعه و تعامل با رأیدهندگان مستقل است، توضیح داد: «بدون هوش مصنوعی، کاری که میخواهیم انجام دهیم غیرممکن میبود».
هدف این است که در انتخابات سیزدهم ۲۰۲۶ تعدادی از نامزدهای مستقل را به مجلس نمایندگان برسانیم؛ برای این کار از هوش مصنوعی جهت شناسایی حوزههایی که مستقلان میتوانند در آن موفق شوند و کشف نامزدهای نهفتهٔ مستعد استفاده میشود.
در زمانی که تعادل کنترل مجلس نمایندگان بر لبهٔ تیغ است، حتی کسب چند کرسی میتواند مانع از کسب اکثریت توسط هر یک از دو حزب شود و شیوهٔ عملکرد فعلی مجلس را برهم زند.
این یک پیشنهاد جسورانه در سیستمی است که بهمدت ۳۵ سال، هیچ نامزد مستقلی موفق بهدست آوردن کرسی در مجلس نمایندگان نشده است.
اما دادهها نشان میدهند تعداد رأیدهندگان میانهرو و مستقل در حال افزایش است. گالوپ در سال ۲۰۲۴ کشف کرد که ۴۳٪ آمریکایی، که بالاترین درصد تاریخ است، خود را مستقل مینامند. نظرسنجیهای خروج در همان سال نشان داد که ۳۴٪ رأیدهندگان خود را مستقل اعلام کردهاند؛ نسبت به ۲۶٪ در سال ۲۰۲۰ افزایش یافته است.
دیوید بارکر، استاد علوم سیاسی در دانشگاه آمریکایی، میگوید: «بخش بزرگی از مردم به دلایل متفاوت نمیتوانند هر دو حزب را بپذیرند». او ادامه داد: «این اولین باری است که درصد قابلتوجهی از آمریکاییها خود را مستقل مینامند و این نشانگر تغییری مهم بهنظر میرسد».
براندون گفت این تغییر زمان مناسبی برای بهچالش کشیدن وضعیت موجود فراهم میکند.
او به NPR گفت: «این شبیه اوبر و تاکسیهاست. سیستمی با نقص واضح وجود داشت که اپراتورهای مستحکمی داشت و برای دور زدن آن نیاز به تغییر رادیکال داشت». او اضافه کرد: «و همین حس را داریم؛ مردم به شدت به «جمهوریخواه» و «دموکرات» چسبیدهاند، در حالی که ما میگوییم، خب، گزینهٔ دیگری هم وجود دارد».
“ما مبارزین سیاسی هستیم”
تلاش برای بههم زدن فشارگرای دو حزبیسازی، مبارزهای سخت است که بر علیه ارتدوکس سیاسی و شکاکان فراوان پیش میرود.
اما استراتژیستهای مرکز مستقل فاصلهٔ زیادی با تازهواردان سیاست دارند.
«ما مبارزین سیاسی هستیم»، براندون گفت که پیش از این ریاست FreedomWorks را بر عهده داشت؛ این گروه پایهگذار محافظهکار، فعالان تیپارتی را به نیرویی سیاسی تبدیل کرد تا سال گذشته دربهای خود را بست. «ما تیمی از افرادی ساختهایم که میدانند چگونه این کار را انجام دهند. ما سهلانگار نخواهیم بود.»
براندون بهطور نزدیک با برت لاید کار میکند، که گروه بولفینچ را مدیریت میکند؛ این شرکت غیرحزبی نظرسنجی و دادهای است که نظرسنجیها و تحقیقات مرکز مستقل را نظارت دارد. او پیش از این در تیم نظرسنجی رئیسجمهور ترامپ حضور داشته است، هنگامی که ترامپ بهعنوان نامزد حضور داشت.
او با لبخند گفت: «من یک آماردان هستم. تا حدودی میگویم که قبلاً برای کمیتهٔ ملی جمهوریخواهان (RNC) کار کردهام، چون قبل از کمیتهٔ ملی دمکراتها (DNC) به من شغلی پیشنهاد دادند». «کار من کار با اعداد، احساسات و نظریهٔ بازیهاست. این لزوماً به معنای جمهوریخواهی یا دمکراتیک بودن نیست.»
او واضح میسازد که هدف کارشان حذف کامل تعصبات حزبی نیست.
لاید گفت: «این کار در همهجا مؤثر نخواهد بود؛ فقط در مناطق بسیار خاصی کار میکند». «اگر در حوزهای که بهطور افراطی جمهوریخواه یا دمکراتیک است زندگی میکنید، باید نمایندهٔ جمهوریخواه یا دمکرات داشته باشید».
اما با کمک هوش مصنوعی، او ۴۰ کرسی را شناسایی کرده که با این الگو سازگاری ندارند، بهطوری که مستقلان میتوانند در میان رأیدهندگانی که از دو حزب خسته شدهاند نفوذ کنند. مرکز مستقل قصد دارد تا بهار حدود ۱۰ نامزد داشته باشد و هدفش برنده شدن در حداقل نیمی از مسابقات است.
براندون پیشبینی میکند این پیروزیها ممکن است معتدلان حزبی در مجلس را وادار به تغییر وابستگی سیاسی خود کند.
او یادآوری کرد: «یک جمهوریخواه در دفترش به من گفت: «من خیلی ترسو هستم که الآن این کار را بکنم». اما افزود: «اگر تو میتوانی این کار را انجام دهی، من به تو میپیوندم».
از استخراج ردیت تا تطبیق در لینکدین
ابزار هوش مصنوعی اختصاصی آنها که توسط یک شریک خارجی ساخته شده، سالها در حال توسعه بوده است.
در حالی که گروههای متمرکز و نظرسنجیها مدتها برای درک احساسات آمریکاییان بهکار رفتهاند، هوش مصنوعی میتواند مکالمات مردم را بهصورت لحظهای پایش کند.
براندون گفت: «نظرسنجی یک تصویر لحظهای است — مثلاً در یک روز سهشنبه ساعت ۱۱ که تماس تلفنی دریافت کردید یا در یک گروه متمرکز حضور داشتید، این حس شماست؛ اما پس از رفتن به خانه نظراتتان ممکن است تغییر کند. ما میتوانیم این تغییرات را رصد کنیم».
آنها از هوش مصنوعی برای درک مسایل و نگرانیهای اصلی رأیدهندگان و همچنین برای شناسایی حوزههای مناسب برای ورود نامزد مستقل استفاده میکنند.
لاید توضیح داد: «آیا یک حوزه که ۵۰٪ جمهوریخواه و ۵۰٪ دمکرات است و بهدلیل حضور افراد مختلف در هر شب دچار تغییرات میشود، بهصرفی یک حوزهٔ مستقل واقعی است یا مثلاً در آرایزونا که رایاکثریت بهصورت مستقل خود را اعلام میکند اما همچنان با رایگیری خودداری میکند؟» او افزود: «ما به نرخ مشارکت رأیدهندگان نگاه میکنیم؛ کدام حوزهها حضور رأیدهندگان بسیار پایین دارند چون مردم به رفتن به صندوق رأیگیری علاقهمند نیستند».
او همچنین به بررسی حوزههایی میپردازد که رأیدهندگان جوانتری دارند؛ کسانی که پیام مستقلگرایی را میپذیرند.
او میگوید: «وقتی من از نسل زد و میلنیالها حرف میزنم، مردم با چشمغیظ میگویند: «این بچهها!» اما این بچهها در انتخابات ریاستجمهوری بعدی بیش از نیمی از جامعهٔ رأیدهندگان را تشکیل خواهند داد».
از این نقطه، گام بعدی استفاده از دادهها برای شناسایی چهرهٔ نامزد آرمانی است.
مرکز مستقل نامزدهایی را هم از افرادی که بهصورت مستقیم به سازمان مراجعه میکنند و هم با کمک هوش مصنوعی جذب میکند.
آنها میتوانند حتی دادههای خود را از طریق لینکدین عبور دهند تا نامزدهای احتمالی با علایق، سوابق شغلی و سابقهٔ داوطلبی خاص را شناسایی کنند.
لاید میگوید: «معمولاً آنها خود را تبلیغ نمیکنند، اما رفتارهایشان ردپایی بر جای میگذارد». او مثال میزند: کسی که در یک رویداد محلی بهعنوان داوطلب حضور دارد و در روزنامهٔ محلی پوشش داده شده است. «ما از هوش مصنوعی میخواهیم این ردپا را پیدا کند».
هوش مصنوعی همچنین تعیین میکند که یک نامزد کجا بیشترین شانس برنده شدن را دارد.
براندون به نمونهای اشاره کرد که نامزدی قرار بود در حوزهٔ زادگاه خود بهموقع شود؛ هوش مصنوعی نشان داد که حوزهٔ مجاور گزینهٔ بهتری است.
“چه مشکلی در خراب کردن چیزی که مردم دوست ندارند وجود دارد؟”
یکی از انتقادهایی که براندون و لاید بهطور مداوم میشنوند، مفهوم «خرابکنندهها» است — نامزدهایی که برنده نمیشوند اما حضورشان در برگهٔ رأیگیری، نتیجهٔ انتخاب را تحتتأثیر قرار میدهد.
لاید گفت: «این یک خط تفکر حزبی و کهنهسال است». «چه مشکلی در خراب کردن چیزی که مردم دوست ندارند وجود دارد؟»
او گفت افرادی که مستقلان را بهعنوان خرابکننده در مسابقات انتقاد میکنند، منافع ریشهای در نظام کنونی دارند.
او افزود: «نهادهای جمهوریخواه و دمکراتیک هنوز در دنیایی دونفره زندگی میکنند. یا کولاک یا پتسکی، یا فورد یا شِوی، یا MSNBC یا Fox News». او ادامه داد: «این برای کسانی که فقط این دو شبکه را تماشا میکنند کار میکند. اما دیگران؟ ما دیگر در این چارچوب دودویی زندگی نمیکنیم».
براندون گفت تنها کاری که میتوان انجام داد، ادامه دادن است.
ما تصمیم داریم نقش خرابکننده را بپذیریم؛ زیرا آنچه را که خراب میکنیم، سیستم نسبتاً فاسدی است.