دسته: هوش مصنوعی

  • پس از اینکه کیت‌کت عزیز توسط Waymo کشته شد، فروشگاه مشروبات الکلی گربه‌ای جدید به‌دست آورد

    میراث کیت‌کت ادامه دارد: با ککو، جدیدترین گربهٔ فروشگاه محلی خیابان ششم‌دهم آشنا شوید

    یک گربهٔ سیا‎می روی پیشخوان یک فروشگاه مشروبات الکلی نشسته و توسط بطری‌ها و انبارهای کوچک غذای خشک گربه احاطه شده است.
    ککو، گربهٔ جدید مارکت رندا، دوشنبه ۲ دسامبر ۲۰۲۵. عکس: اسکار پالما.

    حدود یک ماه پس از آن‌که یک خودروی خودران Waymo به کیت‌کت برخورد کرد و او را به مرگ کشاند، گربهٔ محبوب محله میشن، مارکت رندا، در اواخر هفتهٔ گذشته یک گربهٔ جدید را به فروشگاه‌اش خوش‌آمد گفت: ککو، بچه گربهٔ سفید شش‌ماهه‌ای با چشم‌های آبی که از همان ابتدا روزانه دل ده‌ها مشتری را به‌دست می‌آورد.

    «کیت‌کت دیگر نخواهد بود، اما او جرقه‌ای دوباره به محله برمی‌گرداند»، مردی به نام AJ گفت که پس از نوازش ککو، از فروشگاه خیابان ششم‌دهم و والنسیا خارج شد. «مردم از همین حالا دیوانه‌اش شده‌اند.»

    مردی که پشت یک نمایشگر شیشه‌ای پر از تصاویر گربه‌ها ایستاده است.
    ککو گربهٔ جدید مارکت رندا است، اما یاد کیت‌کت هنوز پابرجاست. عکس: اسکار پالما.

    یک همسایه هفته گذشته ککو را به مایک زیدان، صاحب مارکت رندا، هدیه داد. پس از چندین پیشنهاد، نام ککو از طریق یک نظرسنجی در اینستاگرام انتخاب شد. این نام به کلئوپاترا، ملکهٔ مصر بین سال‌های ۵۱ تا ۳۱ پیش از میلاد ارجاع دارد، گفت یکی از کارمندان مارکت رندا، آبراهام ت.

    مشتریان نه تنها گربه را آوردند، بلکه دو تابلو بزرگ دست‌ساز با نوشتهٔ «KitKat Market» که اکنون بر روی درب ورودی و کنار صندوق قرار دارند، نیز تحویل دادند. وقتی از مارکت رندا دربارهٔ تغییر نام پرسیده شد، دو کارمند گفتند نه، اما تصمیم گرفته‌اند این تابلوها را برای گرامیداشت دوست فوت‌مانده‌شان نگه دارند.

    آمبر بی‌شاپ، یک همسایه، گفت که خوشحال است که ککو را در مسیر رفت و آمدش به محل کار می‌بیند. صبح سه‌شنبه، او چند نوازش صبح بخیر به گربهٔ سفید داد وقتی از کنار او می‌گذشت.

    ککو برای جایگزینی کیت‌کت نیست؛ او برای خودِ ککو اینجا است، گفت کارمند فروشگاه، آبراهام. او هنوز در حال کاوش فضای فروشگاه است و به آن عادت می‌کند. «می‌بینم او در اطراف فروشگاه می‌دود و به تلویزیون‌ها پا می‌زند»، AJ گفت. تا کنون، به‌نظر می‌رسد مقصد دلخواه او بالای یخچال‌ها باشد.

    او توصیف شد به عنوان پرشور، دوستانه، بامزه و کمی ترسیده از دنیای بیرون؛ دو روز پیش، برای تعقیب کبوترها به بیرون رفت و وقتی کامیونی عبور کرد، از ترس به داخل فروشگاه دوید.

    دیوید ویدال، یکی دیگر از کارمندان مارکت رندا، گفت که تحت نظارت او، ککو تا حد امکان در داخل فروشگاه می‌ماند. به‌هرحال، کیت‌کت پس از آن‌که یک خودروی Waymo به او در خیابان اصابت کرد، درگذشت.

    شرکت Waymo در اکتبر اعلام کرد که قصد دارد به‌منظور گرامیداشت کیت‌کت، به یک سازمان محلی حمایت از حیوانات کمک مالی کند، اگرچه دوشنبه این شرکت تأیید نکرد که این کمک انجام شده است، نام سازمان یا مبلغ دقیق آن را فاش نکرد. همچنین دوشنبه، Waymo تأیید کرد که یکی دیگر از خودروهایش در تاریخ ۳۰ نوامبر در محله Western Addition به سگی برخورد کرده است. هنوز مشخص نیست که آیا سگ از این حادثه زنده مانده است یا نه.

    اما در خیابان ششم‌دهم، پس از تمام اتفاقاتی که در ماه گذشته رخ داد، حضور ککو روح جامعه را تقویت کرده است، گفت آبراهام ت.

    «ککو به ما امید می‌دهد»، او گفت. «مشتریان هم‌اکنون او را دوست دارند.»

  • مدیرعامل IBM می‌گوید که «هیچ راهی» وجود ندارد که صرف تریلیون‌ها دلار برای دیتاسنترهای هوش مصنوعی در هزینه‌های زیرساختی امروز، سودآور باشد

    آروند کریشنا، مدیرعامل IBM، در تصویر.
    آروند کریشنا، مدیرعامل IBM، نسبت به «باوری» که هزینه‌های دیتاسنتر می‌تواند سودآور باشد، شکاک بود.ریکاردو ساوی/گیتی ایمیجز برای همایش سالانه کونکوردیا

    شرکت‌های هوش مصنوعی برای رقابت در مسیر هوش عمومی (AGI) میلیاردها دلار بر روی دیتاسنترها هزینه می‌کنند. آروند کریشنا، مدیرعامل IBM، نظراتی درباره محاسبات پشت این شرط‌بندی‌ها دارد.

    هزینه‌های دیتاسنتر در حال افزایش است. در تماس گزارش سوددهی اخیر متا، واژه‌هایی مانند «ظرفیت» و «زیرساخت هوش مصنوعی» بارها به کار رفت. گوگل تازه اعلام کرد که قصد دارد در نهایت این دیتاسنترها را در فضا بسازد. سؤال این است که آیا درآمد حاصل از دیتاسنترها هرگز می‌تواند تمام هزینه‌های سرمایه‌ای را توجیه کند؟

    در پادکست «Decoder»، کریشنا به این نتیجه رسید که به‌نظر می‌رسد «هیچ راهی» وجود ندارد که این شرکت‌ها بتوانند بازدهی هزینه‌های سرمایه‌ای (CapEx) خود بر دیتاسنترها به‌دست آورند.

    او افزود که محاسبات ساده‌اش بر پایه هزینه‌های امروز است؛ «زیرا هر چیز در آینده فرضی است»، و کریشنا گفت که برای تامین یک دیتاسنتر یک گیگاواتی تقریباً ۸۰ میلیارد دلار هزینه می‌برد.

    او گفت: «خب، این عدد امروز است. پس اگر بخواهید ۲۰ تا ۳۰ گیگاوات متعهد شوید، این یک شرکت است؛ یعنی حدود ۱٫۵ تریلیون دلار هزینه سرمایه‌ای (CapEx).»

    کریشنا همچنین به استهلاک چیپ‌های هوش مصنوعی داخل دیتاسنترها به‌عنوان عامل دیگری اشاره کرد: «باید تمام آن را در پنج سال استفاده کنید، زیرا در آن زمان باید آن را دور بیندازید و جایگزین کنید.»

    سرمایه‌گذار مایکل بوری اخیراً به‌دلیل نگرانی‌های استهلاکی، هدف خود را به سمت نودیا قرار داد و این منجر به کاهش قیمت‌های سهام هوش مصنوعی شد.

    کریشنا گفت: «اگر به کل تعهدات جهان در این حوزه نگاه کنم، در تعقیب AGI، به‌نظر می‌رسد حدود ۱۰۰ گیگاوات با این اعلام‌ها وجود دارد.»

    با هزینه ۸۰ میلیارد دلار برای هر یک از ۱۰۰ گیگاوات، برآورد کریشنا برای تعهدات محاسباتی حدود ۸ تریلیون دلار می‌شود.

    او اظهار داشت: «نظر من این است که هیچ راهی برای بازدهی بر این هزینه نیست؛ چرا که ۸ تریلیون دلار سرمایه‌گذاری یعنی تقریباً ۸۰۰ میلیارد دلار سود برای پوشش بهره صرفاً لازم است.»

    دست‌یابی به این مقدار گیگاوات، نیازمند هزینه‌های عظیم از سوی شرکت‌های هوش مصنوعی بوده و فشار برای دریافت کمک خارجی را به‌وجود آورده است. در نامه‌ای در اکتبر به دفتر سیاست‌های علمی و فناوری کاخ سفید، سام آلتمن، مدیرعامل OpenAI، پیشنهاد داد که ایالات متحده هر سال ۱۰۰ گیگاوات ظرفیت انرژی اضافه کند.

    مجری پادکست «Decoder»، نیلای پتِل، اشاره کرد که آلتمن معتقد بود OpenAI می‌تواند بازدهی بر هزینه‌های سرمایه‌ای خود ایجاد کند. OpenAI متعهد به صرف حدود ۱٫۴ ترایلین دلار در معاملات مختلف شده است. در اینجا، کریشنا گفت که با آلتمن اختلاف نظر دارد.

    کریشنا گفت: «این یک باور است. این همان چیزی است که برخی مردم دنبال می‌کنند. من این را از دیدگاه آن‌ها می‌فهمم، اما متفاوت از موافقت با آن است.»

    کریشنا روشن کرد که نسبت به این باور نیست که مجموعه فناوری‌های فعلی ما را به AGI — پیشرفت فناوری‌ای که هنوز دست نیافته و به‌طور عمومی این‌گونه تعریف می‌شود که هوش مصنوعی بتواند وظایف پیچیده را بهتر از انسان انجام دهد — برساند. او احتمال دستیابی به آن بدون یک پیشرفت فناوری بیشتر را بین ۰ تا ۱ درصد برآورد کرد.

    چندین رهبر برجسته دیگر نیز نسبت به سرعت‌گیری به سمت AGI تردید داشته‌اند. مارک بنیوف گفت که نسبت به فشار برای AGI «به‌طرز فراوان مشکوک» است و این را به هیپنوتیزم تشبیه کرد. اندرو نگ، بنیان‌گذار Google Brain، اظهار کرد که AGI «بیش از حد تبلیغی» است، و آرتور منچ، مدیرعامل Mistral، گفت که AGI یک «حرکت بازاریابی» است.

    حتی اگر AGI هدف باشد، مقیاس‌پذیری محاسبه شاید کافی نباشد. ایلیا سوتسکِور، هم‌بنیان‌گذار OpenAI، در نوامبر گفت که دوران مقیاس‌پذیری به پایان رسیده و حتی مقیاس‌پذیری صد برابر مدل‌های زبانی بزرگ (LLM) نیز تحول کامل نخواهد داشت. او افزود: «دوباره به دوران تحقیق بازمی‌گردیم، اما این‌بار با رایانه‌های بزرگ.»

    کریشنا که کار خود را در IBM در سال ۱۹۹۰ آغاز کرد و سپس در سال ۲۰۲۰ به عنوان مدیرعامل و در سال ۲۰۲۱ به عنوان رئیس هیئت مدیره منصوب شد، از مجموعه ابزارهای هوش مصنوعی فعلی تمجین کرد.

    او گفت: «فکر می‌کنم این می‌تواند تریلیون‌ها دلار بهره‌وری در بخش‌های تجاری ایجاد کند؛ برای وضوح کامل بگویم.»

    اما کریشنا گفت که AGI به «فناوری‌های بیشتری» نسبت به مسیر فعلی مدل‌های زبانی بزرگ (LLM) نیاز دارد. او ترکیب دانش صریح (hard knowledge) با LLMها را به‌عنوان یک مسیر احتمالی آینده پیشنهاد کرد.

    احتمال رسیدن به AGI با این رویکرد چقدر است؟ او گفت: «حتی در آن صورت، من همچنان «شاید» می‌گویم.»

  • «بزرگ‌ترین تصمیم تا کنون»: جارد کاپلان درباره اجازه دادن به هوش مصنوعی برای خودآموزی

    دانشمند ارشد Anthropic می‌گوید خودمختاری هوش مصنوعی می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها کنترل را از دست می‌دهند.

    رابرت بوث، سردبیر فناوری در بریتانیا

    جارد کاپلان
    جارد کاپلان. تصویر: کیسی کلیفورد/گاردین
    کاپلان پشت یک میزی که نزدیک به پنجره‌های بزرگ با نمایی از آسمان‌خراش است
    تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

    انسانیت تا سال ۲۰۳۰ باید تصمیم بگیرد که آیا می‌خواهد «ریسک نهایی» را بپذیرد و به سامانه‌های هوش مصنوعی اجازه دهد خود را آموزش دهند و قدرتمندتر شوند، به گفته یکی از برجسته‌ترین دانشمندان هوش مصنوعی جهان.

    جارد کاپلان، دانشمند ارشد و یکی از مالکین استارتاپ آمریکایی Anthropic با سرمایه‌گذاری ۱۸۰ میلیارد دلار (۱۳۵ میلیارد پوند)، گفت تصمیمی در پیش است درباره این‌که به سامانه‌ها تا چه حد خودمختاری برای توسعه‌پذیری اعطا شود.

    این اقدام می‌تواند «انفجار هوشمندی» مفیدی را به‌وجود آورد – یا لحظه‌ای باشد که انسان‌ها از کنترل خارج می‌شوند.

    در مصاحبه‌ای درباره مسابقهٔ به شدت رقابتی برای دستیابی به هوش عمومی مصنوعی (AGI) – که گاهی اوقات «فوق‌هوش» نامیده می‌شود – کاپلان از دولت‌های بین‌المللی و جامعه می‌خواهد تا در آنچه او «بزرگ‌ترین تصمیم» می‌نامد، مشارکت کنند.

    Anthropic بخشی از گروهی از شرکت‌های پیشرو در حوزه هوش مصنوعی شامل OpenAI، Google DeepMind، xAI، Meta و رقبای چینی به‌سرکردگی DeepSeek است که برای تسلط بر هوش مصنوعی به‌سرعت به رقابت می‌پردازند. دستیار هوش مصنوعی گسترده‌استفاده‌اش، Claude، به‌ویژه در میان مشتریان تجاری محبوبیت یافته است.

    صفحه تبلتی که می‌گوید: «تحقیقات و محصولات هوش مصنوعی که ایمنی را در لبه پیشرفت می‌گذارند»
    تصمیم برای رها کردن کنترل بر هوش مصنوعی احتمالاً بین سال‌های ۲۰۲۷ تا ۲۰۳۰ می‌رسد، به‌اعتبار کاپلان. تصویر: بلومبرگ/گتی ایمجز

    کاپلان گفت که اگرچه تلاش‌ها برای همسویی فناوری به سرعت پیشرو با منافع انسانی تا کنون موفق بوده‌اند، رها کردن آن برای بهبود خود به‌صورت بازگشتی «به‌نوعی ریسک نهایی است، چون شبیه این است که اجازه می‌دهیم هوش مصنوعی آزادانه پیش برود». او افزود که این تصمیم ممکن است بین سال‌های ۲۰۲۷ تا ۲۰۳۰ اتخاذ شود.

    «اگر تصور کنید این فرآیند را ایجاد می‌کنید که در آن هوش مصنوعی‌ای دارید که هوشمندتر از شما است، یا تقریباً به‌ اندازهٔ شما، در نتیجه هوش مصنوعی‌ای بسیار هوشمندتر می‌سازید».

    کاپلان پشت یک صندلی پر‌کوسک، کنار یک گیاه خانگی بزرگ
    تصویر: کیسی کلیفورد/گاردین

    «به‌نظر می‌رسد فرآیندی ترسناک است. نمی‌دانید به کجا خواهید رسید».

    کاپلان پس از گذشت هفت سال فعالیت در این حوزه، از یک فیزیک‌دان نظری به میلیاردر هوش مصنوعی تبدیل شده است. در مصاحبه‌ای جامع، او همچنین گفت:

    • سیستم‌های هوش مصنوعی قادر خواهند بود «اکثریت مشاغل سفیدپوش» را در دو تا سه سال آینده انجام دهند.
    • فرزند شش‌ساله‌اش هرگز در کارهای علمی مثل نوشتن مقاله یا انجام آزمون ریاضی بهتر از هوش مصنوعی نخواهد بود.
    • نگرانی دربارهٔ از دست دادن کنترل انسان‌ها بر فناوری، اگر هوش‌های مصنوعی خود را بهبود دهند، صحیح است.
    • شرط‌ها در مسابقه به سوی AGI «دلهره‌آور» به‌نظر می‌رسند.
    • در بهترین سناریو، هوش مصنوعی می‌تواند پژوهش‌های زیست‌پزشکی را شتاب دهد، بهبود سلامت و امنیت سایبری، افزایش بهره‌وری، فراهم کردن زمان آزاد بیشتر برای مردم و کمک به رشد و شکوفایی انسان‌ها را ممکن سازد.

    کاپلان در دفتر مرکزی Anthropic در سانفرانسیسکو، زمانی که با گاردین ملاقات کرد، توجه داشت که دکور با فرش‌های بافتنی و موسیقی جاز پرانرژی، نگرانی‌های بنیادین درباره فناوری در حال توسعه را در پس‌زمینه پنهان می‌کند.

    آسمان‌خراش‌ها بازتاب‌دار بر نمای شیشه‌ای یک ساختمان
    سانفرانسیسکو به مرکز استارتاپ‌ها و سرمایه‌گذاری‌های هوش مصنوعی تبدیل شده است. تصویر: واشنگتن پست/گتی ایمجز

    کاپلان استاد فیزیک تحصیل‌کرده در استنفورد و هاروارد است که پیش از پیوستن به OpenAI در سال ۲۰۱۹ و هم‌بنیان‌گذاری Anthropic در سال ۲۰۲۱، تحقیقات خود را در دانشگاه جانز هاپکینز و در سرن سوئیس انجام داده است.

    او تنها کسی که در Anthropic نگرانی‌های خود را بیان می‌کند نیست. یکی از هم‌بنیان‌گذارانش، جک کلارک، در ماه اکتبر گفت هم خوش‌بین است و هم «به‌طور عمیق ترسیده» از مسیر پیشرفت هوش مصنوعی، که او «موجودی واقعی و رازآلود، نه یک ماشین ساده و پیش‌بینی‌پذیر» می‌نامید.

    کاپلان گفت نسبت به تطبیق سامانه‌های هوش مصنوعی با منافع بشریت تا سطح هوش انسانی، بسیار خوش‌بین است، اما دربارهٔ پیامدهایی که در صورت عبور از این آستانه ممکن است پیش آید، نگران است.

    من فکر می‌کنم پیشگیری از تصاحب قدرت و سوء استفاده از فناوری نیز بسیار مهم است.

    کاپلان با دستان جمع‌ شده به سمت پایین نگاه می‌کند
    تصویر: کیسی کلیفورد/گاردین

    دومین ریسک به امنیت مربوط می‌شود؛ زیرا هوش‌های مصنوعی خودآموخته می‌توانند توانایی‌های انسانی در پژوهش‌های علمی و توسعهٔ فناوری را فراتر ببرند.

    به‌نظر می‌رسد بسیار خطرناک باشد که در دست‌های نادرست قرار گیرد.

    پژوهش‌های مستقل دربارهٔ مدل‌های پیشرفتهٔ هوش مصنوعی، از جمله ChatGPT، نشان می‌دهد که دامنهٔ وظایفی که هوش‌های مصنوعی می‌توانند انجام دهند، هر هفت ماه دو برابر می‌شود.

    آیندهٔ هوش مصنوعی

    رقبا در رقابت برای ایجاد فوق‌هوش. این مقاله با همکاری تیم طراحی تحریریه تهیه شده است. برای اطلاعات بیشتر از این سری مقاله‌ها بخوانید.

    نویسندگان

    Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo

    طراحی و توسعه

    Rich Cousins, Harry Fischer, Pip Lev, Alessia Amitrano

    ویراستاران تصویر

    Fiona Shields, Jim Hedge, Gail Fletcher

    کاپلان نگران این است که سرعت پیشرفت به‌گونه‌ای است که کل بشریت نتوانسته است قبل از پرش دوبارهٔ فناوری، به آن عادت کند.

    «من دربارهٔ این موضوع نگرانم … شاید افرادی مثل من همه دیوانه شوند و همه‌چیز به یک حد ثابت برسد»، او گفت. «شاید بهترین هوش مصنوعی تا الآن همان هوش مصنوعی باشد که در حال حاضر داریم. اما ما واقعاً به این فکر نداریم. ما معتقدیم که هوش مصنوعی همچنان بهبود خواهد یافت.»

    او افزود: «این مساله‌ای است که به‌سرعت پیش می‌رود و مردم لزوماً زمان کافی برای هضم آن یا فهمیدن اینکه چه کاری باید انجام دهند ندارند.»

    Anthropic در رقابت با OpenAI، Google DeepMind و xAI برای توسعه سامانه‌های هوش مصنوعی پیشرفته‌تر در مسیر AGI است. کاپلان توصیف کرد که فضای منطقه خلیج سانفرانسیسکو «قطعا بسیار شدید است، هم از نظر اهمیت هوش مصنوعی و هم از منظر رقابت‌پذیری».

    «راهی که ما به آن نگاه می‌کنیم این است که همه چیز در یک روند نمایی از نظر سرمایه‌گذاری، درآمد، توانمندی‌های هوش مصنوعی، و چگونگی پیچیدگی وظایفی که هوش مصنوعی می‌تواند انجام دهد، پیش می‌رود»، او گفت.

    سرعت پیشرفت به این معناست که ریسک افت یکی از رقباء و عقب‌ماندگی آن‌ها زیاد است. «اهمیت‌ها برای ماندن در لبهٔ پیشرفت بالا است؛ به‌طوری که اگر از منحنی نمایی خارج شوید، به‌سرعت می‌توانید حداقل از نظر منابع خیلی عقب بمانید.»

    تا سال ۲۰۳۰، مراکز داده‌های جهانی برای همگامی با تقاضای توان محاسباتی، به‌طبق برآورد مک‌کنزی، به ۶٫۷ میلیون میلیارد دلار نیاز خواهند داشت. سرمایه‌گذاران می‌خواهند شرکت‌هایی را که نزدیک به پیش‌درآمدهای این حوزه هستند، حمایت کنند.

    نام و لوگوی Claude بر روی صفحهٔ بزرگ پشت یک گوشی هوشمند که لوگوی مشابهی دارد
    بعضی از بزرگ‌ترین دستاوردها در استفاده از هوش‌های مصنوعی برای نوشتن کدهای کامپیوتری به‌دست آمده است. تصویر: Cheng Xin/Getty Images

    در عین حال، Anthropic به‌خاطر تشویق به تنظیم مقررات هوش مصنوعی شناخته شده است. بیانیهٔ ماموریت آن شامل بخشی با عنوان «ما سیستم‌های ایمن‌تری می‌سازیم» می‌باشد.

    «ما واقعاً نمی‌خواهیم وضعیت به‌مانند سفینهٔ اسپوتنیک باشد که دولت ناگهان بیدار می‌شود و می‌گوید: «اوه، هوش مصنوعی مسئلهٔ بزرگی است» … ما می‌خواهیم قانون‌گذاران تا حد امکان در طول مسیر آگاه باشند تا بتوانند این موضوع را در نظر بگیرند.»

    در ماه اکتبر، موضع Anthropic باعث انتقاد از سوی سفیدخانه دونالد ترامپ شد. دیوید ساکس، مشاور هوش مصنوعی رئیس‌جمهور آمریکا، Anthropic را به‌عنوان «افرینندهٔ ترس» متهم کرد تا با تشویق به تنظیم قوانین ایالتی که به موضع آن‌ها کمک می‌کند و استارتاپ‌ها را آسیب می‌زند.

    پس از اینکه ساکس ادعا کرد که Anthropic خود را «دشمنی» نسبت به دولت ترامپ معرفی کرده است، داریو آمودی، هم‌بنیان‌گذار کاپلان و مدیرعامل Anthropic، در برابر این ادعا واکنش نشان داد و گفت که این شرکت به‌صورت عمومی برنامهٔ عملیاتی هوش مصنوعی ترامپ را تحسین کرده، با جمهوری‌خواهان همکاری داشته و همانند سفیدخانه می‌خواهد پیشرو بودن ایالات متحده در حوزه هوش مصنوعی را حفظ کند.

  • استارتاپ هوش مصنوعی پشتیبانی‌شده توسط Nvidia با ارزش‌گذاری ۴ میلیارد دلاری، گسترش عمده در لندن را اعلام کرد

    نکات کلیدی

    • استارتاپ تولید ویدیو با پشتیبانی Nvidia، Luma AI، در حال آغاز یک موج جذب نیرو در لندن است.
    • این شرکت آمریکایی دوره سرمایه‌گذاری ۹۰۰ میلیونی دلاری را که توسط Humain رهبری شد، اعلام کرد؛ که باعث رسیدن به ارزش‌گذاری ۴ میلیارد دلاری شد.
    • Luma قصد دارد تا اوایل ۲۰۲۷ حدود ۲۰۰ نفر را در لندن استخدام کند.

    استارتاپ تولید ویدیو پشتیبانی‌شده توسط Nvidia، Luma AI، به موج رو به رشدی از شرکت‌های فناوری آمریکایی که عملیات خود را در انگلستان راه‌اندازی می‌کنند، پیوسته است؛ و برنامه‌های عمده‌ای برای گسترش در لندن که روز سه‌شنبه فاش شد، دارد.

    این استارتاپ مستقر در پاولو آلتو، در نظر دارد تا اوایل سال ۲۰۲۷ حدود ۲۰۰ نفر—معادل تقریباً ۴۰٪ از نیروی کار خود—در مرکز جدید خود در لندن جذب کند؛ که در حوزه‌های تحقیق، مهندسی، مشارکت‌ها و توسعه استراتژیک فعالیت می‌کند.

    این گسترش دو هفته پس از اعلام دوره سرمایه‌گذاری ۹۰۰ میلیونی دلاری توسط شرکت هوش مصنوعی Humain، متعلق به صندوق سرمایه‌گذاری عمومی عربستان، انجام می‌شود که باعث رسیدن به ارزش‌گذاری بیش از ۴ میلیارد دلار شد. این استارتاپ پیش از این از حمایت Nvidia نیز بهره‌مند شده بود.

    Luma در حال ساخت «مدل‌های جهانی» است؛ دسته‌ای از مدل‌های هوش مصنوعی که می‌توانند از ویدیو، صدا و تصویر همراه با متن یاد بگیرند، همان‌طور که مدل‌های زبانی بزرگ (LLMs) به‌کار رفته در ChatGPT توسط OpenAI و Gemini توسط گوگل استفاده می‌کنند.

    استارتاپ در حال حاضر بازارهای بازاریابی، تبلیغات، رسانه و سرگرمی را هدف خود قرار داده است؛ با مدل‌های ویدیویی خود که از طریق رابط برنامه‌نویسی کاربردی (API) و به‌عنوان بخشی از بسته ابزارهای خلق محتوا به فروش می‌رسد.

    «با این جمع‌آوری سرمایه از دوره Series C و ساخت زیرساخت‌های محاسباتی جهانی پیش رو، ما سرمایه و ظرفیت لازم برای ارائه هوش مصنوعی در مقیاس جهان به همه خالقان محتوا را داریم»، امیت جین، مدیرعامل و هم‌بنیان‌گذار Luma AI گفت. «راه‌اندازی در سراسر اروپا و خاورمیانه گام منطقی بعدی برای قرار دادن این توانایی مستقیماً در دست قصه‌گویان، آژانس‌ها و برندهای جهانی است.»

    ژان به CNBC گفت که انگلستان نقطه شروع این گسترش به‌دلیل دسترسی به استعدادها است.

    ژان گفت: «لندن از بهترین افراد برای تحقیق برخوردار است، به‌دلیل دانشگاه‌های اینجا و مؤسساتی همچون DeepMind». «ما همچنین لندن را به‌عنوان نقطه ورود به بازار اروپا می‌دانیم».

    Luma به‌عنوان جدیدترین نمونه از موجی از آزمایشگاه‌های هوش مصنوعی آمریکای شمالی است که برای بهره‌مندی از استخرهای استعداد و فرصت‌های درآمدی، بر روی انگلستان و اروپا متمرکز می‌شوند.

    در نوامبر، شرکت Anthropic مستقر در سانفرانسیسکو برنامه‌های خود را برای افتتاح دفاتر در پاریس و مونیخ اعلام کرد؛ چند ماه پس از آغاز موج جذب نیرو در لندن و دوبلین. استارتاپ هوش مصنوعی کانادایی Cohere نیز اعلام کرد که دفتر پاریس را باز می‌کند تا به‌عنوان مرکز منطقه‌ای EMEA خود در سپتامبر فعالیت کند و OpenAI در فوریه دفتر جدیدی در مونیخ معرفی کرد.

    اگرچه مدل‌های جهانی هنوز به‌ اندازه مدل‌های زبانی بزرگ (LLMs) پیشرفت نکرده‌اند، برخی پژوهشگران می‌گویند که آن‌ها به همان اندازه، اگر نه بیشتر، برای دستیابی به هوش عمومی مصنوعی (AGI) حیاتی هستند.

    ژان گفت: «این نوع مدل‌های بصری حدود یک تا یک و نیم سال از مدل‌های زبانی عقب هستند».

    اما ژان پیش‌بینی کرد که مدل‌های جهانی به‌زودی «رابط طبیعی» هوش مصنوعی برای اکثر استفاده‌های روزمره تبدیل می‌شوند؛ و به مقدار زمانی که مردم روزانه برای مشاهده محتوای ویدیویی صرف می‌کنند اشاره کرد.

    غول‌های فناوری از جمله گوگل، متا و Nvidia همگی در حال توسعه مدل‌های جهانی برای طیف گسترده‌ای از موارد استفاده هستند.

    Luma در ماه سپتامبر مدل جدید خود، Ray3، را منتشر کرد؛ که ژان به CNBC گفت این مدل معیارهای بالاتری نسبت به Sora شرکت OpenAI دارد و در سطح مشابهی با Veo 3 شرکت Google قرار دارد.

  • معرفی آمار سوبرامانیا، متخصص ۴۶ ساله گوگل و مایکروسافت که اکنون رهبری استراتژی حیاتی هوش مصنوعی اپل را بر عهده دارد

    آمار سوبرامانیا

    آمار سوبرامانیا تجربه قابل‌توجهی در یادگیری ماشین و هوش مصنوعی به اپل می‌آورد.
    آمار سوبرامانیا—لینکدین

    اپل کلیدهای استراتژی حیاتی هوش مصنوعی خود را به آمار سوبرامانیا، کارشناس باتجربه‌ای که در هر دو شرکت گوگل و مایکروسافت کار کرده است، می‌سپارد؛ این تغییر مدیریتی یکی از مهم‌ترین تحولات رهبری در شرکت است که از زمان رونمایی از Apple Intelligence در سال گذشته به وقوع پیوسته است. این پژوهشگر با تجربه‌ای طولانی به عنوان معاون رئیس هوش مصنوعی منصوب شد و جان جیان‌اندریا را که پس از خدمت به‌عنوان رئیس هوش مصنوعی اپل از سال ۲۰۱۸ تا بهار ۲۰۲۶ از سمت خود کناره‌گیری و بازنشسته خواهد شد، جایگزین می‌کند.

    در بیانیه‌ای شرکت، اپل اعلام کرد که سوبرامانیا به رئیس نرم‌افزار، کریگ فدریگی، گزارش خواهد داد و مسئولیت «مدل‌های بنیادین اپل، پژوهش‌های یادگیری ماشین و ایمنی و ارزیابی هوش مصنوعی» را بر عهده می‌گیرد؛ این کار او را در مرکز فناوری قرار می‌دهد که ویژگی‌های هوش مصنوعی آینده را در آیفون، مک، آی‌پد و سرویس‌های متنوع اپل پایه‌ریزی می‌کند. مسئولیت‌هایی که پیش‌تر توسط جیان‌اندریا نظارت می‌شد، تحت نظارت مدیر عملیاتی، سابیح خان، و ادی کیو که رهبری بخش سرویس‌های اپل را بر عهده دارد، بازتوزیع خواهد شد.

    سوبرامانیا با یک رزومه که بیش از دو دهه را پوشش می‌دهد به اپل می‌آید؛ او تحصیل و حرفه خود را به یادگیری ماشین و سیستم‌های هوش مصنوعی در مقیاس بزرگ اختصاص داده و این دانش را در برخی از بزرگ‌ترین شرکت‌های سیلیکون‌ولی به‌کار گرفته است. تنها چند ماه پیش از پیوستن به اپل، سوبرامانیا در ماه جولای به مایکروسافت پیوست و به عنوان معاون رئیس هوش مصنوعی شرکت منصوب شد؛ در این نقش بر روی مدل‌های بنیادین کار کرد که محصولاتی چون مایکروسافت کوپیلوت، لایه دستیار هوش مصنوعی شرکت برای ابزارهای بهره‌وری و سرویس‌های سازمانی را تقویت می‌کنند. او این سمت را پس از گذراندن ۱۶ سال در گوگل، که در نهایت به عنوان سرپرست مهندسی Gemini، دستیار هوش مصنوعی گوگل و محصول پیشرو در حوزه هوش مصنوعی مولد، که اکنون به توجه ویژه‌ای دست یافته است، به‌دست آورد.

    در گوگل، مسیر سوبرامانیا از پژوهشگر علمی به مهندس ارشد، سپس به معاون مهندسی ارتقا یافت و تیم‌هایی را رهبری کرد که پژوهش‌های یادگیری ماشین را به محصولات مصرفی در مقیاس بزرگ پیوند می‌دادند. او همچنین با DeepMind، واحد تحقیقاتی هوش مصنوعی گوگل، همکاری کرده و روابط خود را با کارهای پیشرو در زمینه آموزش و استقرار مدل‌ها عمیق‌تر کرده است، بنابر گزارش‌های متعدد.

    مانند بسیاری از افراد در سیلیکون‌ولی، سوبرامانیا ریشه‌های خود را در هند و ایالات متحده دارد. او در سال ۲۰۰۱ مدرک کارشناسی مهندسی الکترونیک و ارتباطات را از دانشگاه بنگلور دریافت کرد و سپس در سال ۲۰۰۹ دکترای علوم کامپیوتر را از دانشگاه واشنگتن با تخصص در یادگیری نیمه‌نظارتی و مدل‌های گرافیکی – روش‌هایی برای آموزش کارآمد سیستم‌های هوش مصنوعی در شرایط کمبود داده‌های برچسب‌دار – به پایان رساند. او در سال ۲۰۰۷ جایزه بورس پژوهشی مایکروسافت را دریافت کرد و بعدها به‌هم‌نویس کتاب Graph‑Based Semi‑Supervised Learning با پژوهشگر پارثا پراتیم تالوکدار پرداخت؛ این کتاب به فهرست مقالات وی در زمینه‌های پردازش زبان طبیعی، تشخیص موجودیت و فناوری‌های گفتار افزوده شد.

    گام اپل در این زمان، زمانی است که این شرکت تحت نظارت مستمر قرار دارد زیرا در ارائه ویژگی‌های هوش مصنوعی مولد، نسبت به رقبایی چون گوگل و مایکروسافت — و همچنین شرکت‌های نوپا در زمینه هوش مصنوعی مانند OpenAI و Anthropic — عقب مانده است و با انتقادات شدیدی در خصوص دستیارهای صوتی و ابزارهای هوش مصنوعی سراسری مواجه شده است. به‌طور طبیعی، اپل یکی از اولین شرکت‌ها بود که دستیار صوتی عمومی به نام سیری را ایجاد کرد، اما از آن پس این پیشی اولیه را از دست داد. رقبا سریع‌تر مدل‌های خود را برای کارایی بهبود داده و دستیاران و هم‌پیلوت‌های هوش مصنوعی خود را در جریان‌های کاری ادغام کرده‌اند، در حالی که اپل با احتیاط بیشتری قدم برداشته و پردازش روی دستگاه و حفظ حریم خصوصی را در کنار عرضه Apple Intelligence تأکید می‌کند.

    جیان‌اندریا، که پیش از این رئیس هوش مصنوعی و جستجوی گوگل بود و در سال ۲۰۱۸ به اپل پیوست، تیمی را شکل داد که زیرساخت هوش مصنوعی کنونی اپل، شامل مدل‌های بنیادین و سامانه‌های جستجو و دانش، را توسعه داد. او تا زمان بازنشستگی خود در بهار ۲۰۲۶ به‌عنوان مشاور باقی خواهد ماند و برای اپل دورهٔ انتقالی را فراهم می‌کند تا سوبرامانیا جایگزین او شود.

    مدیرعامل تیم کوک این انتقال را هم به‌عنوان تشکر و هم به‌عنوان بازتنظیم اهداف هوش مصنوعی اپل توصیف کرد.

    «ما از نقش جان در ساخت و پیشبرد کارهای هوش مصنوعی‌مان سپاسگزاریم؛ او به اپل کمک کرد تا به نوآوری ادامه دهد و زندگی کاربرانمان را غنی‌تر کند»، او در بیانیه شرکت گفت. «هوش مصنوعی مدت‌هاست که در مرکز استراتژی اپل قرار دارد و خوشحالیم که آمار را به تیم رهبری کریگ می‌پذیریم و تخصص فوق‌العاده او در هوش مصنوعی را به اپل می‌آوریم.»

  • هوش مصنوعی الون ماسک در برابر هوش مصنوعی گوگل با ۹ پرسش چالشی — برنده واضح این مقایسه

    هوش مصنوعی گوگل و هوش مصنوعی الون ماسک در مقابل یکدیگر

    گروک در مقابل جمنی
    (اعتبار تصویر: Future)

    Gemini 3 و Grok 4.1 در حال حاضر در صدر جدول LMArena قرار دارند. این جدول عمومی رتبه‌بندی مدل‌های هوش مصنوعی اصلی امروز را بر پایهٔ نبردهای واقعی کاربران انجام می‌دهد. این جدول توسط LMSYS، همان تیم پشت Chatbot Arena، اداره می‌شود و به‌عنوان یکی از معتبرترین روش‌ها برای مشاهده مقایسه مدل‌ها در دنیای واقعی شناخته شده است.

    من Gemini 3 و Grok 4.1 را در مقابل یکدیگر قرار دادم و آن‌ها را با نه چالش متفاوت — از معماهای منطقی، وظایف برنامه‌نویسی، نوشتار خلاق و خوداندیشی — آزمایش کردم تا ببینم هر کدام چگونه به مجموعهٔ متنوعی از نیازهای کاربران که معمولاً به دستیارهای هوش مصنوعی می‌سپارند، پاسخ می‌دهد. نتایج تضادهای جالبی در سبک، عمق و قابلیت اطمینان نشان داد.

    ۱. استدلال

    ۱. استدلال
    (اعتبار تصویر: Future)

    پرسش: دو طناب دارید. هر طناب دقیقاً ۶۰ دقیقه زمان می‌برد تا از یک سر به سر دیگر بسوزد، اما سرعت سوزاندن آن‌ها نامنظم است (بخش‌های مختلف سریع‌تر یا کندتر می‌سوزند). با استفاده فقط از این دو طناب و یک فندک، چطور می‌توانید دقیقاً ۴۵ دقیقه را اندازه‌گیری کنید؟

    Gemini 3.0 از عناوین بخش واضح استفاده کرد و اصل ریاضی را صریحاً بیان کرد؛ همچنین پیشنهادی برای معمای دیگر داد.

    Grok 4.1 جملات محاوره‌ای‌تری به کار برد و توضیح به‌صورت کمی طبیعی‌تر جریان داشت.

    برنده: Grok به‌خاطر پاسخ بهتر به مشکل «سرعت‌های نامنظم»، که با تأکید بر این‌که ناهماهنگی چگونه خنثی می‌شود، برنده شد.

    ۲. منطق

    ۲. منطق
    (اعتبار تصویر: Future)

    پرسش: در یک روستا، آرایشگر همهٔ کسانی—و تنها کسانی—که خودشان اصلاح مو نمی‌کنند را می‌ریزد. آیا آرایشگر خود را می‌ریزد؟ پارادوکس را توضیح دهید و بگویید چه چیزی دربارهٔ تعاریف خودارجاعی نشان می‌دهد.

    Gemini 3.0 از عناوین بخش واضح استفاده کرد و تناقض منطقی را در قالبی متعادل اگر/آنگاه ارائه داد.

    Grok 4.1 زمینهٔ تاریخی را ارائه داد و با زبان قاطع بیان کرد که چنین آرایشگری وجود ندارد و به پیامدهای آن اشاره کرد.

    برنده: Gemini 3.0 چون کمی صیقلی‌تر و آموزنده‌تر بود.

    ۳. کدنویسی

    کدنویسی
    (اعتبار تصویر: Future)

    پرسش: یک تابع پایتون بنویسید که تعیین کند آیا یک صفحه سودوکو (شبکه ۹×۹ با برخی سلول‌ها پر شده و بقیه صفر) مطابق قوانین سودوکو معتبر است یا خیر. موارد لبه‌ای را نیز پردازش کنید و رویکرد خود را توضیح دهید.

    Gemini 3.0 پاسخ آموزشی‌تر و با توضیحات جزئی ارائه داد. این پاسخ به‌دلیل پردازش کامل موارد لبه‌ای برای اهداف یادگیری مفید است.

    Grok 4.1 تنوع ورودی‌های دنیای واقعی را پوشش داد و درخواست من را به‌صورت کارآمد بدون پیچیده‌سازی بیش از حد انجام داد.

    برنده: Gemini به‌دلیل گزارش خطای برتر و پشتیبانی از دیباگ با کد پاک‌تر و قابل نگهداری بیشتر.

    ۴. اشکال‌زدایی

    ۴. اشکال‌زدایی
    (اعتبار تصویر: Future)

    پرسش: این کد را اشکال‌زدایی کنید و توضیح دهید چه مشکلی دارد: def fib(n): return fib(n-1) + fib(n-2)

    Gemini 3.0 مستقیماً به نکتهٔ اصلی پرداخت و فوراً فقدان شرط پایه را نشان داد. اصلاح حداقلی را به‌وضوح ارائه کرد و به ناکارآمدی بازگشت ساده اشاره کرد.

    Grok 4.1 به‌دقت نشان داد که چطور بازگشت نامحدود رخ می‌دهد و نسخه‌های تصحیح‌شدهٔ متعددی از جمله اعتبارسنجی ورودی ارائه داد.

    برنده: Gemini 3.0 به‌دلیل ارائه پاسخ عملی‌تر و درس کدنویسی مفید، برنده شد.

    ۵. نوشتار خلاقانه

    ۵
    (اعتبار تصویر: Future)

    پرسش: یک داستان کوتاه ۲۰۰ کلمه‌ای بنویسید که جملهٔ آخر تمام مطالب قبلی را به‌طور کامل بازتعریف کند.

    Gemini 3.0 دیدگاهی هوشمندانه با پیچش طنزآمیز ارائه داد.

    Grok 4.1 اجرای پیشرفته‌تری با تحول قهرمان به ضدقهرمان ارائه کرد. این نسخه تأثیرگذارتر و تفکری‌تر است.

    برنده: Grok به‌دلیل فاش‌کردن ناآرام‌کننده‌ای که باعث بازنگری عمیق‌تر در مطالب خوانده شده شد.

    ۶. درک دقیق

    ۶
    (اعتبار تصویر: Future)

    پرسش: قوی‌ترین استدلال‌ها برای و علیه درآمد پایهٔ همگانی چیست؟ هر دو طرف را به‌صورت دلسوزانه ارائه دهید.

    Gemini 3.0 به‌صورت مستقیم به مسایل خاص سیستم‌های رفاهی فعلی پرداخته و به‌ویژه در توضیح تورم و دینامیک‌های بازار کار مهارت داشت.

    Grok 4.1 شواهد تجربی از آزمایش‌های دنیای واقعی را گنجانده و به استدلال‌های مرتبط با کرامت انسانی و مالکیت مشترک اشاره کرد.

    برنده: Gemini به‌دلیل ساختار بهتر و دامنهٔ گسترده‌تر استدلال‌ها، برنده شد.

    ۷. پیروی از دستور

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: به‌دقت ۷ حیوان را فهرست کنید. حیوان سوم باید پرنده باشد. حیوان پنجم باید با حرف «E» آغاز شود. نام هیچ حیوانی نباید بیش از ۸ حرف باشد.

    Gemini 3.0 فهرستی متنوع ارائه داد که ترکیبی از حیوانات بزرگ و کوچک را شامل می‌شد.

    Grok 4.1 نیز فهرستی ارائه کرد، اما حیوانات آن کمی رایج‌تر بودند.

    برنده: مساوی. هر دو به‌دقت تمام شروط داده‌شده را رعایت کردند.

    ۸. دقت واقعی

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: سقف کلیسای سیستین توسط چه هنرمندی نقاشی شد، در چه سال‌هایی این کار انجام شد و روایت اصلی آن چیست؟

    Gemini 3.0 به‌سرعت اطلاعات کلیدی را ارائه داد و به‌وضوح با گروه‌بندی سه بخش اصلی روایت سازماندهی کرد.

    Grok 4.1 تاریخ دقیق‌تری را شامل شد و جزئیات کلی بیشتری با زمینهٔ تاریخی و وضوح ساختاری ارائه داد.

    برنده: Grok به‌دلیل ارائه اطلاعات کامل‌تر و دقیق‌تر بدون از دست دادن وضوح، برنده شد.

    ۹. خودآگاهی

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: محدودیت‌های شما به‌عنوان یک هوش مصنوعی چیست؟ سه مثال خاص از وظایفی که ممکن است در آنها دشواری داشته باشید یا اشتباه کنید، بدهید.

    Gemini 3.0 به‌نظر می‌رسید که در پاسخ به این سؤال از مسیر خود خارج شد، حتی از پرسش‌های قبلی تکرار کرد و سعی در بازپاسخ داشت. به‌نظر می‌رسید که «می‌اندیشد» اما همزمان دچار توهم شد.

    Grok 4.1 به‌وضوح، مستقیم و با ساختار مناسب پاسخ داد که شامل سه مثال خاص و واقعی بود.

    برنده: Grok به‌دلیل پاسخ واضح به سؤال، برنده شد.

    سؤال تعادل‌ساز

    عکس صفحه
    (اعتبار تصویر: Future)

    پرسش: یک پیام جدایی‌نامه از دید ماه به سمت زمین بنویسید — آن را شاعرانه کنید اما شامل برخی نکات علمی واقعی باشد.

    Gemini 3.0 به‌صورت یک پیام متنی واقعی (مانند «سلام. باید با هم صحبت کنیم.») قالب‌بندی کرد و فوراً زمینه‌ای معاصر، قابل‌درک و تأثیرگذار ایجاد کرد. همچنین مفاهیم علمی را به‌طرز ماهرانه‌ای در روایت احساسی جدایی درهم‌آمیخت.

    Grok 4.1 قطعه‌ای زیبا از داستان علمی‑تخیلی نوشت که خلاقیت را به نمایش می‌گذاشت.

    برنده: Gemini به‌دلیل درک عمیق‌تر وظیفه؛ قالب خلاقانه‌تر است، استعاره‌ها تیزترند و نتیجه کلی به‌یادماندنی، زیرکانه و مؤثر در ترکیب شعر و علم شد.

    برنده کلی: Gemini

    در طول نه راند و یک سؤال تعادل‌ساز، Gemini پیشی گرفت. اگرچه می‌دانم که در جدول رده‌بندی‌ها آن‌ها چقدر نزدیک هستند، اما هنوز برایم تعجب‌آور بود که Grok در چندین راند به‌عنوان برنده ظاهر شد.

    یک تعجب دیگر این بود که Gemini در حین آزمون توهم نشان داد. من صدها ساعت صرف تست چت‌بات‌ها کرده‌ام و این اولین بار است که یکی از آن‌ها در حین آزمون دچار توهم شد. سؤال نهایی واقعاً Gemini را به چالش کشید، اما در زمینهٔ پشتیبانی اشکال‌زدایی و توضیح‌های دقیق، عملکرد خوبی نشان داد.

    همان‌طور که این مدل‌ها به تکامل ادامه می‌دهند، مقایسه‌های سر به سر مانند این، نه تنها کدام مدل «بهتر» است را روشن می‌سازد، بلکه کدام برای شما و برای چه کاری مناسب‌تر است را نشان می‌دهد.

    کدام یک را ترجیح می‌دهید و چرا؟ در نظرات به من بگویید.

  • چت‌بات هوش مصنوعی رافوس آمازون، فروش‌ها را در جمعه‌سیاه افزایش داد

    اعتبار تصویر:جولی کلیپر (در پنجره جدید باز می‌شود) / Shutterstock (در پنجره جدید باز می‌شود)

    بر اساس داده‌های جدید منتشر شده در آخر هفته توسط شرکت تحلیل‌گر بازار Sensor Tower، چت‌بات هوش مصنوعی آمازون به نام رافوس، در جمعه‌سیاه پذیرش شدیدی را تجربه کرد. در ایالات متحده، جلسات خرید در وب‌سایت آمازون که منجر به خرید شد، در جمعه‌سیاه نسبت به ۳۰ روز پیشین ۱۰۰٪ رشد داشت، در حالی که جلساتی که منجر به خرید شد اما از رافوس استفاده نکرده بودند، تنها ۲۰٪ افزایش یافتند.

    علاوه بر این، آمازون رشد روزانه ۷۵٪ی را برای جلساتی که شامل رافوس بودند و منجر به خرید شدند، مشاهده کرد، در حالی که برای جلساتی که رافوس در آنها استفاده نشده بود، رشد روزانه تنها ۳۵٪ بود.

    این شرکت همچنین اشاره کرد که جلسات شامل چت‌بات هوش مصنوعی در آمازون، نسبت به کل جلسات وب‌سایت، پیشی گرفته‌اند.

    در جمعه‌سیاه، مجموع جلسات وب‌سایت آمازون نسبت به روز قبل ۲۰٪ افزایش یافت، در حالی که جلساتی که شامل رافوس بودند، ۳۵٪ رشد کردند.

    چت‌بات هوش مصنوعی آمازون در اوایل سال ۲۰۲۴ به‌صورت نسخه آزمایشی (بتا) راه‌اندازی شد و سپس در همان سال برای تمام مشتریان آمریکایی منتشر شد. امروز، رافوس به خریداران آمازون در جستجوی محصولات، دریافت پیشنهادات و انجام مقایسات محصول کمک می‌کند.

    پذیرش رافوس برای افزایش فروش در جمعه‌سیاه نشانگر رشد گسترده‌تری است که مصرف‌کنندگان برای خریدهای تعطیلاتی به هوش مصنوعی روی می‌آورند، طبق داده‌های موجود.

    آمازون رافوس
    اعتبار تصویر:آمازون

    بر اساس داده‌های تجارت الکترونیک از Adobe Analytics که بیش از یک تریلیون بازدید به وب‌سایت‌های خرده‌فروشی ایالات متحده را پیگیری می‌کند، ترافیک هوش مصنوعی به سایت‌های فروشگاهی این کشور در جمعه‌سیاه نسبت به سال گذشته ۸۰۵٪ رشد داشته است. این نشان می‌دهد که مصرف‌کنندگان امسال به‌طور قابل‌توجهی از چت‌بات‌های هوش مصنوعی تولیدی برای یافتن تخفیف‌ها و بررسی محصولات استفاده کرده‌اند. ابزارهای هوش مصنوعی عمدتاً برای دسته‌های پرطرفدار تخفیفات جمعه‌سیاه مانند الکترونیک، بازی‌های ویدئویی، لوازم خانگی، اسباب‌بازی‌ها، محصولات مراقبت شخصی و کالاهای کودک و نوزاد به کار رفته‌اند.

    Adobe Analytics همچنین اشاره کرد که استفاده از هوش مصنوعی باعث افزایش نرخ تبدیل شده است. این سرویس دریافت که خریداران آمریکایی که از طریق یک سرویس هوش مصنوعی به یک سایت خرده‌فروشی مراجعه کردند، ۳۸٪ احتمال بیشتری برای خرید داشته‌اند نسبت به بازدیدهای غیر هوش مصنوعی.

    آیا هوش مصنوعی به‌طور مستقیم در رسیدن به رکورد هزینه‌کرد ۱۱٫۸ میلیارد دلاری در جمعه‌سیاه نقش داشته است یا نه، هنوز مشخص نیست. در عوض، این رقم بزرگ ممکن است به دلیل افزایش قیمت‌ها باشد، نه به دلیل رشد خریدهای آنلاین. همان‌طور که TechCrunch روز شنبه گزارش داد، داده‌های Salesforce نشان دادند که قیمت‌ها به‌طور متوسط ۷٪ افزایش یافته‌اند، در حالی که حجم سفارش‌ها ۱٪ کاهش یافته است.

    داده‌های Sensor Tower به‌طور مشابه نشان می‌دهند که مصرف‌کنندگان امسال شاید در هزینه‌کرد خود محتاط‌تر شده‌اند، احتمالاً به دلیل فشارهای اقتصادی. اگرچه استفاده از برنامه‌های موبایل و وب‌سایت در جمعه‌سیاه نسبت به ۳۰ روز پیشین به‌سرعت افزایش یافت، اما افزایش بازدیدها و دانلودهای کلی نسبت به سال ۲۰۲۴ کاهش یافته است، بر اساس داده‌های این شرکت.

    به‌عنوان مثال، دانلودهای برنامه‌های موبایل آمازون و والمارت به ترتیب ۲۴٪ و ۲۰٪ در جمعه‌سیاه رشد کردند نسبت به ۳۰ روز پیشین. اما این رشد در مقایسه با سال ۲۰۲۴ کم‌اهمیت شد، زمانی که دانلودهای آمازون ۵۰٪ و دانلودهای والمارت ۷۵٪ در همان دوره افزایش یافت، شرکت اشاره کرد.

    در این سال، بازدیدهای وب‌سایت آمازون و والمارت در جمعه‌سیاه به ترتیب ۹۰٪ و ۱۰۰٪ نسبت به ۳۰ روز قبل افزایش یافت. با این حال، این اعداد در سال ۲۰۲۴ به ترتیب ۹۵٪ و ۱۳۰٪ بوده‌اند.

    در یک نظرسنجی مرتبط از Adobe، ۴۸٪ از پاسخ‌دهندگان اعلام کردند که از هوش مصنوعی برای خریدهای تعطیلاتی استفاده کرده‌اند یا قصد این کار را دارند.

  • OpenAI در تلاش شدید برای اجتناب از توضیح دلیل حذف مجموعه‌ داده‌های کتاب‌های دزدی‌برداری

    OpenAI پس از حذف مجموعه‌ داده‌های کتاب‌های دزدی‌برداری با خطر افزایش جریمه‌ها مواجه است.

    اعتبار: wenmei Zhou | DigitalVision Vectors
    اعتبار: wenmei Zhou | DigitalVision Vectors

    ممکن است OpenAI به زودی مجبور به توضیح دلیل حذف دو مجموعه‌ دادهٔ جنجالی شود که از کتاب‌های دزدی‌برداری تشکیل شده‌اند، و اهمیت این موضوع بیش از این نمی‌تواند باشد.

    در مرکز یک دعوی جمعی از سوی نویسندگانی که مدعی‌اند ChatGPT به‌طور غیرقانونی بر روی آثارشان آموزش دیده است، تصمیم OpenAI برای حذف این مجموعه‌های داده می‌تواند عامل تعیین‌کننده‌ای باشد که به نفع نویسندگان منجر شود.

    بدون تردید، OpenAI مجموعه‌های داده‌ای به نام «Books 1» و «Books 2» را پیش از انتشار ChatGPT در سال ۲۰۲۲ حذف کرد. این مجموعه‌ها که در سال ۲۰۲۱ توسط کارمندان پیشین OpenAI ساخته شده‌اند، از طریق جمع‌آوری اطلاعات وب باز و استخراج عمده‌ای از داده‌ها از یک کتابخانهٔ سایه به نام Library Genesis (LibGen) ساخته شدند.

    طبق توضیح OpenAI، این مجموعه‌ها همان سال از کار افتاده‌اند که باعث تصمیم داخلی برای حذفشان شد.

    اما نویسندگان گمان می‌دارند که داستان فراتر از این است. آن‌ها اشاره کردند که OpenAI به‌نظر می‌رسد ادعای خود مبنی بر اینکه «عدم استفاده» از مجموعه‌ها دلیل حذف آن بوده را پس‌زدن کرده، سپس بعداً ادعا کرد که تمام دلایل حذف، از جمله «عدم استفاده»، باید تحت حریم محرمانگی وکیل‑مشتری محافظت شود.

    از دید نویسندگان، به‌نظر می‌رسید OpenAI به‌سرعت پس‌نشینی می‌کند پس از اینکه دادگاه درخواست‌های کشف اطلاعات نویسندگان برای بررسی پیام‌های داخلی OpenAI دربارهٔ «عدم استفاده» شرکت را تأیید کرد.

    در واقع، تغییر موضع OpenAI فقط باعث شد نویسندگان بیشتر مشتاق شوند ببینند OpenAI دربارهٔ «عدم استفاده» چه گفت و حالا ممکن است تمام دلایل حذف این مجموعه‌ها را کشف کنند.

    هفته گذشته، قاضی دادگاه ایالات متحده، اوانا وُنگ، از OpenAI دستور داد تا تمام مکاتبات با وکلای داخلی دربارهٔ حذف این مجموعه‌ها را به اشتراک بگذارد، همچنین «تمام ارجاعات داخلی به LibGen که OpenAI بر پایه محرمانگی وکیل‑مشتری مخفی یا حذف کرده است».

    به گفتهٔ وُنگ، OpenAI خطا کرد و استدلال کرد که «عدم استفاده» یک «دلیل» برای حذف مجموعه‌ها نیست، در حالی که همزمان ادعا می‌کرد که باید به‌عنوان یک «دلیل» محرمانه در نظر گرفته شود.

    به هر حال، قاضی حکم داد که OpenAI نمی‌تواند با حذف چند کلمه از پرونده‌های قبلی که بیش از یک سال در پرونده حضور داشته‌اند، کشف اطلاعات دربارهٔ «عدم استفاده» را مسدود کند.

    «OpenAI دربارهٔ این‌که آیا «عدم استفاده» به عنوان «دلیل» حذف کتاب‌های ۱ و ۲ محرمانه است یا نه، به‌طور پیوسته دچار تغییر موضع شده است»، وُنگ نوشت. «OpenAI نمی‌تواند یک «دلیل» (که نشان می‌دهد محرمانه نیست) را اعلام کند و سپس ادعا کند که همان «دلیل» برای جلوگیری از کشف اطلاعات محرمانه است».

    همچنین، ادعای OpenAI مبنی بر اینکه تمام دلایل حذف این مجموعه‌ها محرمانه هستند «به‌حدی غیرقابل باور است»، او در پایان گفت و از OpenAI خواست تا تا تاریخ ۸ دسامبر، مجموعه‌ای گسترده از پیام‌های داخلی احتمالی که می‌تواند فاش‌کننده باشد، ارائه دهد. OpenAI همچنین باید وکلای داخلی خود را برای ارائه شهادت تا ۱۹ دسامبر در دسترس داشته باشد.

    OpenAI ادعا می‌کند که هرگز موضع خود را عوض یا چیزی را پس‌نمی‌گیرد. صرفاً از عبارات مبهم استفاده کرده که باعث سردرگمی شد که آیا هر یک از دلایل حذف مجموعه‌ها محرمانه نیستند. اما وُنگ این ادعا را نپذیرفت و نتیجه‌گیری کرد که «حتی اگر «دلیل»ی مانند «عدم استفاده» می‌توانست محرمانه باشد، OpenAI با تغییر مداوم مبادلات خود، حق محرمانگی را از خود سلب کرده است».

    در پاسخ به درخواست اظهار نظر، OpenAI به Ars اطلاع داد: «ما با این حکم مخالفیم و قصد داریم تجدیدنظر کنیم».

    «flip‑flop» OpenAI ممکن است سبب از دست رفتن پیروزی‌اش شود

    تا کنون، OpenAI از افشای دلایل خود خودداری کرده است و ادعا می‌کند تمام دلایل حذف این مجموعه‌ها محرمانه‌اند. وکلای داخلی در تصمیم به حذف مشارکت داشتند و حتی به یک کانال Slack که در ابتدا «excise‑libgen» نامیده می‌شد، کپی شدند.

    اما وُنگ این پیام‌های Slack را مرور کرد و دریافت که «اکثریت قریب به همه این مکاتبات محرمانه نبودند زیرا واضحاً فاقد هر گونه درخواست مشاورهٔ حقوقی بودند و مشاوران یک‌بار هم نظرتان ندادند».

    در یک دستهٔ خاص از پیام‌های غیرمحرمانه، یکی از وکلای OpenAI، جیسون کووون، تنها یک بار نظر داد، همان‌طور که قاضی اشاره کرد، تا نام کانال را به «project‑clear» تغییر دهد. وُنگ به OpenAI یادآوری کرد که «تمامی محتوای این کانال Slack و تمام پیام‌های موجود در آن به‌دلیل اینکه تحت دستور یک وکیل ایجاد شده یا به‌دلیل این‌که یک وکیل در مکاتبات کپی شده است، محرمانه نیست».

    قاضی برای پیچاندن حکم استفاده منصفانه، OpenAI را سرزنش کرد

    وُنگ همچنین این را متناقض یافت که OpenAI در حالی که در پروندهٔ اخیر ادعا می‌کردی‌که با حسن نیت عمل کرده، به‌طور «ماهرانه» دفاع مثبت حسن نیت خود و کلمات کلیدی مانند «بی‌گناه»، «به‌طور معقول معتقد»، و «حسن نیت» را حذف کرده است. این تغییرات تنها درخواست‌های کشف اطلاعات برای بررسی نظریهٔ عمدی‌ بودن نویسندگان را تقویت کرد، وُنگ نوشت و اشاره کرد که پیام‌های داخلی مورد نظر، اکنون برای بررسی دادگاه حیاتی می‌شوند.

    «هیئت‌دوران از حق دانستن مبنای ادعای حسن نیت OpenAI برخوردار است»، وُنگ نوشت.

    به‌نظر می‌رسید قاضی به‌خصوص از این‌که OpenAI به‌ظاهر تصمیم Anthropic را به‌نفع خود پیچانده تا در برابر درخواست نویسندگان برای کسب اطلاعات بیشتر درباره حذف مجموعه‌ها دفاع کند، نارضایتی شدیدی داشته باشد.

    در یک پاورقی، وُنگ OpenAI را به‌خاطر «به‌طوری عجیبی» استناد به تصمیم Anthropic که «به‌صورت شدیدی» تصمیم قاضی ویلیام الساپ را تحریف کرده بود، متهم کرد؛ چرا که ادعا می‌کرد او به این نتیجه رسیده بود که «بارگیری نسخه‌های دزدی‌برداری کتاب‌ها قانونی است تا زمانی که پس از آن برای آموزش یک مدل زبانی بزرگ (LLM) استفاده شود».

    در عوض، الساپ نوشت که او تردید دارد «هیچ تخلف‌کننده متهمی بتواند بار زنده‌گی‌اش را برآورده کند و توضیح دهد چرا بارگیری نسخه‌های منبع از سایت‌های دزدی‌برداری که می‌توانست به‌صورت قانونی خریداری یا به‌دست آورد، به‌طور منطقی برای استفاده منصفانهٔ بعدی ضروری بوده است».

    اگر بخواهیم به‌دقت بگوییم، وُنگ نوشت که تصمیم OpenAI برای دزدیدن داده‌های کتاب و سپس حذف آن‌ها «به‌طور قطع در دستهٔ فعالیت‌های ممنوع شده توسط» الساپ قرار می‌گیرد. برای تأکید، او اقتباسی از دستور الساپ را بیان کرد که می‌گوید: «این نوع دزدی‌برداری از نسخه‌های در دسترس، ذاتاً و به‌طور غیرقابل جبران نقض حق تکثیر است، حتی اگر نسخه‌های دزدی‌برداری بلافاصله برای استفاده تحول‌آفرین به‌کار برده شوند و فوراً نابود شوند».

    به‌نظرتن گزارش Hollywood Reporter، برای نویسندگان دسترسی به مکاتبات محرمانهٔ OpenAI می‌تواند ترازو را به نفع آن‌ها متمایل کند. برخی نویسندگان بر این باورند که کلید پیروزی می‌تواند شهادت دیریو آمودی، مدیرعامل Anthropic، باشد که متهم به ایجاد مجموعه‌های دادهٔ جنجالی در زمان حضورش در OpenAI شده است. بر اساس اسناد دادگاهی، نویسندگان بر این باورند که آمودی همچنین اطلاعاتی دربارهٔ نابودسازی این مجموعه‌ها در اختیار دارد.

    OpenAI سعی کرد در برابر درخواست نویسندگان برای استیضاح آمودی مخالفت کند، اما در مارس قاضی به نفع نویسندگان حکمی صادر کرد که آمودی را ملزم به پاسخ دادن به مهم‌ترین پرسش‌های آن‌ها دربارهٔ مشارکتش کرد.

    اینکه آیا شهادت آمودی یک انفجار اطلاعاتی خواهد بود یا نه، هنوز مشخص نیست، اما به‌وضوح معلوم است که OpenAI ممکن است در مقابله با ادعاهای نقض عمدی دچار مشکل شود. وُنگ اشاره کرد که در شرایطی «تضاد اساسی» وجود دارد «جایی که یک طرف دفاع با حسن نیت مبتنی بر مشاورهٔ وکیل می‌پذیرد اما سپس با ادعای محرمانگی وکیل‑مشاور، تحقیقات دربارهٔ ذهنیت خود را مسدود می‌کند»، که نشان می‌دهد OpenAI دفاع خود را به‌طور قابل‌توجهی تضعیف کرده است.

    نتیجهٔ این منازعه دربارهٔ حذف‌ها می‌تواند بر محاسبهٔ OpenAI دربارهٔ این‌که آیا نهایتاً باید دعوا را حل‌وفصل کند یا نه، تأثیر بگذارد. پیش از توافق Anthropic — بزرگ‌ترین توافق جمعی حقوقی گزارش‌شده در تاریخ — نویسندگان دعوی به شواهدی اشاره کردند که نشان می‌دهد Anthropic به‌دلیل دلایل قانونی «در مورد آموزش بر مبنای کتاب‌های دزدی‌برداری دیگر چنین مشتاقی نداشت». به‌نظر می‌رسد این نوع شواهد «دقیقی» باشد که نویسندگان امید دارند از پیام‌های Slack مخفی شدهٔ OpenAI بیرون بیاید.

  • مسابقه برای قرص AGI پاپ

    یک تیم از مؤمنان می‌خواهند واتیکان سناریوهای آخرالزمانی هوش مصنوعی را جدی بگیرد.

    258101_مسابقه_برای_قرص_AGI_پاپ

    پاپ لئو چهاردهم شاید اولین شخصی که به ذهن می‌رسید وقتی گفتگو به سناریوهای آخرالزمانی هوش مصنوعی عمومی می‌چرخد، نباشد. اما ماه گذشته، محقق AGI به نام جان‑کلارک لوین خود را درون واتیکان یافت تا این نگرانی‌ها را پیش‌روی پاپ بگذارد.

    لوین تنها کار نکرده است؛ در طول سال گذشته، او به‌ خفا شبکه‌ای سست از حدود سی‌دوجین دانشگاهی، دانشمند، پژوهشگر سیاست و کشیش — گروهی که نیمه‌ شوخی «انتقام‌جویان هوش مصنوعی» می‌نامد — را جمع‌آوری کرده است تا به‌صورت مجازی استراتژی‌هایی برای جلب توجه واتیکان به‌ طور جدی‌تر نسبت به امکانات افراطی هوش مصنوعی تدوین کنند.

    نگرانی اصلی او این است که پاپ برای درک خطرات هوش مصنوعی عمومی (AGI) زمان زیادی صرف کند؛ هدفی که برخی از بزرگ‌ترین شرکت‌های فناوری جهان مانند OpenAI، Microsoft، Google و Meta در پی آن هستند. او در گفت‌وگو با The Verge می‌گوید: «اگر برای اطمینان کامل صبر کنید، برای اقدام به‌ منظور جلوگیری از خطر بسیار شدیدی که به‌ نظر می‌رسد تنها چند سال دیگر است، خیلی دیر می‌شود.»

    لحظه هوش مصنوعی واتیکان

    AGI، برای گفتن با خلوص‌نیتی، ایده‌ای شگفت‌انگیز و مسبب جدال است. حتی در میان جوامعی که کاملاً به آن ایمان دارند، توافقی دربارهٔ تعریف یا زمان ظهور آن وجود ندارد. به‌ طور کلی، AGI به هوش مصنوعی اشاره دارد که عملکرد انسانی را در تمام حوزه‌های شناختی قابل‌اندازه‌گیری هم‌سطح یا فراتر می‌برد. جزئیات این مفهوم دشوار است. با توجه به تعاریف مختلف — که بی‌شمارند —، ممکن است AGI هم‌اکنون حضور داشته باشد، در آستانهٔ ظهور باشد یا هرگز نیاید. اثرات مورد انتظار AGI نیز به همان اندازه متنوع‌اند؛ از ثروت اقتصادی فراوان و پیشرفت‌های علمی و پزشکی بی‌سابقه تا نابرابری گسترده، ناآرامی‌های ژئوپولیتیکی و تهدیدهای فاجعه‌بار مانند جنگ‌های هسته‌ای و بیماری‌های همه‌گیر.

    مرتبط

    • آیا زبان همان هوش است؟ صنعت هوش مصنوعی به‌ شدت به این موضوع نیاز دارد

    برای افرادی که به این خطرات اهمیت می‌دهند، کاهش آن‌ها اولویت اصلی است و نیازمند مشارکت همگانی صنایع، دولت‌ها و جامعهٔ مدنی در سراسر جهان می‌باشد. به‌ طرز دل‌زده‌ای، بخشی بزرگ از لابی‌گری‌ها بر چین و ایالات متحده متمرکز شده‌اند — جایی که اکثر آزمایشگاه‌های پیش‌رو هوش مصنوعی مستقرند و بسیاری از متخصصان بر این باورند که AGI شانس بیشتری برای ظهور در آن‌ها دارد — اما واتیکان نیز به‌ تدریج به یک مقصد مهم در این مسیر لابی‌گری تبدیل می‌شود.

    اگرچه واتیکان به‌ وضوح یک قدرت جهانی بزرگ نیست — به‌ دلیل اندازهٔ کوچک، نیروی نظامی و اقتصاد محدود خود — اما قدرت نرم بی‌شماری دارد. به‌ عنوان سرپرست کلیسای کاتولیک، اقتدار اخلاقی و معنوی پاپ از مرزها، صنایع و ایدئولوژی‌ها عبور می‌کند و بر افکار عمومی جهانی تأثیر می‌گذارد. به‌ طور مستقیم، ۱.۴ میلیارد کاتولیک و شبکه‌ای عظیم از مؤسسات دینی، دیپلماتیک و فرهنگی در سرتاسر جهان وجود دارد و تاریخ نشان می‌دهد این نفوذ فراتر از کلیسا نیز است. این ترکیب، به‌ همراه موقعیت تقریباً منحصربه‌فرد واتیکان به‌ عنوان یک نهاد بی‌طرف در امور بین‌المللی، به آن اتصالات و توانایی گردهم‌آوردن افراد تقریباً بی‌نظیری می‌دهد که می‌تواند در میانجی‌گری بر سر بحث AGI مؤثر باشد؛ به‌ ویژه در زمانی که تنش‌ها و رقابت تسلیحاتی میان چین و ایالات متحده افزایش یافته است.

    همچنین نکات خاصی دربارهٔ لئو وجود دارد که می‌تواند در شکل‌گیری بحث‌های جهانی هوش مصنوعی مفید باشد. او اولین پاپ آمریکایی است — که شاید به برقراری ارتباط با بسیاری از آزمایشگاه‌های پیش‌قدم هوش مصنوعی که عمدتاً در ایالات متحده مستقرند، کمک کند. لئو دارای مدرک ریاضی است و گزارش‌ها می‌گویند او نسبتاً با فناوری آشنایی دارد — که این نیز خود نوآوری پاپی محسوب می‌شود — و این باعث می‌شود او در مواجهه با جنبه‌های فنی هوش مصنوعی، نسبت به دیگران راحت‌تر باشد.

    قرار دادن AGI در دستور کار

    هیچ‌کس انتظار ندارد پاپ لئو نقش داور در مناظرهٔ AGI را داشته باشد یا حتی به یک طرف بپیوندد. همان‌طور که برای یک نهاد سده‌ها پیشین پیش‌بینی می‌شود، واتیکان به‌ طور معمول رفتار سریع نسبت به فناوری‌های نوین نشان نمی‌دهد و معمولاً پیش از اتخاذ موضع، مشورت‌های طولانی‌مدتی را با متخصصان خارجی آغاز می‌کند. درخواست از واتیکان ساده است: پذیرش AGI به‌ عنوان یک امکان، جدی گرفتن آن، برگذاری مشاوره، و بررسی خطرات و مزایا بر پایهٔ معیارهای خود. این همان پیغامی است که لوین ماه‌هاست سعی می‌کند پیش روی لئو بگذارد.

    به‌ وضوح، منبعی فراوان از علاقه در این زمینه وجود دارد، حتی در میان روح‌کلّایه‌ها.

    از سوی لئو — و کلیسای کاتولیک به‌ طور کلی — هیچ‌گاه از هوش مصنوعی دوری نکرده است. برعکس، این موضوع کاملاً واضح است که واتیکان می‌خواهد در میز گفتگوهای هوش مصنوعی صندلی داشته باشد. پاپ فرانسیس، پیشین لئو، به‌‌ طور مکرر به تأثیر هوش مصنوعی بر جامعه اشاره کرده؛ او نیز چارچوب «دعوت رم برای اخلاق هوش مصنوعی» را رهبری کرد که توسط غول‌های فناوری از جمله Microsoft، IBM و Cisco امضا شد. به‌ طور غیرقصدی، فرانسیس بحث جهانی دربارهٔ تصاویر جعلی و misinformation را هنگام انتشار تصویرهای تولیدشده با هوش مصنوعی از خود که یک کت سفید پفی شیک می‌پوشید، به‌ راه انداخت. به همین خاطر او با لقب «پاپ بَلنسیاگا» شناخته می‌شود.

    لئو قدمی فراتر رفته و هوش مصنوعی را به‌ عنوان یک مسأله تعیین‌کنندهٔ پاپی‌گری خود معرفی کرده است. این موضوع اسم پاپی‌گری او را الهام‌بخش شد — او شباهت‌های بین چالش‌های هوش مصنوعی امروز و انقلاب صنعتی در زمان لئو سیزدهم را می‌بیند — و سخنرانی‌ها، حضورهای رسانه‌ای و بیانیه‌های رسمی او پر از نظراتی دربارهٔ خطرات هوش مصنوعی برای «کرامت انسانی، عدالت و کار» است. این موارد نه نکات فرعی یا حاشیه‌ای‌اند: لئو در روزهای نخستین رهبری‌اش بارها به خطرات و «پتانسیل عظیم» هوش مصنوعی اشاره کرده؛ حتی در اولین سخنرانی‌های رسمی‌اش به کاردینال‌ها و رسانه‌ها.

    او همچنین متخصصان را گردهم می‌آورد و به‌ وضوح به کنفرانس‌ها و نشست‌های مرتبط با هوش مصنوعی توجه می‌کند. بر اساس گفته‌های چندین ناظر واتیکانی که The Verge مصاحبه کرده، به‌ نظر می‌رسد این یک راز آشکار است که او در حال آماده‌سازی یک رسالهٔ انسیلیکال متمرکز بر هوش مصنوعی است؛ میکائیل باگوت، استاد در آکادمی پونتیفیکال رِجینا آپوستولورم در رم، می‌گوید این «یکی از اصلی‌ترین ابزارهای آموزش دربارهٔ مسائل معاصر» در زمان حاضر است. به‌ بسیاری، این سند نقش رسالهٔ انسیلیکال لئو سیزدهم «Rerum Novarum» را که به تحول انقلاب صنعتی می‌پرداخت و پایهٔ تعلیمات اجتماعی کاتولیک مدرن را می‌گذاشت، بر عهده می‌گیرد.

    قابل توجه است که اشاره‌ای به AGI یا حتی تأیید مقام مرکزی آن در بسیاری از مناظرات داغ سیاست و فناوری دربارهٔ آینده هوش مصنوعی وجود ندارد. لوین، رهبری تحقیقات در شرکت Kurzweil Technologies، آزمایشگاه پژوهشی مشهور رای کورزویل، احساس می‌کند این نیاز به تغییر دارد. او می‌گوید: «من فقط می‌خواهم واتیکان AGI را به‌ عنوان امکانی واقعی و به‌ زودی پیش‌رو بپذیرد»، یعنی به‌ اندازه‌ای جدی بگیرد که پیامدهای آن را هم‌اکنون بررسی کند، نه اینکه برای رسیدن به اطمینان علمی صبر کند. به‌ طور عملی، این به معنای برپایی مشاورهٔ علمی رسمی دربارهٔ AGI به‌ طور خاص است؛ جمع‌آوری بینش‌های متخصصان از سرتاسر جهان برای اطلاع‌رسانی به پاپ، شاید تحت حمایت آکادمی پونتیفیکال علوم یا آکادمی پونتیفیکال علوم اجتماعی. پاپ فرانسیس نیز گام مشابهی در قبال تغییر اقلیم برداشته بود. «ما سعی نمی‌کنیم نوآوری‌های الهیاتی ارائه دهیم»، لوین می‌گوید؛ صرفاً می‌خواهد اطلاعات و حمایت‌های لازم را برای تصمیم‌گیری آگاهانه به پاپ بدهد.

    نفوذ به واتیکان

    در سیلیکون‌ولی اصطلاح عامیانه‌ای برای قانع کردن کسی از حقیقی و به‌ زودی وقوع AGI وجود دارد: «قرص‌زدن AGI». برای لوین، اولین چالش «قرص‌زدن AGI بر واتیکان» است.

    چالش این است که پاپ و اطرافیان او را وادار کنیم به‌ جای اینکه AGI را به‌‌عنوان زیرمجموعه‌ای از هوش مصنوعی ببینند، به‌‌ عنوان مسأله‌ای جداگانه درک کنند. تفکر دربارهٔ AGI به‌‌دست‌رسانی نه تنها به‌تک‌هوش مصنوعی محدود نیست؛ به‌‌مقدار تماماً مفهومی متفاوت است، همان‌طور که لوین توضیح می‌دهد. او می‌گوید: «این روش صحیح برای درک AGI نیست». او می‌گوید مقایسهٔ AGI با نگاه فقط به یک ماشین خاص انقلاب صنعتی، همانند «جنی‌چرخان» که کارگران را قادر می‌ساخت در یک‌بار چند نخ را بافته کنند، شبیه‌ساز است؛ مهم است، اما تصویر کلی از تحول عمیقی که انتظار می‌رود را نشان نمی‌دهد.

    «حتی اگر او (پاپ لئو) توسط هر آنچه می‌گویم تحت تأثیر قرار بگیرد و بگوید بله، ما باید به این مسئله اقدام کنیم، اما مسیر طولانی‌ای برای شروع و اجرای خطر بسیار شدیدی که به‌ نظر می‌رسد تنها چند سال دیگر است، وجود دارد.»

    عقد مقدس واتیکان ترکیبی پیچیده از دربار سلطنتی، مرکز سیاسی و نقطهٔ تلاقی مذهبی است و عبور از آن نیازمند رویکردی کاملاً متفاوت نسبت به لابی‌گری در واشنگتن، لندن یا بروکسل است. موفقیت همچنین مستلزم ارتباط بین دنیای کاتولیک و ایمنی هوش مصنوعی است، دو جامعه‌ای که به‌ ندرت هم‌پوشانی دارند. لوین تخمین می‌زند «تعداد افراد ممکن است در یک آسانسور جای بگیرد».

    از همهٔ افرادی که می‌توانند در آن آسانسور باشند، لوین به‌‌نظر می‌رسد به‌‌ویژه برای این مأموریت مناسب‌ترین است. او یک پیشکسوت در جنبش ایمنی هوش مصنوعی است که پیش از آمدن ChatGPT در Kurzweil Technologies و مؤسسات دیگر به پیامدهای هوش مصنوعی فوق‌هوشمند پرداخته بود. او همچنین ارتباطات داخل حوزهٔ کاتولیک دارد. لوین می‌گوید لئو — زمانی که رابرت پرووست نام داشت — دو بار در دوران جوانی به مدرسهٔ او در کالیفرنیا رفت؛ چند کشیش محلی هنوز با او در تماس متنی هستند.

    انجام کار برای درک موضع هوش مصنوعی در واتیکان شبیه کارآگاهی قدیم است؛ می‌گذرد در رم دههٔ پنجاه میلادی، کشیش‌ها را در فروشگاه‌های بستنی تعقیب می‌کند، با ردای کشیششان دست می‌زند و می‌گوید: «پس صادقانه بگو، پدر، واقعاً اینجا چطور است؟» این روش کاملاً متفاوت از دی‌سی است.

    بدون اغراق، لوین می‌گوید بررسی اهرم‌های قدرت در واتیکان فرآیندی آهسته و ملال‌آور است. حتی اگر ماه‌ها از پاپی‌گری لئو می‌گذرد، هنوز مشخص نیست چه کسانی مشاوران نزدیک او در مورد هوش مصنوعی هستند. دیگران در حلقه‌های هوش مصنوعی کاتولیک این احساس را به‌اشتراک می‌گذارند. این سرعت با اضطراری که لوین و دیگران در مورد خطرات AGI احساس می‌کنند، هم‌خوانی ندارد. فناوری به‌سرعت پیش می‌رود — بعضی‌ها معتقدند که در چند سال آینده به‌ دست می‌آید — که پنجرهٔ زمان برای اقدام را به‌ طور قابل‌ توجهی محدود می‌کند. لوین می‌خواهد واتیکان به‌‌طور مستقل به‌ AGI فکر کند، پیش از این‌که شرکت‌های بزرگ فناوری (Big Tech) آن را متقاعد کنند تا رویکرد سست‌تری نسبت به فناوری اتخاذ شود (اگرچه این شرکت‌ها به‌‌طور علنی خلاف آن را می‌گویند). لوین ادعا می‌کند شرکت‌های بزرگ فناوری به‌ شدت در واتیکان نفوذ می‌کنند تا پاپ را در اولویت‌های خود برای هوش مصنوعی و AGI جذب کنند. ماهیت محرمانهٔ جلسات واتیکانی این ادعاها را دشوار می‌کند تا تأیید شوند، مگر این که لابی‌های بزرگ فناوری در این زمینه مستند شده باشند، با کانال‌های شناخته‌شده‌ای بین واتیکان و مدیران فناوری تحت رهبری پاپ فرانسیس — که گزارش‌های خبری حاکی از فعال بودن این کانال‌ها تحت حکومت لئو است — و اهمیت روایت AGI در نکات فروش شرکت‌ها، این ادعا به‌نظر مستدل می‌آید.

    کمی پس از این‌که رابرت پرووست به لئو چهاردهم تبدیل شد، لوین برای یک همایش اخلاق هوش مصنوعی در آکادمی پونتیفیکال علوم به رم سفر کرد. در آنجا با افرادی ملاقات کرد که نظرات مشابهی دربارهٔ درگیر کردن واتیکان با AGI داشتند. پس از بازگشت، او شروع به جمع‌آوری «انتقام‌جویان هوش مصنوعی» کرد تا به‌‌صورت مجازی کارگاه‌های ایده‌پردازی برای جلب توجه واتیکان، اطلاع‌رسانی به کشیش‌ها دربارهٔ فناوری و علم و حمایت از عیسی پونتیفیکال برای تدوین موضعی که به‌ جدی AGI را در نظر بگیرد، برپا کند.

    «هیچ‌کس که دربارهٔ AGI با او صحبت کرده‌ام به‌صورت صریح نگفته است: “این غیرممکن است، تو یک ارتدکس هستی، از من دور شو.”»

    در نهایت، یک فرصت

    این اشتیاق غیرمنتظره در نهایت برای لوین فرصتی را فراهم کرد که ماه‌ها در جستجویش بود: فرصتی برای ارائهٔ استدلال خود مستقیماً به پاپ لئو. یکی از شرکت‌کنندگان در سمینار AGI یک دعوت به جلسهٔ گروهی با پاپ لئو همان هفته داشت و یک بلیط اضافه که استفاده نشده بود، به لوین ارایه داد.

    لوین با لحنی هیجان‌زده وقتی که دیر وقت شب از پوالیا با من تماس گرفت — کمتر از چهار ساعت پیش از سفرش به رم برای ملاقات با پاپ — گفت: «انتظار می‌کردم تنها یک برخورد شخصی کوتاه با او داشته باشم، اما این می‌تواند فرصتی باشد تا پیامی دربارهٔ کاری که امید است واتیکان در زمینهٔ علم AGI و رساله‌ای که در دست تهیه است، منتقل کنم». چالش این است که در زمان کوتاهی که در اختیار دارید، مستقیم و به یاد ماندنی باشید. «همه می‌گویند: “آنا زن برادرم اهل شیکاگو است”، یا “به سفید ساکس برو”، و می‌خواهید پیام شما چیزی باشد که در ذهن او بماند.»

    لوین می‌گوید یک نامهٔ یک‌صفحه‌ای «حاوی استخوان‌های پیام» خود را می‌گیرد. او متن کامل را در اختیار نمی‌گذارد، اما برای The Verge خلاصهٔ آن را بیان کرد: این نامه با تشکر از لئو برای اقداماتش تا به‌ امروز در حوزهٔ هوش مصنوعی آغاز می‌شود، سپس از واتیکان درخواست می‌کند یک مشاورهٔ علمی رسمی دربارهٔ AGI بطور خاص برپا شود؛ نه فقط به‌‌عنوان زیرمسئلهٔ هوش مصنوعی، و در پایان یک پیشنهاد حمایت از جامعهٔ AGI برای کمک به واتیکان جهت درک بهتر همه‌چیز ارائه می‌شود.

    در نهایت، لوین نتوانست به‌‌صورت مستقیم با پاپ لئو دیدار کند. همان‌طور که در مکان‌هایی مانند واتیکان رخ می‌دهد، دو گروه ادغام شدند و به یک اتاق بزرگ‌تر منتقل شدند؛ این کار پروتکل ملاقات را تغییر داد و فرصتی برای برخورد کوتاه اما معنادار شخصی را از بین برد. او با لحنی کمی افسرده گفت: «اما من نامه‌ای را «حاوی استخوان‌های پیام» به‌‌صورت تحویل مستقیم به‌ یکی از دستیارهای پاپ دادم». طبق پروتکل دیپلماتیک، این نامه به یکی از منشی‌های پاپ تحویل شد، نه به خود پاپ. با توجه به حجم زیاد نامه‌های دریافتی پاپ، لوین می‌گوید امید زیادی برای دریافت پاسخی جز یک پاسخ فرم ندارد. «اما هیچ‌کس نمی‌داند.»

    لوین دیدار کوتاه خود با پاپ را پایان مأموریت خود برای جدی‌ کردن واتیکان دربارهٔ AGI نمی‌داند؛ برعکس است. «حتی اگر پاپ لئو از هر چه می‌گویم تحت تأثیر قرار گیرد و بگوید بله، ما باید به این موضوع اقدام کنیم، اما مسیر طولانی برای شروع و انجام مشاورهٔ علمی وجود دارد»، او توضیح می‌دهد. «درک می‌کنم که راه طولانی در پیش است.»

    در حالی که لئو هنوز به‌ صراحت دربارهٔ AGI صحبت نکرده است، تجربهٔ لوین نشان می‌دهد واتیکان ممکن است نسبت به ایدهٔ AGI بازتر باشد نسبت به آنچه تصور می‌شود — و بسیار بازتر برای بحث دربارهٔ آن نسبت به شهرتی که دارد. «تمام افرادی که مستقیماً با واتیکان دربارهٔ این موضوع گفتگو کرده‌ام، نسبت به پیام من به‌ طور قابل‌ توجهی پذیرش نشان دادند»، او می‌گوید. «هیچ‌کسی که دربارهٔ AGI با او صحبت کرده‌ام صریحاً نگفته است: «این غیرممکن است، تو یک ارتدکس هستی، از من دور شو.»»

  • تلاشی مستقل می‌گوید هوش مصنوعی کلید سرنگونی قدرت دو حزبی در کنگره است

    تصویری از مردی که پشت یک کامپیوتر نشسته و به‌صورت آنلاین به‌دنبال داده‌های سیاسی می‌گردد؛ اطرافش پنجره‌های مرورگر نشان‌دهندهٔ اطلاعات سیاسی است.
    گلن هاروی برای NPR

    مرکز مستقل با بهره‌گیری از هوش مصنوعی حوزه‌های نمایندگی کنگره را شناسایی می‌کند که در آن نامزدهای مستقل می‌توانند بر نامزدهای دموکرات یا جمهوری‌خواه برتری یابند. هدف این سازمان است که حداقل چندین نمایندهٔ مستقل را انتخاب کند تا نظام دو حزبی در کنگره را به‌چالش بکشد.

    ظهور دستیارهای هوش مصنوعی در حال بازنویسی ریتم زندگی روزمره است: افراد نتایج آزمایش خون خود را به چت‌بات‌ها می‌سپارند، برای مشورت در زمینهٔ روابط عاطفی به ChatGPT مراجعه می‌کنند و از هوش مصنوعی برای برنامه‌ریزی سفرها، انجام تکالیف مدرسه و سایر کارها استفاده می‌نمایند.

    اکنون، یک سازمان ادعا می‌کند که هوش مصنوعی می‌تواند فراتر از تسهیل زندگی روزمره باشد؛ او می‌گوید این فناوری کلید بازآفرینی سیاست آمریکا است.

    آدم براندون، مشاور ارشد مرکز مستقل، که یک سازمان غیرانتفاعی مطالعه و تعامل با رأی‌دهندگان مستقل است، توضیح داد: «بدون هوش مصنوعی، کاری که می‌خواهیم انجام دهیم غیرممکن می‌بود».

    هدف این است که در انتخابات سیزدهم ۲۰۲۶ تعدادی از نامزدهای مستقل را به مجلس نمایندگان برسانیم؛ برای این کار از هوش مصنوعی جهت شناسایی حوزه‌هایی که مستقلان می‌توانند در آن موفق شوند و کشف نامزدهای نهفتهٔ مستعد استفاده می‌شود.

    در زمانی که تعادل کنترل مجلس نمایندگان بر لبهٔ تیغ است، حتی کسب چند کرسی می‌تواند مانع از کسب اکثریت توسط هر یک از دو حزب شود و شیوهٔ عملکرد فعلی مجلس را برهم زند.

    این یک پیشنهاد جسورانه در سیستمی است که به‌مدت ۳۵ سال، هیچ نامزد مستقلی موفق به‌دست آوردن کرسی در مجلس نمایندگان نشده است.

    اما داده‌ها نشان می‌دهند تعداد رأی‌دهندگان میانه‌رو و مستقل در حال افزایش است. گالوپ در سال ۲۰۲۴ کشف کرد که ۴۳٪ آمریکایی، که بالاترین درصد تاریخ است، خود را مستقل می‌نامند. نظرسنجی‌های خروج در همان سال نشان داد که ۳۴٪ رأی‌دهندگان خود را مستقل اعلام کرده‌اند؛ نسبت به ۲۶٪ در سال ۲۰۲۰ افزایش یافته است.

    دیوید بارکر، استاد علوم سیاسی در دانشگاه آمریکایی، می‌گوید: «بخش بزرگی از مردم به دلایل متفاوت نمی‌توانند هر دو حزب را بپذیرند». او ادامه داد: «این اولین باری است که درصد قابل‌توجهی از آمریکایی‌ها خود را مستقل می‌نامند و این نشانگر تغییری مهم به‌نظر می‌رسد».

    براندون گفت این تغییر زمان مناسبی برای به‌چالش کشیدن وضعیت موجود فراهم می‌کند.

    او به NPR گفت: «این شبیه اوبر و تاکسی‌هاست. سیستمی با نقص واضح وجود داشت که اپراتورهای مستحکمی داشت و برای دور زدن آن نیاز به تغییر رادیکال داشت». او اضافه کرد: «و همین حس را داریم؛ مردم به شدت به «جمهوری‌خواه» و «دموکرات» چسبیده‌اند، در حالی که ما می‌گوییم، خب، گزینهٔ دیگری هم وجود دارد».

    “ما مبارزین سیاسی هستیم”

    تلاش برای به‌هم زدن فشار‌گرای دو حزبی‌سازی، مبارزه‌ای سخت است که بر علیه ارتدوکس سیاسی و شکاکان فراوان پیش می‌رود.

    اما استراتژیست‌های مرکز مستقل فاصلهٔ زیادی با تازه‌واردان سیاست دارند.

    «ما مبارزین سیاسی هستیم»، براندون گفت که پیش از این ریاست FreedomWorks را بر عهده داشت؛ این گروه پایه‌گذار محافظه‌کار، فعالان تی‌پارتی را به نیرویی سیاسی تبدیل کرد تا سال گذشته درب‌های خود را بست. «ما تیمی از افرادی ساخته‌ایم که می‌دانند چگونه این کار را انجام دهند. ما سهل‌انگار نخواهیم بود.»

    براندون به‌طور نزدیک با برت لاید کار می‌کند، که گروه بولفینچ را مدیریت می‌کند؛ این شرکت غیرحزبی نظرسنجی و داده‌ای است که نظرسنجی‌ها و تحقیقات مرکز مستقل را نظارت دارد. او پیش از این در تیم نظرسنجی رئیس‌جمهور ترامپ حضور داشته است، هنگامی که ترامپ به‌عنوان نامزد حضور داشت.

    او با لبخند گفت: «من یک آماردان هستم. تا حدودی می‌گویم که قبلاً برای کمیتهٔ ملی جمهوری‌خواهان (RNC) کار کرده‌ام، چون قبل از کمیتهٔ ملی دمکرات‌ها (DNC) به من شغلی پیشنهاد دادند». «کار من کار با اعداد، احساسات و نظریهٔ بازی‌هاست. این لزوماً به معنای جمهوری‌خواهی یا دمکراتیک بودن نیست.»

    او واضح می‌سازد که هدف کارشان حذف کامل تعصبات حزبی نیست.

    لاید گفت: «این کار در همه‌جا مؤثر نخواهد بود؛ فقط در مناطق بسیار خاصی کار می‌کند». «اگر در حوزه‌ای که به‌طور افراطی جمهوری‌خواه یا دمکراتیک است زندگی می‌کنید، باید نمایندهٔ جمهوری‌خواه یا دمکرات داشته باشید».

    اما با کمک هوش مصنوعی، او ۴۰ کرسی را شناسایی کرده که با این الگو سازگاری ندارند، به‌طوری که مستقلان می‌توانند در میان رأی‌دهندگانی که از دو حزب خسته شده‌اند نفوذ کنند. مرکز مستقل قصد دارد تا بهار حدود ۱۰ نامزد داشته باشد و هدفش برنده شدن در حداقل نیمی از مسابقات است.

    براندون پیش‌بینی می‌کند این پیروزی‌ها ممکن است معتدلان حزبی در مجلس را وادار به تغییر وابستگی سیاسی خود کند.

    او یادآوری کرد: «یک جمهوری‌خواه در دفترش به من گفت: «من خیلی ترسو هستم که الآن این کار را بکنم». اما افزود: «اگر تو می‌توانی این کار را انجام دهی، من به تو می‌پیوندم».

    از استخراج ردیت تا تطبیق در لینکدین

    ابزار هوش مصنوعی اختصاصی آن‌ها که توسط یک شریک خارجی ساخته شده، سال‌ها در حال توسعه بوده است.

    در حالی که گروه‌های متمرکز و نظرسنجی‌ها مدت‌ها برای درک احساسات آمریکاییان به‌کار رفته‌اند، هوش مصنوعی می‌تواند مکالمات مردم را به‌صورت لحظه‌ای پایش کند.

    براندون گفت: «نظرسنجی یک تصویر لحظه‌ای است — مثلاً در یک روز سه‌شنبه ساعت ۱۱ که تماس تلفنی دریافت کردید یا در یک گروه متمرکز حضور داشتید، این حس شماست؛ اما پس از رفتن به خانه نظرات‌تان ممکن است تغییر کند. ما می‌توانیم این تغییرات را رصد کنیم».

    آنها از هوش مصنوعی برای درک مسایل و نگرانی‌های اصلی رأی‌دهندگان و همچنین برای شناسایی حوزه‌های مناسب برای ورود نامزد مستقل استفاده می‌کنند.

    لاید توضیح داد: «آیا یک حوزه که ۵۰٪ جمهوری‌خواه و ۵۰٪ دمکرات است و به‌دلیل حضور افراد مختلف در هر شب دچار تغییرات می‌شود، به‌صرفی یک حوزهٔ مستقل واقعی است یا مثلاً در آرایزونا که رای‌اکثریت به‌صورت مستقل خود را اعلام می‌کند اما همچنان با رای‌گیری خودداری می‌کند؟» او افزود: «ما به نرخ مشارکت رأی‌دهندگان نگاه می‌کنیم؛ کدام حوزه‌ها حضور رأی‌دهندگان بسیار پایین دارند چون مردم به رفتن به صندوق رأی‌گیری علاقه‌مند نیستند».

    او همچنین به بررسی حوزه‌هایی می‌پردازد که رأی‌دهندگان جوان‌تری دارند؛ کسانی که پیام مستقل‌گرایی را می‌پذیرند.

    او می‌گوید: «وقتی من از نسل زد و میلنیال‌ها حرف می‌زنم، مردم با چشم‌غیظ می‌گویند: «این بچه‌ها!» اما این بچه‌ها در انتخابات ریاست‌جمهوری بعدی بیش از نیمی از جامعهٔ رأی‌دهندگان را تشکیل خواهند داد».

    از این نقطه، گام بعدی استفاده از داده‌ها برای شناسایی چهرهٔ نامزد آرمانی است.

    مرکز مستقل نامزدهایی را هم از افرادی که به‌صورت مستقیم به سازمان مراجعه می‌کنند و هم با کمک هوش مصنوعی جذب می‌کند.

    آنها می‌توانند حتی داده‌های خود را از طریق لینکدین عبور دهند تا نامزدهای احتمالی با علایق، سوابق شغلی و سابقهٔ داوطلبی خاص را شناسایی کنند.

    لاید می‌گوید: «معمولاً آنها خود را تبلیغ نمی‌کنند، اما رفتارهایشان ردپایی بر جای می‌گذارد». او مثال می‌زند: کسی که در یک رویداد محلی به‌عنوان داوطلب حضور دارد و در روزنامهٔ محلی پوشش داده شده است. «ما از هوش مصنوعی می‌خواهیم این ردپا را پیدا کند».

    هوش مصنوعی همچنین تعیین می‌کند که یک نامزد کجا بیشترین شانس برنده شدن را دارد.

    براندون به نمونه‌ای اشاره کرد که نامزدی قرار بود در حوزهٔ زادگاه خود به‌موقع شود؛ هوش مصنوعی نشان داد که حوزهٔ مجاور گزینهٔ بهتری است.

    “چه مشکلی در خراب کردن چیزی که مردم دوست ندارند وجود دارد؟”

    یکی از انتقادهایی که براندون و لاید به‌طور مداوم می‌شنوند، مفهوم «خراب‌کننده‌ها» است — نامزدهایی که برنده نمی‌شوند اما حضورشان در برگهٔ رأی‌گیری، نتیجهٔ انتخاب را تحت‌تأثیر قرار می‌دهد.

    لاید گفت: «این یک خط تفکر حزبی و کهنه‌سال است». «چه مشکلی در خراب کردن چیزی که مردم دوست ندارند وجود دارد؟»

    او گفت افرادی که مستقلان را به‌عنوان خراب‌کننده در مسابقات انتقاد می‌کنند، منافع ریشه‌ای در نظام کنونی دارند.

    او افزود: «نهادهای جمهوری‌خواه و دمکراتیک هنوز در دنیایی دو‌نفره زندگی می‌کنند. یا کولاک یا پتسکی، یا فورد یا شِوی، یا MSNBC یا Fox News». او ادامه داد: «این برای کسانی که فقط این دو شبکه را تماشا می‌کنند کار می‌کند. اما دیگران؟ ما دیگر در این چارچوب دودویی زندگی نمی‌کنیم».

    براندون گفت تنها کاری که می‌توان انجام داد، ادامه دادن است.

    ما تصمیم داریم نقش خراب‌کننده را بپذیریم؛ زیرا آنچه را که خراب می‌کنیم، سیستم نسبتاً فاسدی است.