
دور زدن از آشغال، محتوای بیکیفیت تولیدشده توسط هوش مصنوعی که به اسلایدهای همکاران، فیدهای رسانههای اجتماعی، رسانههای خبری و حتی آگهیهای املاک نفوذ کرده، سختتر شده است.
«آشغال به همهجا میریزد»، نوشت ویراستاران Merriam-Webster که واژه «آشغال» را بهعنوان واژهٔ سال ۲۰۲۵ انتخاب کردند. «مانند لجن، گلگل و آلای خاکی، آشغال صدایی مرطوب دارد که نشانگر چیزی است که نمیخواهید لمس کنید.»
به همین دلیل است که لحظهای به کرهٔ بلورین خود نگاهی میاندازم و یکی از پیشبینیهای ناخوشایند انتهای سال را میگویم: سال ۲۰۲۶ سال بازاریابی «صددرصد انسانی» خواهد شد.
به حرف من گوش کنید.
آشغال هوش مصنوعی معمولاً تصاویری بیضرر مثل «عیسی میگو» یا سریالهای گربهای با چشمهای بزرگ را به یاد میآورد. اما این تصاویر بهتدریج پیچیدهتر میشوند و برای حتی کسانی که با اینترنت بزرگ شدهاند و خود را کارشناس یا حداقل شکارچی مناسبی از محتوای تقلبی میدانند، بحران اعتمادی ایجاد میکند. نشانههای معمول — نورپردازی غیرطبیعی، دستهای ناهماهنگ، پسزمینههای نامتناسب — بهطور قابلتوجهی صاف شدهاند.
یک اسکرول ساده در TikTok اکنون حس یک آزمون دارد: آیا تقلب را شناسایی کردید یا بهصورت بیتوجهی دوبار روی ویدئوی خرگوشهای پرشکننده روی طنابپر کلیک کردید؟ (میدانید که فریب خوردهاید! همهٔ ما همینطور شدیم!)
احساس ناخوشایندی است که فریب خوردیم. و نشانهای از واکنش مخالف هماکنون آغاز شده است.
ماه گذشته، غول رادیو و پادکست iHeartMedia شعاری با عنوان «انسانی تضمینشده» را معرفی کرد و به کاربران وعده داد که از «شخصیتهای تولیدشده توسط هوش مصنوعی» یا پخش موسیقی تولیدشده توسط هوش مصنوعی استفاده نخواهد کرد.
تحقیقات داخلی این شرکت صوتی مستقر در سانآنتونیو نشان داد که ۹۰٪ از شنوندگان — حتی کسانی که خود از ابزارهای هوش مصنوعی استفاده میکنند — میخواهند محتواهایشان توسط انسان ساخته شود.
«مهم است که بهعنوان بازاریابان به یاد داشته باشیم که در موقعیتی بسیار نازک در دوران پرنوسان، چه در آمریکا و چه در سراسر جهان، قرار داریم»، گفت باب پیتمن، مدیرعامل iHeartMedia، در بیانیهای که این پاییز منتشر کرد. «مصرفکنندگان تنها به دنبال راحتی نیستند — آنها به دنبال معنا هستند.»
iHeartMedia تنها نیست. اوایل این ماه، ویراستاران The Tyee، یک سایت خبری مستقل در کانادا، تصمیم خود برای اتخاذ سیاست عدم استفاده از هوش مصنوعی را اعلام کردند و گفتند که «خبرنگاری که توسط هوش مصنوعی نوشته یا تولید شده است» را منتشر نخواهند کرد. (البته این یک خبرگزاری کوچک است و بهندرت یا بههیچیک از رسانههای بزرگ تعهد مشابهی داشتهاند. اما چندین روزنامهٔ مشهور که بهسرعت هوش مصنوعی را پذیرفتهاند، اکنون با پیامدهای آن مواجه هستند؛ بهویژه واشنگتن پست که اخیراً یک ربات پادکست پر از خطا منتشر کرده که بهطور گسترده مورد انتقاد قرار گرفته است.)
در هالیوود، جایی که هوش مصنوعی اغلب بهعنوان تهدیدی وجودی دیده میشود، برخی خالقان این پیام را بهوضوح به مخاطبان منتقل میکنند. «این برنامه توسط انسانها ساخته شده است» در بخش اعتبارات سریال «Pluribus»، مجموعهٔ موفق Apple TV که توسط خالق «Breaking Bad» وینس گیلیگان ساخته شده، دیده میشود. دیگران بهصورت فعال علیه «تیلی نورود»، «بازیگری» تولیدشده توسط هوش مصنوعی، مبارزه میکنند؛ سازندگان او سوگند میخورند که تیلی بیشتر یک آزمایش دیجیتال است و نه تلاشی برای جایگزینی بازیگران انسانی.
در Pinterest، سایتی که برای تختههای مد و الهامگیری از عروسیها مرجع است، پذیرش هوش مصنوعی توسط این شرکت کاربران وفادار خود را دچار فاصلهگذاری میکند، همانطور که همکارم Ramishah Maruf ماه گذشته گزارش داد. همچنین در سراسر نیویورک، تبلیغات متروی دستگاه ضبط هوش مصنوعی قابلپوشیدن به نام «Friend» هدف خرابکاریهای مستمر شدهاند و عابران را ترغیب میکنند تا پیامهایی مانند «هوش مصنوعی دوست شما نیست» و «با همسایهتان صحبت کنید» بنویسند.
یک هنرمند بهحدی از زوال اینترنت خسته شد که افزونهٔ مرورگری به نام Slop Evader را ایجاد کرد؛ این افزونه جستجوهای وب را طوری فیلتر میکند که تنها نتایج پیش از نوامبر ۲۰۲۲ — پیش از انتشار ChatGPT — را نشان دهد.
نتیجهگیری: ممکن است اشتباه کنم! تا کنون، واکنش مخالف به هوش مصنوعی نسبت به بخش گستردهای از شرکتهای آمریکایی که معتقدند هوش مصنوعی آیندهٔ کل اقتصاد است، بسیار کمرنگ است. در نهایت باید ببینیم آیا آزمایشهای بازاریابی ضد هوش مصنوعی میتوانند بازده واقعی داشته باشند یا نه.
با این حال، گمان میکنم هرچه وال استریت و مدیران عالیرتبه دربارهٔ درخشش هوش مصنوعی و پتانسیل بیپایان آن برای افزایش بهرهوری و حتی خلاقیت اظهار نظر کنند، مردم بیشتری آن را بهعنوان دام میبینند.
تا بهحال تجربهٔ زندگیمان با چتباتها و مولدهای تصویر ترکیبی از مثبت و منفی بوده است. مطمئناً گفتن به سُورا برای ساختن ویدئویی از سگم که با سانتاکلوز در آسمان پاریس پرواز میکند، میتواند سرگرمکننده باشد. و بله، گاهی یک چتبات بهتر از جستجوی معمولی وب برای دریافت توصیههای سفر است. اما در عین حال یک تولیدکنندهٔ دیپفیک است که میتواند بهسرعت اطلاعات نادرست را گسترش دهد (همانطور که Grok از xAI در تیرۀ حادثهٔ تیراندازی در ساحل بوندی یکشنبه انجام داد) و افراد را بهسوی توهمات، گاهی مرگبار، سوق دهد.
ممکن است مصرفکنندگان و خلاقان تازه تصمیم به گفتن «کافی شد» گرفته باشند. یا حداقل، ترجیح دهند برخی چیزها هنوز بهدست انسانها ساخته شوند.
دیدگاهتان را بنویسید