چگونه با مادربزرگ دربارهٔ ChatGPT صحبت کنیم

تصویر یک زن سالخورده که لوگوی OpenAI در عینک او منعکس شده است.

تصویر: Allie Carl / Axios

کارشناسان آداب و رسوم توصیه می‌کنند که در میز شام تعطیلات دربارهٔ سیاست و مذهب صحبت نشود، اما دلیل خوبی برای صحبت کردن دربارهٔ هوش مصنوعی وجود دارد، به‌ویژه با بستگان مسن.

چرا مهم است: افراد سالمند هدف اصلی کلاهبرداری‌ها هستند و هوش مصنوعی به‌طوری آسان و ارزان‌قیمت‌تری می‌تواند متونی، صدا و ویدئوی جعلی متقاعدکننده‌ای تولید کند که خود را به‌عنوان بستگان در وضعیت اضطراری نشان می‌دهند.

آمار: بزرگسالان سالمند در یک‌سوم موارد، محتوای آنلاین را اشتباه تشخیص می‌دهند، طبق یک مطالعهٔ اخیر توسط شرکت مراقبت‌های بهداشتی در منزل The CareSide و پژوهشگران دانشگاه هاروارد و دانشگاه مینه‌سوتا.

  • در یک آزمون کوتاه، سالمندان شرکت‌کننده حدود یک‌سوم زمان‌ها محتواهای واقعی را جعلی و یا محتواهای جعلی را واقعی می‌نامیدند، حتی اگر نسبت به توانایی خود در تشخیص تفاوت اطمینان داشته باشند.

راهنمای مختصر برای کمک به بستگان (و خودتان) در عبور از دنیای آنلاین که مرزهای بین آثار انسانی و ماشینی در هم می‌آمیزد.

درک چگونگی کار مدل‌های زبانی بزرگ (LLM) (و اینکه چه کار نمی‌کنند)

نگاه کلی: برای درک یا کمک به دیگران در درک هوش مصنوعی، نیازی به داشتن دکترای یادگیری ماشین ندارید.

  • مدل‌های زبانی بزرگ (LLM) که چت‌بات‌ها را تقویت می‌کنند، جادو نیستند؛ آن‌ها ماشین‌های پیش‌بینی هستند که کلمه (یا پیکسل یا فریم ویدئویی) بعدی محتمل‌ترین را حدس می‌زنند.
  • ربات‌ها نیز هوشمند هستند؛ دوستانه، شوخ‌طبع و می‌توانند همدلی را شبیه‌سازی کنند. و اگرچه در عدم هماهنگی خودکار با دید کاربر پیشرفت می‌کنند، اما هنوز برای گفتن چیزی که می‌خواهید بشنوید، پاداش می‌گیرند.
  • به گفتهٔ پژوهشگر هاروارد، فِرد هیدینگ، حذف حس شرمندگی از عدم درک چگونگی کار این همه چیز مهم است، به‌ویژه اگر عزیزتان قربانی یک کلاهبرداری شده باشد.

در مورد آن صحبت کنید

نمونه‌ای از این مسأله: اطمینان حاصل کنید که بستگان شما از کلاهبرداری‌های تلفنی و پیامکی آگاهند. در مورد این‌که یک تماس یا پیام مشکوک می‌تواند چگونه به نظر برسد توضیح دهید: «نوه‌ای در دردسر»، بانکی که طلب پرداخت فوری دارد، یا مراقبی که درخواست کارت‌های هدیه اضطراری می‌کند.

  • به پدربزرگ و مادربزرگ بگویید که همیشه می‌توانید تماس را قطع کنید و با شماره‌ای که می‌شناسند بازگردید، یا پیش از ارسال پول، در پیام گروه خانوادگی بررسی کنید.
  • یک «کلمهٔ ایمن» خانوادگی تدوین کنید تا به‌سادگی هویت یک بستگان را در تماس یا پیام تأیید کنید. «این می‌تواند به‌عنوان یک پل نرم برای گفتگو دربارهٔ خطرات هوش مصنوعی به‌طور کلی با مادربزرگ‌ها باشد»، سارا دولی، بنیانگذار AI‑Empowered Mom، به Axios گفت.

آموزش “نشانه‌های” هوش مصنوعی

بین خطوط: تولیدکنندگان متن، تصویر و ویدئو به‌تدریج واقع‌گرایانه‌تر می‌شوند، اما هنوز راه‌هایی برای تشخیص محتوای هوش مصنوعی وجود دارد.

  • اگر چیزی را کمی نامناسب یا مشکوک ببینید, «حس درون‌تان باید بگوید که جزئیات را دقیق‌تر بررسی کنید»، می‌گوید جِرمی کاراسکو، متخصص افشای هوش مصنوعی و مؤسس Showtools.ai در یوتیوب و تیک‌تاک.
  • اگر ویدئو شبیه ضبط دوربین امنیتی یا دوربین بدنی باشد، این شاخصی است. تولیدکنندگان ویدئوی هوش مصنوعی در ساخت صحنه‌های واقع‌گرایانهٔ دوربین‌های نظارتی مهارت دارند، چون ما به این ویدئوها که کمی «grainy» به‌نظر می‌رسند عادت داریم.

بدانید که چت‌بات‌ها اغلب با اطمینان اشتباه می‌کنند

چک واقعیت: امروزه اکثر مردم می‌دانند که هوش مصنوعی همیشه باید صحت‌سنجی شود. مدل‌های زبانی ممکن است هالوسینیشن داشته باشند یا اطلاعات ساختگی ارائه دهند.

  • چت‌بات‌ها همیشه با اعتماد به‌نفس صحبت می‌کنند. پاسخ‌هایشان حتی هوشمندترین کاربران را می‌تواند فریب دهد.
  • ویدئوها به‌ویژه ما را آموزش می‌دهند تا به‌سرعت و به‌صورت غریزی واکنش نشان دهیم، بدون اینکه سؤالاتی که معمولاً می‌پرسیم، بپرسیم. «دقت و آگاهی مهم‌ترین مهارت‌هایی هستند که باید بازسازی شوند، به‌ویژه برای سالمندانی که در دنیایی بزرگ شدند که عکس‌ها و ویدئوها بودند شواهد»، روبِرتا اشمید، سردبیر NewsGuard، به Axios گفت.
  • با افراد سالمند بنشینید و از چت‌بات مورد علاقهٔ آن‌ها سؤالی بپرسید که عزیزتان به‌خوبی می‌داند. ببینید آیا می‌توانند اشکالات پاسخ‌های آن را پیدا کنند.

به‌عمق بروید: ساده‌ترین راهنمای استفاده از چت‌بات‌ها.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *