تصویر: Allie Carl / Axios
کارشناسان آداب و رسوم توصیه میکنند که در میز شام تعطیلات دربارهٔ سیاست و مذهب صحبت نشود، اما دلیل خوبی برای صحبت کردن دربارهٔ هوش مصنوعی وجود دارد، بهویژه با بستگان مسن.
چرا مهم است: افراد سالمند هدف اصلی کلاهبرداریها هستند و هوش مصنوعی بهطوری آسان و ارزانقیمتتری میتواند متونی، صدا و ویدئوی جعلی متقاعدکنندهای تولید کند که خود را بهعنوان بستگان در وضعیت اضطراری نشان میدهند.
آمار: بزرگسالان سالمند در یکسوم موارد، محتوای آنلاین را اشتباه تشخیص میدهند، طبق یک مطالعهٔ اخیر توسط شرکت مراقبتهای بهداشتی در منزل The CareSide و پژوهشگران دانشگاه هاروارد و دانشگاه مینهسوتا.
- در یک آزمون کوتاه، سالمندان شرکتکننده حدود یکسوم زمانها محتواهای واقعی را جعلی و یا محتواهای جعلی را واقعی مینامیدند، حتی اگر نسبت به توانایی خود در تشخیص تفاوت اطمینان داشته باشند.
راهنمای مختصر برای کمک به بستگان (و خودتان) در عبور از دنیای آنلاین که مرزهای بین آثار انسانی و ماشینی در هم میآمیزد.
درک چگونگی کار مدلهای زبانی بزرگ (LLM) (و اینکه چه کار نمیکنند)
نگاه کلی: برای درک یا کمک به دیگران در درک هوش مصنوعی، نیازی به داشتن دکترای یادگیری ماشین ندارید.
- مدلهای زبانی بزرگ (LLM) که چتباتها را تقویت میکنند، جادو نیستند؛ آنها ماشینهای پیشبینی هستند که کلمه (یا پیکسل یا فریم ویدئویی) بعدی محتملترین را حدس میزنند.
- رباتها نیز هوشمند هستند؛ دوستانه، شوخطبع و میتوانند همدلی را شبیهسازی کنند. و اگرچه در عدم هماهنگی خودکار با دید کاربر پیشرفت میکنند، اما هنوز برای گفتن چیزی که میخواهید بشنوید، پاداش میگیرند.
- به گفتهٔ پژوهشگر هاروارد، فِرد هیدینگ، حذف حس شرمندگی از عدم درک چگونگی کار این همه چیز مهم است، بهویژه اگر عزیزتان قربانی یک کلاهبرداری شده باشد.
در مورد آن صحبت کنید
نمونهای از این مسأله: اطمینان حاصل کنید که بستگان شما از کلاهبرداریهای تلفنی و پیامکی آگاهند. در مورد اینکه یک تماس یا پیام مشکوک میتواند چگونه به نظر برسد توضیح دهید: «نوهای در دردسر»، بانکی که طلب پرداخت فوری دارد، یا مراقبی که درخواست کارتهای هدیه اضطراری میکند.
- به پدربزرگ و مادربزرگ بگویید که همیشه میتوانید تماس را قطع کنید و با شمارهای که میشناسند بازگردید، یا پیش از ارسال پول، در پیام گروه خانوادگی بررسی کنید.
- یک «کلمهٔ ایمن» خانوادگی تدوین کنید تا بهسادگی هویت یک بستگان را در تماس یا پیام تأیید کنید. «این میتواند بهعنوان یک پل نرم برای گفتگو دربارهٔ خطرات هوش مصنوعی بهطور کلی با مادربزرگها باشد»، سارا دولی، بنیانگذار AI‑Empowered Mom، به Axios گفت.
آموزش “نشانههای” هوش مصنوعی
بین خطوط: تولیدکنندگان متن، تصویر و ویدئو بهتدریج واقعگرایانهتر میشوند، اما هنوز راههایی برای تشخیص محتوای هوش مصنوعی وجود دارد.
- اگر چیزی را کمی نامناسب یا مشکوک ببینید, «حس درونتان باید بگوید که جزئیات را دقیقتر بررسی کنید»، میگوید جِرمی کاراسکو، متخصص افشای هوش مصنوعی و مؤسس Showtools.ai در یوتیوب و تیکتاک.
- اگر ویدئو شبیه ضبط دوربین امنیتی یا دوربین بدنی باشد، این شاخصی است. تولیدکنندگان ویدئوی هوش مصنوعی در ساخت صحنههای واقعگرایانهٔ دوربینهای نظارتی مهارت دارند، چون ما به این ویدئوها که کمی «grainy» بهنظر میرسند عادت داریم.
بدانید که چتباتها اغلب با اطمینان اشتباه میکنند
چک واقعیت: امروزه اکثر مردم میدانند که هوش مصنوعی همیشه باید صحتسنجی شود. مدلهای زبانی ممکن است هالوسینیشن داشته باشند یا اطلاعات ساختگی ارائه دهند.
- چتباتها همیشه با اعتماد بهنفس صحبت میکنند. پاسخهایشان حتی هوشمندترین کاربران را میتواند فریب دهد.
- ویدئوها بهویژه ما را آموزش میدهند تا بهسرعت و بهصورت غریزی واکنش نشان دهیم، بدون اینکه سؤالاتی که معمولاً میپرسیم، بپرسیم. «دقت و آگاهی مهمترین مهارتهایی هستند که باید بازسازی شوند، بهویژه برای سالمندانی که در دنیایی بزرگ شدند که عکسها و ویدئوها بودند شواهد»، روبِرتا اشمید، سردبیر NewsGuard، به Axios گفت.
- با افراد سالمند بنشینید و از چتبات مورد علاقهٔ آنها سؤالی بپرسید که عزیزتان بهخوبی میداند. ببینید آیا میتوانند اشکالات پاسخهای آن را پیدا کنند.
بهعمق بروید: سادهترین راهنمای استفاده از چتباتها.
دیدگاهتان را بنویسید