من در بخش امنیت هوش مصنوعی در گوگل مشغول به کار هستم و برخی موارد را هرگز به ربات‌های گفتگو نمی‌گویم. من چهار قانون را برای استفاده ایمن از هوش مصنوعی رعایت می‌کنم.

هارش وارشنِی در حال نشستن روی صندلی.
هارش وارشنِی، مهندس گوگل، از ابزارهای هوش مصنوعی برای کمک به برنامه‌نویسی و یادداشت‌برداری استفاده می‌کند. با تشکر از هارش وارشنِی
  • هارش وارشنِی در حوزه حریم خصوصی و امنیت هوش مصنوعی کروم در گوگل کار کرده است.
  • او در به‌اشتراک‌گذاری اطلاعات با ربات‌های هوش مصنوعی محتاط است تا خود را از جرایم سایبری محافظت کند.
  • او توصیه می‌کند از ابزارهای هوش مصنوعی شناخته‌شده استفاده کنید و ربات‌های گفتگو را همانند کارت‌پستال عمومی در نظر بگیرید.

این مقاله به روایت مصاحبه‌ای با هارش وارشنِی، ۳۱ ساله، که در گوگل کار می‌کند و در نیویورک زندگی می‌کند، نوشته شده است. متن زیر برای کوتاه‌سازی و وضوح بازنویسی شده است.

هوش مصنوعی به سرعت به یک شریک بی‌صدا در زندگی روزمره ما تبدیل شده است و نمی‌توانم زندگی را بدون ابزارهای هوش مصنوعی تصور کنم.

در روزمره، این ابزارها در پژوهش عمیق، یادداشت‌برداری، برنامه‌نویسی و جستجوی آنلاین به من کمک می‌کنند.

اما شغلم باعث می‌شود تا از اهمیت مسایل حریم خصوصی مرتبط با استفاده از هوش مصنوعی به‌خوبی آگاه باشم. من از سال ۲۰۲۳ در گوگل کار می‌کنم و دو سال به‌عنوان مهندس نرم‌افزار در تیم حریم خصوصی مشغول به ساخت زیرساخت‌هایی برای محافظت از داده‌های کاربران بودم. سپس به تیم امنیت هوش مصنوعی کروم منتقل شدم، جایی که به ایمن‌سازی مرورگر گوگل کروم در برابر تهدیدات مخرب، مانند هکرها و کسانی که از عوامل هوش مصنوعی برای انجام حملات فیشینگ استفاده می‌کنند، می‌پردازم.

مدل‌های هوش مصنوعی با استفاده از داده‌ها پاسخ‌های مفیدی تولید می‌کنند و ما کاربرها باید اطلاعات خصوصی‌مان را محافظت کنیم تا نهادهای مخرب، همچون جرایم سایبری و واسطه‌های داده، نتوانند به آن دسترسی پیدا کنند.

در ادامه چهار عادتی را که معتقدم برای حفاظت از داده‌هایم هنگام استفاده از هوش مصنوعی ضروری هستند، مطرح می‌کنم.

هوش مصنوعی را همانند یک کارت‌پستال عمومی در نظر بگیرید

گاهی احساس نادرستی از صمیمیت با هوش مصنوعی افراد را به اشتراک‌گذاری اطلاعاتی در اینترنت ترغیب می‌کند که در غیر این‌صورت هرگز به اشتراک نمی‌گذارند. شرکت‌های هوش مصنوعی ممکن است کارمندانی داشته باشند که روی بهبود جنبه‌های حریم خصوصی مدل‌هایشان کار می‌کنند، اما توصیه نمی‌شود جزئیات کارت اعتباری، شماره‌های تأمین اجتماعی، آدرس منزل، تاریخچه پزشکی شخصی یا سایر اطلاعات شناسایی‌پذیر را با ربات‌های هوش مصنوعی به‌اشتراک بگذارید.

بسته به نسخهٔ مورد استفاده، اطلاعات به‌اشتراک‌گرفته‌شده با ربات‌های عمومی هوش مصنوعی می‌تواند برای آموزش مدل‌های آینده و تولید پاسخ‌های مرتبط‌تر به کار رود. این می‌تواند منجر به “نشت آموزشی” شود، که در آن مدل اطلاعات شخصی یک کاربر را به‌خاطر می‌سپرد و بعداً در پاسخ به کاربر دیگری بازپخش می‌کند. علاوه بر این، خطر نفوذ داده‌ها وجود دارد که اطلاعاتی که با ربات گفتگو به اشتراک گذاشته‌اید را فاش می‌کند.

من ربات‌های هوش مصنوعی را همانند یک کارت‌پستال عمومی در نظر می‌گیرم. اگر نمی‌نوشتم یک اطلاعات روی کارت‌پستالی که هر کسی می‌تواند بخواند، پس آن را با یک ابزار عمومی هوش مصنوعی به‌اشتراک نمی‌گذارم. من نسبت به این که داده‌های من چگونه ممکن است برای آموزش‌های آینده استفاده شوند، اطمینان ندارم.

بدانید در چه «اتاق»ی هستید

مهم است تشخیص دهید که از ابزار هوش مصنوعی عمومی‌تر استفاده می‌کنید یا از ابزار سطح سازمانی.

اگرچه هنوز معلوم نیست گفتگوها چگونه برای آموزش مدل‌های عمومی هوش مصنوعی استفاده می‌شوند، شرکت‌ها می‌توانند مدل‌های «سازمانی» را خریداری کنند. در این حالت، مدل‌ها به‌طور معمول برای آموزش از گفتگوهای کاربران استفاده نمی‌شوند، بنابراین برای کارمندان ایمن‌تر است که درباره کار و پروژه‌های شرکت صحبت کنند.

این را می‌توان به‌مثال گفتن در یک کافی‌شاپ شلوغ که ممکن است حواس‌پرتی شود، در مقابل یک جلسه محرمانه در دفتر خود که تنها در همان اتاق باقی می‌ماند، تصور کنید.

گزارش‌ها نشان می‌دهند که مواردی پیش آمده است که کارمندان به‌طور تصادفی داده‌های شرکت را به ChatGPT درز کرده‌اند. اگر روی پروژه‌های منتشر نشده شرکت کار می‌کنید یا در حال تلاش برای گرفتن پتنت هستید، احتمالاً نمی‌خواهید برنامه‌های خود را با یک ربات غیرسازمانی به‌دلیل خطر نشت اطلاعات مطرح کنید.

من درباره پروژه‌هایی که در گوگل روی آن‌ها کار می‌کنم، با ربات‌های عمومی گفتگو نمی‌کنم. در عوض، حتی برای کارهای کوچک مانند ویرایش ایمیل کاری، از یک مدل سازمانی استفاده می‌کنم. چون گفتگوهایم برای آموزش استفاده نمی‌شوند، احساس راحتی بیشتری در به‌اشتراک‌گذاری اطلاعاتم دارم، اما همچنان سعی می‌کنم اطلاعات شخصی را به حداقل برسانم.

به‌طور منظم تاریخچه خود را حذف کنید

ربات‌های هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه می‌دارند، اما من توصیه می‌کنم که به‌طور منظم این تاریخچه را هم در مدل‌های سازمانی و هم در مدل‌های عمومی حذف کنید تا حریم خصوصی کاربر در دراز مدت محافظت شود. با توجه به خطر به خطر افتادن حساب کاربری، داشتن این عادت پیشگیرانه حتی اگر مطمئن باشید که داده‌های خصوصی را وارد ابزارها نمی‌کنید، مفید است.

یک بار شگفت‌زده شدم که ربات Gemini سازمانی توانست دقیقاً آدرس من را بگوید، در حالی که به‌خاطر نمی‌آوردم آن را به‌اشتراک گذاشته‌ام. در واقع، پیش‌تر از آن درخواست کرده بودم که به من در اصلاح یک ایمیل کمک کند که شامل آدرسم بود. چون این ابزار ویژگی حافظه بلندمدت دارد و می‌تواند اطلاعات مکالمات قبلی را به‌خاطر بسپارد، توانست آدرس من را شناسایی و ذخیره کند.

گاهی، اگر به دنبال اطلاعاتی باشم که نمی‌خواهم ربات به‌خاطره بسپارد، از حالت ویژه‌ای استفاده می‌کنم که شبیه حالت ناشناس است؛ در این حالت ربات‌ها تاریخچه‌ام را ذخیره نمی‌کنند و اطلاعات را برای آموزش مدل‌ها به کار نمی‌برند. چت‌جی‌پی‌تی و جمی‌نی این ویژگی را «چت موقت» می‌نامند.

از ابزارهای هوش مصنوعی شناخته‌شده استفاده کنید

استفاده از ابزارهای هوش مصنوعی شناخته‌شده بهتر است، زیرا احتمال دارد چارچوب‌های حریم خصوصی واضح و سایر محدودیت‌های حفاظتی را داشته باشند.

به‌جز محصولات گوگل، من ترجیح می‌دهم از ChatGPT شرکت OpenAI و Claude از Anthropic استفاده کنم.

همچنین مرور سیاست‌های حریم خصوصی هر ابزاری که استفاده می‌کنید مفید است. گاهی این سیاست‌ها توضیح می‌دهند که داده‌های شما چگونه برای آموزش مدل به کار می‌روند. در تنظیمات حریم خصوصی، می‌توانید بخشی با گزینه «بهبود مدل برای همگان» پیدا کنید. با خاموش کردن این گزینه، از استفاده از گفتگوهای شما برای آموزش جلوگیری می‌کنید.

فناوری هوش مصنوعی به‌قدر فوق‌العاده قدرتمند است، اما باید محتاط باشیم تا داده‌ها و هویت‌های خود را در هنگام استفاده از آن ایمن نگه داریم.

آیا داستانی درباره استفاده از هوش مصنوعی برای کمک به کار خود دارید؟ برای تماس با این خبرنگار به آدرس زیر مراجعه کنید ccheong@businessinsider.com

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *