
- هارش وارشنِی در حوزه حریم خصوصی و امنیت هوش مصنوعی کروم در گوگل کار کرده است.
- او در بهاشتراکگذاری اطلاعات با رباتهای هوش مصنوعی محتاط است تا خود را از جرایم سایبری محافظت کند.
- او توصیه میکند از ابزارهای هوش مصنوعی شناختهشده استفاده کنید و رباتهای گفتگو را همانند کارتپستال عمومی در نظر بگیرید.
این مقاله به روایت مصاحبهای با هارش وارشنِی، ۳۱ ساله، که در گوگل کار میکند و در نیویورک زندگی میکند، نوشته شده است. متن زیر برای کوتاهسازی و وضوح بازنویسی شده است.
هوش مصنوعی به سرعت به یک شریک بیصدا در زندگی روزمره ما تبدیل شده است و نمیتوانم زندگی را بدون ابزارهای هوش مصنوعی تصور کنم.
در روزمره، این ابزارها در پژوهش عمیق، یادداشتبرداری، برنامهنویسی و جستجوی آنلاین به من کمک میکنند.
اما شغلم باعث میشود تا از اهمیت مسایل حریم خصوصی مرتبط با استفاده از هوش مصنوعی بهخوبی آگاه باشم. من از سال ۲۰۲۳ در گوگل کار میکنم و دو سال بهعنوان مهندس نرمافزار در تیم حریم خصوصی مشغول به ساخت زیرساختهایی برای محافظت از دادههای کاربران بودم. سپس به تیم امنیت هوش مصنوعی کروم منتقل شدم، جایی که به ایمنسازی مرورگر گوگل کروم در برابر تهدیدات مخرب، مانند هکرها و کسانی که از عوامل هوش مصنوعی برای انجام حملات فیشینگ استفاده میکنند، میپردازم.
مدلهای هوش مصنوعی با استفاده از دادهها پاسخهای مفیدی تولید میکنند و ما کاربرها باید اطلاعات خصوصیمان را محافظت کنیم تا نهادهای مخرب، همچون جرایم سایبری و واسطههای داده، نتوانند به آن دسترسی پیدا کنند.
در ادامه چهار عادتی را که معتقدم برای حفاظت از دادههایم هنگام استفاده از هوش مصنوعی ضروری هستند، مطرح میکنم.
هوش مصنوعی را همانند یک کارتپستال عمومی در نظر بگیرید
گاهی احساس نادرستی از صمیمیت با هوش مصنوعی افراد را به اشتراکگذاری اطلاعاتی در اینترنت ترغیب میکند که در غیر اینصورت هرگز به اشتراک نمیگذارند. شرکتهای هوش مصنوعی ممکن است کارمندانی داشته باشند که روی بهبود جنبههای حریم خصوصی مدلهایشان کار میکنند، اما توصیه نمیشود جزئیات کارت اعتباری، شمارههای تأمین اجتماعی، آدرس منزل، تاریخچه پزشکی شخصی یا سایر اطلاعات شناساییپذیر را با رباتهای هوش مصنوعی بهاشتراک بگذارید.
بسته به نسخهٔ مورد استفاده، اطلاعات بهاشتراکگرفتهشده با رباتهای عمومی هوش مصنوعی میتواند برای آموزش مدلهای آینده و تولید پاسخهای مرتبطتر به کار رود. این میتواند منجر به “نشت آموزشی” شود، که در آن مدل اطلاعات شخصی یک کاربر را بهخاطر میسپرد و بعداً در پاسخ به کاربر دیگری بازپخش میکند. علاوه بر این، خطر نفوذ دادهها وجود دارد که اطلاعاتی که با ربات گفتگو به اشتراک گذاشتهاید را فاش میکند.
من رباتهای هوش مصنوعی را همانند یک کارتپستال عمومی در نظر میگیرم. اگر نمینوشتم یک اطلاعات روی کارتپستالی که هر کسی میتواند بخواند، پس آن را با یک ابزار عمومی هوش مصنوعی بهاشتراک نمیگذارم. من نسبت به این که دادههای من چگونه ممکن است برای آموزشهای آینده استفاده شوند، اطمینان ندارم.
بدانید در چه «اتاق»ی هستید
مهم است تشخیص دهید که از ابزار هوش مصنوعی عمومیتر استفاده میکنید یا از ابزار سطح سازمانی.
اگرچه هنوز معلوم نیست گفتگوها چگونه برای آموزش مدلهای عمومی هوش مصنوعی استفاده میشوند، شرکتها میتوانند مدلهای «سازمانی» را خریداری کنند. در این حالت، مدلها بهطور معمول برای آموزش از گفتگوهای کاربران استفاده نمیشوند، بنابراین برای کارمندان ایمنتر است که درباره کار و پروژههای شرکت صحبت کنند.
این را میتوان بهمثال گفتن در یک کافیشاپ شلوغ که ممکن است حواسپرتی شود، در مقابل یک جلسه محرمانه در دفتر خود که تنها در همان اتاق باقی میماند، تصور کنید.
گزارشها نشان میدهند که مواردی پیش آمده است که کارمندان بهطور تصادفی دادههای شرکت را به ChatGPT درز کردهاند. اگر روی پروژههای منتشر نشده شرکت کار میکنید یا در حال تلاش برای گرفتن پتنت هستید، احتمالاً نمیخواهید برنامههای خود را با یک ربات غیرسازمانی بهدلیل خطر نشت اطلاعات مطرح کنید.
من درباره پروژههایی که در گوگل روی آنها کار میکنم، با رباتهای عمومی گفتگو نمیکنم. در عوض، حتی برای کارهای کوچک مانند ویرایش ایمیل کاری، از یک مدل سازمانی استفاده میکنم. چون گفتگوهایم برای آموزش استفاده نمیشوند، احساس راحتی بیشتری در بهاشتراکگذاری اطلاعاتم دارم، اما همچنان سعی میکنم اطلاعات شخصی را به حداقل برسانم.
بهطور منظم تاریخچه خود را حذف کنید
رباتهای هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه میدارند، اما من توصیه میکنم که بهطور منظم این تاریخچه را هم در مدلهای سازمانی و هم در مدلهای عمومی حذف کنید تا حریم خصوصی کاربر در دراز مدت محافظت شود. با توجه به خطر به خطر افتادن حساب کاربری، داشتن این عادت پیشگیرانه حتی اگر مطمئن باشید که دادههای خصوصی را وارد ابزارها نمیکنید، مفید است.
یک بار شگفتزده شدم که ربات Gemini سازمانی توانست دقیقاً آدرس من را بگوید، در حالی که بهخاطر نمیآوردم آن را بهاشتراک گذاشتهام. در واقع، پیشتر از آن درخواست کرده بودم که به من در اصلاح یک ایمیل کمک کند که شامل آدرسم بود. چون این ابزار ویژگی حافظه بلندمدت دارد و میتواند اطلاعات مکالمات قبلی را بهخاطر بسپارد، توانست آدرس من را شناسایی و ذخیره کند.
گاهی، اگر به دنبال اطلاعاتی باشم که نمیخواهم ربات بهخاطره بسپارد، از حالت ویژهای استفاده میکنم که شبیه حالت ناشناس است؛ در این حالت رباتها تاریخچهام را ذخیره نمیکنند و اطلاعات را برای آموزش مدلها به کار نمیبرند. چتجیپیتی و جمینی این ویژگی را «چت موقت» مینامند.
از ابزارهای هوش مصنوعی شناختهشده استفاده کنید
استفاده از ابزارهای هوش مصنوعی شناختهشده بهتر است، زیرا احتمال دارد چارچوبهای حریم خصوصی واضح و سایر محدودیتهای حفاظتی را داشته باشند.
بهجز محصولات گوگل، من ترجیح میدهم از ChatGPT شرکت OpenAI و Claude از Anthropic استفاده کنم.
همچنین مرور سیاستهای حریم خصوصی هر ابزاری که استفاده میکنید مفید است. گاهی این سیاستها توضیح میدهند که دادههای شما چگونه برای آموزش مدل به کار میروند. در تنظیمات حریم خصوصی، میتوانید بخشی با گزینه «بهبود مدل برای همگان» پیدا کنید. با خاموش کردن این گزینه، از استفاده از گفتگوهای شما برای آموزش جلوگیری میکنید.
فناوری هوش مصنوعی بهقدر فوقالعاده قدرتمند است، اما باید محتاط باشیم تا دادهها و هویتهای خود را در هنگام استفاده از آن ایمن نگه داریم.
آیا داستانی درباره استفاده از هوش مصنوعی برای کمک به کار خود دارید؟ برای تماس با این خبرنگار به آدرس زیر مراجعه کنید ccheong@businessinsider.com
دیدگاهتان را بنویسید