هشدار گوگل درباره افشای داده‌ها در چت‌بات‌ها

یک مهندس امنیت گوگل درباره حریم خصوصی در عصر هوش مصنوعی هشدار داد.

هشدار گوگل درباره افشای داده‌ها در چت‌بات‌ها

به گزارش کلیک در حالی که ابزارهای هوش مصنوعی به‌سرعت در حال تبدیل شدن به بخشی جدایی‌ناپذیر از زندگی روزمره کاربران هستند، یکی از مهندسان امنیت گوگل با اشاره به خطراتی مانند نشت داده‌ها و سوءاستفاده مجرمان سایبری، بر ضرورت رعایت اصول حفاظت از اطلاعات شخصی تأکید کرده و چند عادت کلیدی را برای استفاده ایمن از این ابزارها پیشنهاد داده است.

با گسترش سریع ابزارهای هوش مصنوعی در حوزه‌هایی مانند برنامه‌نویسی، پژوهش، یادداشت‌برداری و مدیریت امور روزمره، موضوع حفظ حریم خصوصی کاربران بیش از گذشته اهمیت یافته است. در همین راستا، یکی از مهندسان امنیت گوگل نسبت به تهدیدهایی چون نشت اطلاعات و سوءاستفاده بازیگران مخرب هشدار داده و راهکارهایی عملی برای صیانت از داده‌های شخصی ارائه کرده است.

هرش وارشنی، مهندس تیم امنیت هوش مصنوعی مرورگر کروم در گوگل، معتقد است ابزارهای مبتنی بر هوش مصنوعی به سرعت به «شریک خاموش» زندگی روزمره کاربران تبدیل شده‌اند و نقش مهمی در انجام کارهایی مانند تحقیق عمیق، کدنویسی و جست‌وجوهای آنلاین ایفا می‌کنند. با این حال، او به دلیل فعالیت حرفه‌ای در حوزه امنیت، نسبت به پیامدهای حریم خصوصی استفاده از این ابزارها آگاهی ویژه‌ای دارد.

این متخصص که پیش‌تر در تیم حفظ حریم خصوصی گوگل فعالیت داشته است، تأکید می‌کند مدل‌های هوش مصنوعی برای تولید پاسخ‌های کاربردی، به داده‌ها متکی هستند و اگر کاربران در به‌اشتراک‌گذاری اطلاعات شخصی دقت نکنند، این داده‌ها می‌تواند در معرض دسترسی نهادهای مخرب، از جمله مجرمان سایبری و کارگزاران داده قرار گیرد.

وارشنی در این زمینه چهار عادت مهم را برای حفاظت از اطلاعات در هنگام استفاده از ابزارهای هوش مصنوعی معرفی می‌کند که نخستین و مهم‌ترین آن، نحوه تعامل کاربران با چت‌بات‌هاست.

 

رفتار با هوش مصنوعی مانند یک کارت پستال عمومی
به گفته او، احساس نادرست صمیمیت با چت‌بات‌ها گاهی باعث می‌شود کاربران اطلاعاتی را به‌صورت آنلاین مطرح کنند که در شرایط عادی هرگز آن‌ها را در اختیار دیگران قرار نمی‌دهند. اگرچه شرکت‌های فعال در حوزه هوش مصنوعی تلاش‌هایی برای ارتقای استانداردهای حریم خصوصی انجام می‌دهند، اما به هیچ عنوان توصیه نمی‌شود اطلاعات حساسی مانند جزئیات کارت اعتباری، شماره‌های شناسایی، نشانی محل سکونت، سوابق پزشکی یا سایر داده‌های هویتی با چت‌بات‌های عمومی به اشتراک گذاشته شود.

به گفته وارشنی، بسته به نوع و نسخه ابزار هوش مصنوعی، داده‌هایی که کاربران وارد می‌کنند ممکن است برای آموزش مدل‌های آینده و بهبود پاسخ‌ها مورد استفاده قرار گیرد. این فرآیند می‌تواند به پدیده‌ای موسوم به «نشت آموزشی» منجر شود؛ وضعیتی که در آن، مدل هوش مصنوعی اطلاعات شخصی یک کاربر را حفظ کرده و بعدها ناخواسته آن را در پاسخ به کاربر دیگری بازگو می‌کند. علاوه بر این، همواره خطر نقض داده‌ها و افشای اطلاعات ذخیره‌شده وجود دارد.

این مهندس امنیت در جمع‌بندی توصیه خود تأکید می‌کند: کاربران باید هنگام استفاده از چت‌بات‌های عمومی، آن‌ها را مانند یک کارت پستال در نظر بگیرند؛ اگر نوشتن اطلاعاتی روی کارت پستالی که ممکن است توسط هر کسی خوانده شود منطقی نیست، به همان اندازه نباید آن اطلاعات را با ابزارهای عمومی هوش مصنوعی در میان گذاشت.

 

ارسال نظر