هشدار گوگل درباره افشای دادهها در چتباتها
یک مهندس امنیت گوگل درباره حریم خصوصی در عصر هوش مصنوعی هشدار داد.
به گزارش کلیک در حالی که ابزارهای هوش مصنوعی بهسرعت در حال تبدیل شدن به بخشی جداییناپذیر از زندگی روزمره کاربران هستند، یکی از مهندسان امنیت گوگل با اشاره به خطراتی مانند نشت دادهها و سوءاستفاده مجرمان سایبری، بر ضرورت رعایت اصول حفاظت از اطلاعات شخصی تأکید کرده و چند عادت کلیدی را برای استفاده ایمن از این ابزارها پیشنهاد داده است.
با گسترش سریع ابزارهای هوش مصنوعی در حوزههایی مانند برنامهنویسی، پژوهش، یادداشتبرداری و مدیریت امور روزمره، موضوع حفظ حریم خصوصی کاربران بیش از گذشته اهمیت یافته است. در همین راستا، یکی از مهندسان امنیت گوگل نسبت به تهدیدهایی چون نشت اطلاعات و سوءاستفاده بازیگران مخرب هشدار داده و راهکارهایی عملی برای صیانت از دادههای شخصی ارائه کرده است.
هرش وارشنی، مهندس تیم امنیت هوش مصنوعی مرورگر کروم در گوگل، معتقد است ابزارهای مبتنی بر هوش مصنوعی به سرعت به «شریک خاموش» زندگی روزمره کاربران تبدیل شدهاند و نقش مهمی در انجام کارهایی مانند تحقیق عمیق، کدنویسی و جستوجوهای آنلاین ایفا میکنند. با این حال، او به دلیل فعالیت حرفهای در حوزه امنیت، نسبت به پیامدهای حریم خصوصی استفاده از این ابزارها آگاهی ویژهای دارد.
این متخصص که پیشتر در تیم حفظ حریم خصوصی گوگل فعالیت داشته است، تأکید میکند مدلهای هوش مصنوعی برای تولید پاسخهای کاربردی، به دادهها متکی هستند و اگر کاربران در بهاشتراکگذاری اطلاعات شخصی دقت نکنند، این دادهها میتواند در معرض دسترسی نهادهای مخرب، از جمله مجرمان سایبری و کارگزاران داده قرار گیرد.
وارشنی در این زمینه چهار عادت مهم را برای حفاظت از اطلاعات در هنگام استفاده از ابزارهای هوش مصنوعی معرفی میکند که نخستین و مهمترین آن، نحوه تعامل کاربران با چتباتهاست.
رفتار با هوش مصنوعی مانند یک کارت پستال عمومی
به گفته او، احساس نادرست صمیمیت با چتباتها گاهی باعث میشود کاربران اطلاعاتی را بهصورت آنلاین مطرح کنند که در شرایط عادی هرگز آنها را در اختیار دیگران قرار نمیدهند. اگرچه شرکتهای فعال در حوزه هوش مصنوعی تلاشهایی برای ارتقای استانداردهای حریم خصوصی انجام میدهند، اما به هیچ عنوان توصیه نمیشود اطلاعات حساسی مانند جزئیات کارت اعتباری، شمارههای شناسایی، نشانی محل سکونت، سوابق پزشکی یا سایر دادههای هویتی با چتباتهای عمومی به اشتراک گذاشته شود.
به گفته وارشنی، بسته به نوع و نسخه ابزار هوش مصنوعی، دادههایی که کاربران وارد میکنند ممکن است برای آموزش مدلهای آینده و بهبود پاسخها مورد استفاده قرار گیرد. این فرآیند میتواند به پدیدهای موسوم به «نشت آموزشی» منجر شود؛ وضعیتی که در آن، مدل هوش مصنوعی اطلاعات شخصی یک کاربر را حفظ کرده و بعدها ناخواسته آن را در پاسخ به کاربر دیگری بازگو میکند. علاوه بر این، همواره خطر نقض دادهها و افشای اطلاعات ذخیرهشده وجود دارد.
این مهندس امنیت در جمعبندی توصیه خود تأکید میکند: کاربران باید هنگام استفاده از چتباتهای عمومی، آنها را مانند یک کارت پستال در نظر بگیرند؛ اگر نوشتن اطلاعاتی روی کارت پستالی که ممکن است توسط هر کسی خوانده شود منطقی نیست، به همان اندازه نباید آن اطلاعات را با ابزارهای عمومی هوش مصنوعی در میان گذاشت.