هک با پرامپت خلاقانه؛ کلید ویندوز از مدل زبانی استخراج شد

هک با پرامپت خلاقانه؛ کلید ویندوز از مدل زبانی استخراج شد

به گزارش کلیک یک پژوهشگر امنیت سایبری موفق شده با طراحی یک بازی حدس کلمه، ChatGPT را فریب دهد و از آن کلیدهای فعال‌سازی معتبر ویندوز دریافت کند؛ اقدامی که ضعف‌ امنیتی جدی در برابر پرامپت‌های پیچیده را آشکار کرده است.

 در این روش، پژوهشگر از مدل خواست ابتدا یک کلید ویندوز را در ذهن داشته باشد و سپس در قالب یک بازی، به‌تدریج حروف آن را فاش کند. در مرحله پایانی و پس از «شکست فرضی» کاربر، چت‌بات کلید کامل را ارائه داده است.

بررسی‌ها نشان داده‌اند که برخی از این کلیدها واقعاً معتبر و حتی متعلق به نهادهایی مانند بانک Wells Fargo بوده‌اند.

 علت اصلی موفقیت این ترفند، وجود کلیدهای عمومی ویندوز در داده‌های آموزشی مدل‌های زبانی است. این اطلاعات به‌عنوان داده حساس طبقه‌بندی نشده‌اند و در نتیجه فیلترهای امنیتی اولیه نتوانسته‌اند مانع افشای آن‌ها شوند.

 شرکت OpenAI پس از آگاهی از موضوع، این آسیب‌پذیری را برطرف کرده و هم‌اکنون چنین درخواست‌هایی با پیام‌های مسدودکننده روبرو می‌شوند.

 

ارسال نظر