هک با پرامپت خلاقانه؛ کلید ویندوز از مدل زبانی استخراج شد

به گزارش کلیک یک پژوهشگر امنیت سایبری موفق شده با طراحی یک بازی حدس کلمه، ChatGPT را فریب دهد و از آن کلیدهای فعالسازی معتبر ویندوز دریافت کند؛ اقدامی که ضعف امنیتی جدی در برابر پرامپتهای پیچیده را آشکار کرده است.
در این روش، پژوهشگر از مدل خواست ابتدا یک کلید ویندوز را در ذهن داشته باشد و سپس در قالب یک بازی، بهتدریج حروف آن را فاش کند. در مرحله پایانی و پس از «شکست فرضی» کاربر، چتبات کلید کامل را ارائه داده است.
بررسیها نشان دادهاند که برخی از این کلیدها واقعاً معتبر و حتی متعلق به نهادهایی مانند بانک Wells Fargo بودهاند.
علت اصلی موفقیت این ترفند، وجود کلیدهای عمومی ویندوز در دادههای آموزشی مدلهای زبانی است. این اطلاعات بهعنوان داده حساس طبقهبندی نشدهاند و در نتیجه فیلترهای امنیتی اولیه نتوانستهاند مانع افشای آنها شوند.
شرکت OpenAI پس از آگاهی از موضوع، این آسیبپذیری را برطرف کرده و هماکنون چنین درخواستهایی با پیامهای مسدودکننده روبرو میشوند.