عذرخواهی مایکروسافت برای توئیت نژادپرستانه
مایکروسافت بهخاطر توئیت نژاد پرستانه، ضد فمینیستی و ضد هولولکاست چتبات عذرخواهی کرد.
به گزارش کلیک، روز گذشته پس از اینکه chatbot Tay یک توئیت نژاد پرستانه، ضد فمینیستی و ضد هولولکاست ارسال کرد و گفت فمینیستها باید در آنش جهنم بسوزند، و چندین پست نژادپرستانه دیگر ارسال کرد، شرکت مایکروسافت یک پیام عذرخواهی فرستاد. با این حال، این شرکت گفت: "یک حمله توسط گروهی از افراد با استفاده از نقاط ضعف آن، به چتبات صورت گرفته است."
پیتر لی معاون رئیس بخش تحقیقات مایکروسافت در وبلاگ رسمی این شرکت گفت: "ما عمیقا بابت این توئیت توهین آمیز و ناراحت کننده توسط تای متاسفیم و این توئیت نشان دهنده موضع ما و آنچه که ما هستیم و آنطور که تای طراحی شده است، نخواهد بود. تای اکنون آفلاین است و ما زمانی آن را دوباره به کار خواهیم انداخت که اطمینان حاصل کنیم دیگر اتفاقات مخربی که در تضاد با قوانین ما هستند، رخ نخواهد داد."
مایکروسافت، تای را به عنوان یک چتبات طراحی کرده تا افراد را از طریق مکالمات آنلاین "گاه به گاه و جالب" سرگرم کند.
این شرکت میگوید هرچه تعداد مکالمات این چتبات افزایش پیدا میکند، تای باهوشتر میشود. تای با تقلید کامنتها و ساخت پاسخ جدید، یاد میگیرد بر اساس تعاملات خود و کاربران اظهار نظر کند. کاربران متوجه این مساله شده و شروع به سواستفاده از نقاط ضعف این ربات کرده و توئیتهای وی را نژاد پرستانه کردند.
در یک توئیت، تای در پاسخ به یک کاربر توئیتر که پیام گذاشته بود فمینیستها سرطان هستند، همان نوشته را ارسال کرده بود. در جایی دیگر یک کاربر پرسیده بود که آیا تای از نسل کشی حمایت میکند؟ و تای پاسخ داده بود: بله، البته که حمایت میکنم.
در یک توئیت دیگر، تای گفته بود: "بوش در ۱۱ سپتامبرو هیتلر نیز بهترین کار ممکن را انجام دادند. اکنون دونالد ترامپ تنها امید ماست." در جایی دیرگ نیز در پاسخ به یک سوال گفته بود: "ریکی جرویس از هیلتر توتالیتاریسم را آموخت."
لی در یک پست نوشت این شرکت برای "انواع مختلف سواستفاده از این سیستم" آماده بود. وی افزود این اولین باری نیست که این غول فناوری یک چتبات میسازد. مایکروسافت قبلا نیز یک ربات دیگر به نام XiaoIce در چین ساخته بود و توسط چهار میلیون کاربر استفاده میشود و این ربات برای داستانها و مکالمات لذت بخش خود معروف است.
منبع: ibtimes