اشتباه خطرناک هوش مصنوعی در آمریکا؛

پاکت چیپس به‌جای اسلحه شناسایی شد

در یکی از دبیرستان‌های ایالت مریلند آمریکا، سامانه‌ی هوش مصنوعیِ پایش ویدئویی، یک پاکت چیپس در دست دانش‌آموز ۱۶ ساله را به‌اشتباه «اسلحه» تشخیص داد.

 پاکت چیپس به‌جای اسلحه شناسایی شد

به گزارش کلیک این هشدار خودکار موجب شد چند خودروی پلیس به‌سرعت در محل حاضر شوند و مأموران با اسلحه‌های آماده‌ی شلیک، دانش‌آموز را متوقف و بازداشت کنند.

بر اساس گزارش رسانه‌های محلی، این حادثه در حالی رخ داد که مدرسه از سامانه‌ی تازه‌ای برای پایش امنیتی مبتنی بر هوش مصنوعی استفاده می‌کرد. هدف این سامانه، تشخیص سریع تهدیدهای احتمالی از جمله سلاح گرم یا سرد در محیط آموزشی بود. بااین‌حال، یکی از دوربین‌ها پاکت چیپس در دست دانش‌آموز را به‌عنوان «تفنگ دستی» شناسایی کرد و هشدار فوری به نیروهای انتظامی ارسال شد.

چند دقیقه بعد، خودروهای پلیس با سرعت به مدرسه رسیدند. مأموران مسلح، با ظن وقوع تهدید، دانش‌آموز را در محوطه‌ی مدرسه متوقف و دستبند زدند. طبق گفته‌ی شاهدان، فضای مدرسه به‌شدت متشنج شد و چند تن از دوستان دانش‌آموز نیز مورد بازرسی بدنی قرار گرفتند. پس از بررسی دستی مأموران مشخص شد که شیء مورد نظر تنها پاکت چیپس معمولی بوده و هیچ تهدیدی در کار نبوده است.

خانواده‌ی این دانش‌آموز از وقوع چنین رویدادی شوکه شده‌اند و اعلام کرده‌اند که قصد پیگیری قضایی دارند. پدر نوجوان در گفت‌وگو با رسانه‌ها گفته است: «پسرم ممکن بود تنها به خاطر اشتباه یک نرم‌افزار، هدف گلوله قرار گیرد. این نه فقط خطای فنی، بلکه خطری انسانی است.»

در پی این اتفاق، سخنگوی اداره آموزش مریلند اعلام کرد که سامانه‌ی هوش مصنوعی مورد استفاده، محصول یک شرکت خصوصی است و به‌طور آزمایشی در چند مدرسه فعال شده بود. این اداره وعده داده که تا زمان بازنگری کامل در الگوریتم تشخیص تصویری و رویه‌های پاسخ اضطراری، استفاده از سامانه به حالت تعلیق درخواهد آمد.

کارشناسان حوزه‌ی هوش مصنوعی و اخلاق فناوری، این رخداد را نمونه‌ای نگران‌کننده از «وابستگی بیش‌ازحد به سامانه‌های خودکار» دانسته‌اند. آنان هشدار می‌دهند که بی‌توجهی به خطای الگوریتمی در محیط‌های حساس مانند مدارس، می‌تواند پیامدهای فاجعه‌بار داشته باشد.

این حادثه بار دیگر بحث‌های گسترده‌ای را درباره‌ی مرز میان امنیت و اعتماد به فناوری در مدارس آمریکا برانگیخته است؛ جایی که به‌گفته‌ی ناظران، هر اشتباه کوچکِ یک هوش مصنوعی می‌تواند به بحرانی بزرگ انسانی تبدیل شود.

 

ارسال نظر