حذف دیتابیس نژادپرستانه توسط دانشگاه MIT آمریکا
دانشگاه MIT برای یکی از دیتاستهای خود که باعث آموزشهای غلط و نژادپرستانه به هوش مصنوعی میشد، عذرخواهی کرد و آن را به صورت آفلاین درآورد.
دیتاست مورد نظر 80 Million Tiny Images نام دارد و در سال 2008 خلق شده است. این دیتاست مجموعهای از تصاویر است که برای آموزش به هوش مصنوعی برای شناسایی اشیاء طراحی شده است. در واقع این دیتاست مجموعه عظیمی از تصاویر است که بر اساس آنچه در آن وجود دارد، به صورت جداگانه برچسب گذاری شده است.
مدلهای یادگیری ماشین با استفاده از این تصاویر و برچسبهای آنها آموزش داده میشوند. تصویری از خیابان ، که توسط یک مدل هوش مصنوعی تغذیه شده و در چنین مجموعه دادهای آموزش داده شده است، میتواند در مورد مسائلی که شامل اتومبیل، چراغهای خیابان، عابر پیاده و دوچرخه، اطلاعات مورد نیاز را به شما ارائه دهد.
دو محقق ، با نامهای وینای پرابو دانشمند ارشد UnifyID و آبه باهنه نامزد دکترا در کالج دانشگاه دوبلین در ایرلند، این تصاویر را تجزیه و تحلیل کرده و هزاران مورد از برچسبهای مربوط به آن را پیدا کردند.
این مجموعه آموزش MIT برای برچسب زدن زنان از عنوانهایی مانند “عوضی” استفاده کرده و افراد جامعه BAME (بریتانیاییهای غیر نژاد سفید پوست) را با انواع اصطلاحات شرم آور توصیف کرده است.
The Register به MIT درباره موضوعات مربوط به دادههای Prabhu و Birhane هشدار داد تا دیتاست و دانشکده مربوطه به سرعت آفلاین شود. MIT یک قدم جلوتر رفت و از هرکسی که از مجموعه داده استفاده می کند، خواست که استفاده از آن دیتاست را متوقف کنند و تمامی نسخههای موجود را حذف کنند.
بیانیهای در وب سایت دانشگاه MIT وجود دارد که ادعا می کند از برچسبهای توهین آمیز آگاه نبوده است و بیان میکند “این نتیجهی استفاده از روش خودکار جمع آوری دادهها است که به اسم WordNet شناخته میشود.”
در این بیانیه توضیح داده شده است که 80 میلیون تصویر موجود در مجموعه داده، اندازهایی با ابعاد 32 × 32 پیکسل دارند، این مسئله بدین معنی است که بازرسی دستی دیتاست تقریبا غیرممکن خواهد بود ودانشگاه نمی تواند تضمین کند که همه تصاویر توهین آمیز حذف خواهند شد.
“تعصبات، تصاویر توهین آمیز و تبعیض آمیز و اصطلاحات موهن بخش مهمی از جامعه ما را بیگانه می سازد، اینها دقیقاً مفاهیمی که ما در تلاشیم تا آنها را در بر داشته باشیم. همچنین این دیتاست به تعصبات مضر در سیستمهای هوش مصنوعی آموزش دیده بر اساس این دادهها، منجر خواهد شد. علاوه بر این، وجود چنین تصاویر پیشداورانهای، تلاشهایی را که برای تقویت و گسترش فرهنگ درگیر در جامعه بینایی رایانه شده است را خدشه دار میکند. این مسئله بسیار مایه تاسف است و خلاف ارزشهایی است که ما میخواهیم از آنها حمایت کنیم. “