حذف دیتابیس نژادپرستانه توسط دانشگاه MIT آمریکا

حذف دیتابیس نژادپرستانه توسط دانشگاه MIT آمریکا

حذف دیتابیس نژادپرستانه توسط دانشگاه MIT آمریکا

دانشگاه MIT برای یکی از دیتاست‌های خود که باعث آموزش‌های غلط و نژادپرستانه به هوش مصنوعی می‌شد، عذرخواهی کرد و آن را به صورت آفلاین درآورد.

دیتاست مورد نظر ۸۰ Million Tiny Images نام دارد و در سال ۲۰۰۸ خلق شده است. این دیتاست مجموعه‌ای از تصاویر است که برای آموزش به هوش مصنوعی برای شناسایی اشیاء طراحی شده است. در واقع این دیتاست مجموعه عظیمی از تصاویر است که بر اساس آنچه در آن وجود دارد، به صورت جداگانه برچسب گذاری شده است.

مدل‌های یادگیری ماشین با استفاده از این تصاویر و برچسب‌های آن‌ها آموزش داده می‌شوند. تصویری از خیابان ، که توسط یک مدل هوش مصنوعی تغذیه شده و در چنین مجموعه داده‌ای آموزش داده شده است، می‌تواند در مورد مسائلی که شامل اتومبیل، چراغ‌های خیابان، عابر پیاده و دوچرخه، اطلاعات مورد نیاز را به شما ارائه دهد.

دو محقق ، با نام‌های وینای پرابو دانشمند ارشد UnifyID و آبه باهنه نامزد دکترا در کالج دانشگاه دوبلین در ایرلند، این تصاویر را تجزیه و تحلیل کرده و هزاران مورد از برچسب‌های مربوط به آن را پیدا کردند.

این مجموعه آموزش MIT برای برچسب زدن زنان از عنوان‌هایی مانند “عوضی” استفاده کرده و افراد جامعه BAME (بریتانیایی‌های غیر نژاد سفید پوست) را با انواع اصطلاحات شرم آور توصیف کرده است.

The Register به MIT درباره موضوعات مربوط به داده‌های Prabhu و Birhane هشدار داد تا دیتاست و دانشکده مربوطه به سرعت آفلاین شود. MIT یک قدم جلوتر رفت و از هرکسی که از مجموعه داده استفاده می کند، خواست که استفاده از آن دیتاست را متوقف کنند و تمامی نسخه‌های موجود را حذف کنند.

بیانیه‌ای در وب سایت دانشگاه MIT وجود دارد که ادعا می کند از برچسب‌های توهین آمیز آگاه نبوده است و بیان می‌کند “این نتیجه‌ی استفاده از روش خودکار جمع آوری داده‌ها است که به اسم WordNet شناخته می‌شود.”

در این بیانیه توضیح داده شده است که ۸۰ میلیون تصویر موجود در مجموعه داده، اندازه‌ایی با ابعاد ۳۲ × ۳۲ پیکسل دارند، این مسئله بدین معنی است که بازرسی دستی دیتاست تقریبا غیرممکن خواهد بود ودانشگاه  نمی تواند تضمین کند که همه تصاویر توهین آمیز حذف خواهند شد.

“تعصبات، تصاویر توهین آمیز و تبعیض آمیز و اصطلاحات موهن بخش مهمی از جامعه ما را بیگانه می سازد، این‌ها دقیقاً مفاهیمی که ما در تلاشیم تا آن‌ها را در بر داشته باشیم. همچنین این دیتاست به تعصبات مضر در سیستم‌های هوش مصنوعی آموزش دیده بر اساس این داده‌ها، منجر خواهد شد. علاوه بر این، وجود چنین تصاویر پیش‌داورانه‌ای، تلاش‌هایی را که برای تقویت و گسترش فرهنگ درگیر در جامعه بینایی رایانه شده است را خدشه دار می‌کند. این مسئله بسیار مایه تاسف است و خلاف ارزش‌هایی است که ما می‌خواهیم از آن‌ها حمایت کنیم. “

لینک کوتاه شده : https://amerandish.com/7dbJW

به این مطلب امتیاز دهید

به اشتراک بگذارید

اشتراک گذاری در whatsapp
اشتراک گذاری در telegram
اشتراک گذاری در linkedin
اشتراک گذاری در twitter
اشتراک گذاری در email

نظرات شما

فارس آوا

تبدیل گفتار به متن

باتاوا

دستیارسازمانی - چت بات

هوشتل

اپراتورهوشمند مرکز تماس

بینایار

درک هوشمند ویدیو و تصویر

_ مطالب مرتبط _