از جستجوی گوگل و سایتهای همسریابی گرفته تا تشخیص تقلب در کارت اعتباری، هوش مصنوعی (AI) مرتباً راههای جدیدی برای ورود به زندگی ما پیدا میکند. اما آیا میتوانیم به الگوریتمهایی که هوش مصنوعی را اداره میکنند، اعتماد کنیم؟ ما به عنوان انسان اشتباه میکنیم. میتوانیم دچار حواس پرتی شویم و اطلاعات را اشتباه تفسیر کنیم. با این حال وقتی دوباره اطلاعات را ارزیابی میکنیم، میتوانیم خطاهای خود را انتخاب کرده و آنها را اصلاح کنیم.
اما هنگامی که یک سیستم هوش مصنوعی خطایی انجام میدهد این خطا بارها و بارها تکرار میشود و مهم نیست که چند بار به همان شرایط و همان دادهها نگاه مجدد کند. سیستمهای هوش مصنوعی با استفاده از دادههایی که از گذشته به دست آمدهاند، آموزش داده میشوند. اگر یک مجموعه داده آموزشی با اشتباهات گذشته انسان (سوگیری بایاس) شدهباشد، این بایاس شدگی توسط سیستم هوش مصنوعی کدگذاری و تقویت میشود یا اگر در مورد یک گروه اقلیت خاص اطلاعات کمی داشته باشد، پیشبینیها درمورد آن گروه اشتباه خواهد بود. این مساله “بایاس الگوریتمی” نامیده میشود.
موسسه Gradient مقالهای را تالیف کردهاست که نشان میدهد چگونه مشاغل میتوانند بایاس الگوریتمی را در سیستمهای هوش مصنوعی شناسایی کنند و آن را کاهش دهند. این کار با همکاری کمیسیون حقوق بشر استرالیا، مرکز تحقیقات سیاستهای مصرف کننده، CSIRO’s Data61 و گروه وکالت CHOICE تولید شدهاست.
سوگیری (بایاس) الگوریتمی چگونه بوجود میآید؟
بایاس الگوریتمی ممکن است به دلیل کمبود دادههای آموزشی مناسب یا در نتیجه طراحی یا پیکربندی نامناسب سیستم بوجود بیاید. به عنوان مثال سیستمی که به بانک کمک میکند که درمورد دادن یا ندادن وام تصمیم بگیرد، معمولاً با استفاده از مجموعه دادههای بزرگی از تصمیمات قبلی وام بانکی (و سایر دادههای مرتبط که بانک به آنها دسترسی دارد) آموزش داده میشود.
این سیستم میتواند تاریخچه مالی، سابقه شغلی و اطلاعات آماری متقاضی جدید وام را با اطلاعات مربوط به متقاضیان قبلی مقایسه کند. در واقع این سیستم سعی میکند که از این طریق تصمیم بگیرد که آیا متقاضی جدید قادر به بازپرداخت وام هست یا خیر. اما این رویکرد میتواند مشکل ساز شود. یکی از مواردی که میتواند منجر به بایاس الگوریتمی شود، بایاس ناخودآگاه مدیران اعطای تسهیلات بانکی که تصمیمات قبلی را درباره درخواستهای وام گرفتهاند، میباشد.
اگر در گذشته مشتریان گروههای اقلیت به طور ناعادلانه موفق به دریافت وام نشدهباشند، هوش مصنوعی توانایی بازپرداخت وام این گروهها را کمتر از آنچه در درواقع وجود دارد، در نظر میگیرد. جوانان، رنگین پوستان، زنان مجرد، افراد دارای معلولیت و کارگران تنها نمونههایی از گروههایی هستند که ممکن است به واسطهی این مشکل در معرض آسیب قرار بگیرند.
بایاس هم به افراد و هم به شرکتها آسیب میرساند. سیستم هوش مصنوعی بایاس شدهای که در بالا توضیح داده شد، دو خطر اساسی برای بانک به وجود میآورد. اولاً اینکه بانک میتواند با فرستادن مشتریان گروههای اقلیتی خود به بانکهای رقیب، مشتریان بالقوه خود را از دست بدهد. همچنین طبق قوانین ضد تبعیض، میتواند مسئول شناخته شود. اگر یک سیستم هوش مصنوعی به طور مستمر بایاس ذاتی را در تصمیمگیریهای خود اعمال کند، شناسایی این الگوی سیستماتیک برای دولت یا گروههای مصرف کننده آسانتر میشود و این امر میتواند منجر به جریمههای سنگین و مجازات بانک شود.
کاهش سوگیری الگوریتمی
در این مقاله چندین روش که باعث بایاس الگوریتمی میشوند، بررسی میشود. همچنین این مقاله یک راهنمای فنی در مورد چگونگی حذف این بایاس ارائه میکند. بنابراین سیستمهای هوش مصنوعی نتایج اخلاقیای را تولید میکنند که بین مشتریان بر اساس ویژگیهایی مانند نژاد، سن، جنس یا ناتوانی تبعیض قائل نشوند.
برای نوشتن این مقاله، گروه نویسندگان یک توزیعکننده برق فرضی را شبیهسازی کردند که برای تصمیمگیری در مورد نحوه ارائه محصولات به مشتریان و شرایط ارائه خدمات، از ابزاری مجهز به هوش مصنوعی استفاده میکند. این شبیهسازی با استفاده از دادههای تاریخی خیالی ساختهشده توسط افراد خیالی، آموزش داده شدهاست.
بر اساس نتایج این مقاله، نویسندگان پنج روش برای اصلاح بایاس الگوریتمی شناسایی کردند. این روشها را میتوان برای مشاغل مختلف در طیف وسیعی از بخشها به کار برد، تا از منصفانه و دقیق بودن سیستمهای هوش مصنوعی اطمینان حاصل شود.
- دادههای بهتری جمعآوری کنید:
میتوان با بدست آوردن نقاط داده اضافی یا انواع جدیدی از اطلاعات در مورد افراد، به ویژه اقلیتهایی که مورد اجحاف قرار گرفتهاند یا افرادی که ممکن است در دادههای موجود به طور نادرست ظاهر شدهباشند، خطر بایاس الگوریتمی را کاهش داد.
- دادهها را پیش پردازش کنید:
این راهحل شامل ویرایش یک مجموعه داده برای پوشاندن یا حذف کردن اطلاعات مربوط به ویژگیهای مرتبط با قوانین ضد تبعیض، مانند نژاد یا جنسیت است.
- افزایش پیچیدگی مدل:
آزمایش، نظارت و تحلیل یک مدل هوش مصنوعی ساده، میتواند آسانتر باشد. اما این سادگی میتواند باعث کاهش دقت شود و در نهایت اکثریت را به اقلیت ترجیح بدهد.
- سیستم را اصلاح کنید:
منطق و پارامترهای یک سیستم هوش مصنوعی را میتوان به گونهای تنظیم کرد تا مستقیماً بایاس الگوریتمی را خنثی کند. به عنوان مثال میتوان این کار را با تعیین آستانه تصمیمگیری متفاوت برای یک گروه محروم، انجام داد.
5. هدف پیش بینی را تغییر دهید:
معیار ویژهای که برای هدایت یک سیستم هوش مصنوعی انتخاب میشود میتواند مستقیماً بر نحوه تصمیمگیری سیستم در مورد گروههای مختلف تأثیر بگذارد. یافتن یک مقیاس اندازهگیری عادلانه برای استفاده به عنوان هدف پیش بینی، به کاهش بایاس الگوریتمی کمک خواهدکرد.
هنگام توسعه این سیستمها، قانونی و اخلاقی بودن را در نظر بگیرید
نویسندگان این مقاله در توصیههای خود به دولت و مشاغلی که مایل به استفاده از تصمیمگیری هوش مصنوعی هستند، پیش از هر چیز بر اهمیت توجه به اصول کلی انصاف و حقوق بشر هنگام استفاده از این فناوری تأکید میکنند. در نظرگرفتن این مسئله، باید قبل از استفاده از سیستم انجام بشود. نویسندگان این مقاله همچنین توصیه میکنند که سیستم ها به صورت دقیق طراحی و آزمایش شوند تا اطمینان حاصل شود که خروجیهای سیستم به بایاس الگوریتمی آلوده نباشند. و هنگامی که سیستم به مرحله بهرهبرداری رسید، باید از نزدیک تحت نظارت قرار بگیرد.
در نهایت، نویسندگان این مقاله توصیه کردهاند که مسئولیتپذیری و ارزشهای اخلاقی این سیستمهای هوش مصنوعی باید فراتر از قانون باشد. همچنین این سیستم نیاز دارد که با هنجارهای اجتماعی کاملاً پذیرفته شده، با در نظر گرفتن تأثیر آن بر افراد، جوامع و محیط همسو باشد. با رایج شدن ابزارهای تصمیمگیری هوش مصنوعی، اکنون ما فرصتی داریم که با استفاده آگاهانه ازین سیستمها، نه تنها بهرهوری را افزایش میدهیم بلکه جامعهای عادلانهتر و منصفانهتر ایجاد کنیم.