پنج روش برای جلوگیری از افزایش نابرابری اجتماعی در اثر کاربرد هوش مصنوعی

از جستجوی گوگل و سایت‌های همسریابی گرفته تا تشخیص تقلب در کارت اعتباری، هوش مصنوعی (AI) مرتباً راه‌های جدیدی برای ورود به زندگی ما پیدا می‌کند. اما آیا می‌توانیم به الگوریتم‌هایی که هوش مصنوعی را اداره می‌کنند، اعتماد کنیم؟ ما به عنوان انسان اشتباه می‌کنیم. می‌توانیم دچار حواس پرتی شویم و اطلاعات را اشتباه تفسیر کنیم. با این حال وقتی دوباره اطلاعات را ارزیابی می‌کنیم، می‌توانیم خطاهای خود را انتخاب کرده و آن‌ها را اصلاح کنیم.

اما هنگامی که یک سیستم هوش مصنوعی خطایی انجام می‌دهد این خطا بارها و بارها تکرار می‌شود و مهم نیست که چند بار به همان شرایط و همان داده‌ها نگاه مجدد کند. سیستم‌های هوش مصنوعی با استفاده از داده‌هایی که از گذشته به دست آمده‌اند، آموزش داده می‌شوند. اگر یک مجموعه داده آموزشی با اشتباهات گذشته انسان (سوگیری بایاس) شده‌باشد، این بایاس شدگی توسط سیستم هوش مصنوعی کدگذاری و تقویت می‌شود یا اگر در مورد یک گروه اقلیت خاص اطلاعات کمی داشته باشد، پیش‌بینی‌ها درمورد آن گروه اشتباه خواهد بود. این مساله “بایاس الگوریتمی” نامیده می‌شود.

موسسه Gradient مقاله‌ای را تالیف کرده‌است که نشان می‌دهد چگونه مشاغل می‌توانند بایاس الگوریتمی را در سیستم‌های هوش مصنوعی شناسایی کنند و آن را کاهش دهند. این کار با همکاری کمیسیون حقوق بشر استرالیا، مرکز تحقیقات سیاست‌های مصرف کننده، CSIRO’s Data61 و گروه وکالت CHOICE تولید شده‌است.

سوگیری (بایاس) الگوریتمی چگونه بوجود می‌آید؟

بایاس الگوریتمی ممکن است به دلیل کمبود داده‌های آموزشی مناسب یا در نتیجه طراحی یا پیکربندی نامناسب سیستم بوجود بیاید. به عنوان مثال سیستمی که به بانک کمک می‌کند که درمورد دادن یا ندادن وام تصمیم بگیرد، معمولاً با استفاده از مجموعه داده‌های بزرگی از تصمیمات قبلی وام بانکی (و سایر داده‌های مرتبط که بانک به آن‌ها دسترسی دارد) آموزش داده می‌شود.

این سیستم می‌تواند تاریخچه مالی، سابقه شغلی و اطلاعات آماری متقاضی جدید وام را با اطلاعات مربوط به متقاضیان قبلی مقایسه کند. در واقع این سیستم سعی می‌کند که از این طریق تصمیم بگیرد که آیا متقاضی جدید قادر به بازپرداخت وام هست یا خیر. اما این رویکرد می‌تواند مشکل ساز شود. یکی از مواردی که می‌تواند منجر به بایاس الگوریتمی شود، بایاس ناخودآگاه مدیران اعطای تسهیلات بانکی که تصمیمات قبلی را درباره درخواست‌های وام گرفته‌اند، می‌باشد.

اگر در گذشته مشتریان گروه‌های اقلیت به طور ناعادلانه موفق به دریافت وام نشده‌باشند، هوش مصنوعی توانایی بازپرداخت وام این گروه‌ها را کمتر از آنچه در درواقع وجود دارد، در نظر می‌گیرد. جوانان، رنگین پوستان، زنان مجرد، افراد دارای معلولیت و کارگران تنها نمونه‌هایی از گروه‌هایی هستند که ممکن است به واسطه‌ی این مشکل در معرض آسیب قرار بگیرند.

بایاس هم به افراد و هم به شرکت‌ها آسیب می‌رساند. سیستم هوش مصنوعی بایاس شده‌ای که در بالا توضیح داده شد، دو خطر اساسی برای بانک به وجود می‌آورد. اولاً اینکه بانک می‌تواند با فرستادن مشتریان گروه‌های اقلیتی خود به بانک‌های رقیب، مشتریان بالقوه خود را از دست بدهد. همچنین طبق قوانین ضد تبعیض، می‌تواند مسئول شناخته شود. اگر یک سیستم هوش مصنوعی به طور مستمر بایاس ذاتی را در تصمیم‌گیری‌های خود اعمال کند، شناسایی این الگوی سیستماتیک برای دولت یا گروه‌های مصرف کننده آسان‌تر می‌شود و این امر می‌تواند منجر به جریمه‌های سنگین و مجازات بانک شود.

کاهش سوگیری الگوریتمی

در این مقاله چندین روش که باعث بایاس الگوریتمی می‌شوند، بررسی می‌شود. همچنین این مقاله یک راهنمای فنی در مورد چگونگی حذف این بایاس ارائه می‌کند. بنابراین سیستم‌های هوش مصنوعی نتایج اخلاقی‌ای را تولید می‌کنند که بین مشتریان بر اساس ویژگی‌هایی مانند نژاد، سن، جنس یا ناتوانی تبعیض قائل نشوند.

برای نوشتن این مقاله، گروه نویسندگان یک توزیع‌کننده برق فرضی را شبیه‌سازی کردند که برای تصمیم‌گیری در مورد نحوه ارائه محصولات به مشتریان و شرایط ارائه خدمات، از ابزاری مجهز به هوش مصنوعی استفاده می‌کند. این شبیه‌سازی با استفاده از داده‌های تاریخی خیالی ساخته‌شده توسط افراد خیالی، آموزش داده شده‌است.

بر اساس نتایج این مقاله، نویسندگان پنج روش برای اصلاح بایاس الگوریتمی شناسایی کردند. این روش‌ها را می‌توان برای مشاغل مختلف در طیف وسیعی از بخش‌ها به کار برد، تا از منصفانه و دقیق بودن سیستم‌های هوش مصنوعی اطمینان حاصل شود.

  1. داده‌های بهتری جمع‌آوری کنید:

می‌توان با بدست آوردن نقاط داده اضافی یا انواع جدیدی از اطلاعات در مورد افراد، به ویژه اقلیت‌هایی که مورد اجحاف قرار گرفته‌اند یا افرادی که ممکن است در داده‌های موجود به طور نادرست ظاهر شده‌باشند، خطر بایاس الگوریتمی را کاهش داد.

  1. داده‌ها را پیش پردازش کنید:

این راه‌حل شامل ویرایش یک مجموعه داده برای پوشاندن یا حذف کردن اطلاعات مربوط به ویژگی‌های مرتبط با قوانین ضد تبعیض، مانند نژاد یا جنسیت است.

  1. افزایش پیچیدگی مدل:

آزمایش، نظارت و تحلیل یک مدل هوش مصنوعی ساده، می‌تواند آسان‌تر باشد. اما این سادگی می‌تواند باعث کاهش دقت شود و در نهایت اکثریت را به اقلیت ترجیح بدهد.

  1. سیستم را اصلاح کنید:

منطق و پارامترهای یک سیستم هوش مصنوعی را می‌توان به گونه‌ای تنظیم کرد تا مستقیماً بایاس الگوریتمی را خنثی کند. به عنوان مثال می‌توان این کار را با تعیین آستانه تصمیم‌گیری متفاوت برای یک گروه محروم، انجام داد.

5. هدف پیش بینی را تغییر دهید:

معیار ویژه‌ای که برای هدایت یک سیستم هوش مصنوعی انتخاب می‌شود می‌تواند مستقیماً بر نحوه تصمیم‌گیری سیستم در مورد گروه‌های مختلف تأثیر بگذارد. یافتن یک مقیاس اندازه‌گیری عادلانه برای استفاده به عنوان هدف پیش بینی، به کاهش بایاس الگوریتمی کمک خواهد‌کرد.

هنگام توسعه این سیستم‌ها، قانونی و اخلاقی بودن را در نظر بگیرید

نویسندگان این مقاله در توصیه‌های خود به دولت و مشاغلی که مایل به استفاده از تصمیم‌گیری هوش مصنوعی هستند، پیش از هر چیز بر اهمیت توجه به اصول کلی انصاف و حقوق بشر هنگام استفاده از این فناوری تأکید می‌کنند. در نظرگرفتن این مسئله، باید قبل از استفاده از سیستم انجام بشود. نویسندگان این مقاله همچنین توصیه می‌کنند که سیستم ها به صورت دقیق طراحی و آزمایش شوند تا اطمینان حاصل شود که خروجی‌های سیستم به بایاس الگوریتمی آلوده نباشند. و هنگامی که سیستم به مرحله بهره‌برداری رسید، باید از نزدیک تحت نظارت قرار بگیرد.

در نهایت، نویسندگان این مقاله توصیه کرده‌اند که مسئولیت‌پذیری و ارزش‌های اخلاقی این سیستم‌های هوش مصنوعی باید فراتر از قانون باشد. همچنین این سیستم نیاز دارد که با هنجارهای اجتماعی کاملاً پذیرفته شده، با در نظر گرفتن تأثیر آن بر افراد، جوامع و محیط همسو باشد. با رایج شدن ابزارهای تصمیم‌گیری هوش مصنوعی، اکنون ما فرصتی داریم که با استفاده آگاهانه ازین سیستم‌ها، نه تنها بهره‌وری را افزایش می‌دهیم بلکه جامعه‌ای عادلانه‌تر و منصفانه‌تر ایجاد کنیم.

 

 

 

5/5 - (1 امتیاز)
لینک کوتاه شده : https://amerandish.com/Wf4xS

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

ارتقا دستیار صوتی Alexa و Siri برای کمک به سالمندان
اخبار هوش مصنوعی

ارتقا دستیار صوتی Alexa و Siri برای کمک به سالمندان

دانشمندان رایانه در دانشگاه سن دیگوی کالیفرنیا، به خاطر توسعه دادن یک دستیار صوتی برای برقراری بهتر ارتباط با سالمندان، جایزه تحقیقات آمازون را دریافت

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.