ازبین‌بردن تعصب در هوش مصنوعی!

 ازبین‌بردن تعصب‌ها در هوش‌مصنوعی : FDA نیاز به رفع هرگونه تعصبی را در سامانه‌های هوش مصنوعی برجسته می‌سازد

در جلسه کمیته مشاوره مشارکت بیمار، مقامات بر ضرورت اطمینان از وجود تنوع در داده‌های مورد استفاده برای آموزش الگوریتم‌ها تاکید کردند.

سازمان غذا و داروی ایالات متحده روز پنجشنبه (23 اکتبر 2020) جلسه عمومی کمیته مشورتی مشارکت بیمار را تشکیل داد تا در مورد ضرورت از بین بردن تعصب ها در هوش‌مصنوعی در دستگاه‌های پزشکی بحث نمایند.

دکتر پاول کانوی (Dr. Paul Conway)، رییس PEAC و رییس سیاست و امور جهانی انجمن بیماران کلیوی آمریکا چنین گفت: “دستگاه‌هایی که از فناوری هوش مصنوعی(AI) و یادگیری ماشین (ML) استفاده می‌کنند، با افزایش کارایی در فرآیندهای کلیدی در درمان بیماران، ارائه مراقبت‌های بهداشتی را دگرگون می‌سازند.”

همانطور که دکتر کانوی و دیگران خاطر نشان کردند، ممکن است در سیستم‌های هوش مصنوعی (AI) و یادگیری ماشین (ML) تعصبات الگوریتمی وجود داشته باشد و این سیستم‌ها از عدم شفافیت برخوردار باشند. این امر، به نوبه خود منجر به تضعیف اعتماد بیمار به دستگاه‌های مربوطه می‌شود.

از بین بردن تعصب‌ها در هوش مصنوعی  

دستگاه‌های نوآورانه پزشکی با سرعت باورنکردنی در پاسخ به بحران کوید-19 افزایش یافته‌اند. دکتر جف شورن (Dr. Jeff Shuren)، رییس مرکز تجهیزات و رادیولوژی، خاطرنشان کرد که 562 دستگاه پزشکی پیش‌تر توسط FDA مجوز استفاده اضطراری را دریافت کرده‌اند.

برپایه سخنان دکتر شورن، این ضروری است که نیازهای بیماران به عنوان بخشی از فرایند تولید در نظر گرفته شود. وی این‌گونه ادامه داد که: “ما همچنان همه اعضای اکوسیستم مراقبت‌های بهداشتی را تشویق می‌کنیم تا در درک دیدگاه بیماران تلاش کنند و آن‌ها را به طور فعال در توسعه، اصلاح و ارزیابی دستگاه‌های پزشکی قرار دهند. بیماران واقعا الهام‌بخش همه کارهایی هستند که ما انجام می‌دهیم. لذا از بین بردن تعصب‌ها در هوش مصنوعی امری واجب و حیاتی است.”

دکتر شورن افزود که: “با وجود چالش‌های جهانی با اورژانس بهداشت عمومی درباره کوید-19 صدای بیمار قطع نخواهد شد. و در صورت وجود، دلیل بیشتری برای شنیدن آن وجود دارد.”

با این حال، پت بایرد (Pat Baird)، رئیس نظارتی استاندارد جهانی نرم‌افزار در شرکت فیلیپس، چنین گفت: اعتماد بیمار به دستگاه‌ها و سیستم، به معنای تایید اهمیت مجموعه داده‌های قوی و دقیق است.

برپایه سخنان دکتر بیرد (Dr. Baird): “برای کمک به حمایت از بیماران ما باید با شرایط پزشکیشان، محیطشان، نیازها و خواسته‌هایشان بیشتر آشنا شویم تا قادر به درک بهتر عوامل بالقوه مغشوش‌کننده باشیم؛ و فرایندهای جمع‌آوری داده‌ها را بهتر هدایت کنیم. به همین دلیل تمرکز بر از بین بردن تعصب‌ها در هوش مصنوعی از جمله مهم‌ترین وظایفی است که باید به بهترین شکل ممکن انجام گردد”

وی همچنین این‌گونه توضیح داد: “یک الگوریتم آموزش دیده روی یک زیر مجموعه از جمعیت ممکن است ارتباطی با زیر مجموعه‌های دیگر نداشته باشد.”

ازبین‌بردن تعصب‌ها در هوش‌مصنوعی
ازبین‌بردن تعصب‌ها در هوش‌مصنوعی

به عنوان مثال، اگر یک بیمارستان به دستگاهی نیاز داشته باشد که بتواند به جمعیت سالخوردگان خود در جامعه بازنشستگی فلوریدا خدماتی ارائه دهد، یک الگوریتم آموزش دیده در مورد نیازهای بهداشتی نوجوانان در ماین (Maine) هیچ کارآیی نخواهد داشت. هر جمعیتی نیازهای یکسانی نخواهد داشت.

دکتر بیرد (Dr. Baird) به سخنان خود این‌گونه ادامه داد که: “این جهت‌گیری در داده‌ها برای آموزش الگوریتم‌ها عمدی نیست و البته شناسایی آن نیز دشوار است. به همین دلیل است که از بین بردن تعصب‌ها در هوش مصنوعی، یکی از دشوارترین چالش‌های پیش روی ماست.” وی توسعه طبقه‌بندی انواع تعصبات گوناگون را تشویق نمود و تاکید کرد که باید نتایج حاصل، به صورت عمومی در دسترس باشد.

در نهایت، او گفت که مردم تنها از چیزهایی استفاده خواهند کرد که بدان اعتماد دارند. وی گفت: “ما باید از هوش جمعی خود برای کمک به تولید بهتر جمعیت هوش مصنوعی استفاده کنیم.”

کاپیتان تری کرنلیسون (Captain Terri Cornelison)، افسر ارشد پزشکی و مدیر بهداشت زنان در CDRH، خاطر نشان کرد که شناسه‌های جمعیت‌شناختی به دلیل ژنتیک و عوامل اجتماعی تعیین‌کننده سلامت، می‌توانند از نظر پزشکی، اهمیت بسیار زیادی داشته باشند. از این رو از بین بردن تعصب‌ها در هوش مصنوعی از نظر پزشکی اهمیت وصف‌ناشدنی دارد.

کاپیتان تری کرنلیسون (Captain Terri Cornelison) چنین گفت: “علم به ما نشان می‌دهد که این‎ها فقط شناسه‎های ساده طبقه‎بندی نیستند، بلکه در واقع از نظر بالینی با یکدیگر مرتبط‌ هستند.”

وی خاطر نشان کرد: یک مطالعه بالینی که جنسیت بیماران را شناسایی نکند، ممکن است نتایج متفاوتی برای افراد با کروموزوم‌ها مختلف را پنهان سازد.

وی گفت: “در بسیاری از موارد، دستگاه های هوش مصنوعی (AI) و یادگیری ماشین (ML) ممکن است در حال یادگیری جهان‌بینی باشند که در آن تمرکز باریکی بر مسائل وجود داشته باشد. این موضوع به ویژه در داده‌های آموزشی موجود اهمیت خاصی پیدا می‌کند. اگر داده‌های آموزشی موجود نشان دهنده مجموعه متنوعی از بیماران نباشد و از بین بردن تعصب‌ها در هوش مصنوعی جز اولویت‌ها به شمار نیاید، کارآیی این دستگاه‌ها و سامانه‌ها زیر سوال خواهد رفت.”

وی این‌گونه سخنان خود را ادامه داد که: “به عبارت ساده‌تر، الگوریتم‎های هوش مصنوعی (AI) و یادگیری ماشین (ML) نمی‌تواند نماینده هیچ‌چیزی باشند اگر با داده‌های مناسب آموزش داده نشوند.”

کورنلیسون همچنین گفت که: “پیشرفت در هوش مصنوعی سیستم‌های بهداشتی، زندگی روزمره ما را دگرگون می‌سازد. با وجود دستاوردهای قابل‌توجه در این زمینه، در بیشتر اوقات، جنسیت، سن، نژاد، ابعاد قومیتی و سهم آن‌ها در سلامتی و بیماری‌های گوناگون در افراد، نادیده گرفته می‌شود.”

این کمیته همچنین بررسی کرد که چگونه رضایت آگاهانه می‌تواند در آموزش الگوریتم تقش مهمی را بازی کند.

بنت دونلاپ (Bennet Dunlap)، مشاور ارتباطات بهداشتی، چنین گفت: “اگر رضایت خود را برای درمان توسط دستگاه‌های هوش مصنوعی و یادگیری ماشین اعلام كنم، من حق دارم بدانم كه آیا بیمارانی مثل من در مجموعه داده‌های این دستگاه‌ها وجود دارند یا خیر. یا به بیان دیگر، تا چه اندازه برای از بین بردن تعصب‌ها در هوش مصنوعی تلاش شده است.”

وی ادامه داد: “من فکر می کنم FDA نباید دستگاه پزشکی را که در آموزش الگوریتم آن، بیمار هیچ مشارکتی ندارد، بپذیرد یا تایید نماید.”

وی همچنین تکرار کرد: “شما باید بدانید که از داده‌های شما برای چه کاری استفاده می‌شود. من از امتیاز سفید برخوردار هستم. فقط می‌توانم فرض كنم كه داده‌ها تنها با مطالعه پیرمردهای سفیدپوست به دست آمده است. همه از همان‌جا شروع می‌كنند. اما نباید این‌گونه باشد.”

دکتر مونیکا پارکر (Dr. Monica Parker)، استادیار بخش اعصاب و عضو هسته آموزشی مرکز پژوهی بیماری آلزایمر گویزوئتا (Goizueta) دانشگاه اموری (Emory University)، اشاره کرد که متنوع‌سازی داده‌های بیمار، نیاز به مراجعه به نهادهای مورد اعتماد در جوامع دارد. از این روست که از بین بردن تعصب‌ها در هوش مصنوعی باید جز اولویت‌های این نهادها قرار گیرند.

برپایه دکتر پارکر: “اگر مردم در حال توسعه این دستگاه‌ها به دلیل علاقه به تنوع بیشتر هستند، آیا پرسشی در مورد محل آزمایش این موارد وجود دارد؟” وی مسئله آزمایش و جمع‌آوری داده را در مراکز درمانی دانشگاهی یا مراکز فناوری در ساحل شرقی یا غربی را در مقابل جمع‌آوری داده‌ها از بیمارستان‌ها مطرح نمود. وی این‌گونه اظهار نظر کرد که داده‌های دنیای واقعی (به دست آمده از بیمارستان‌ها) ممکن است از برخی از تغییرات دستگاه‌ها برای روند بیماری استفاده کنند.

پاركر گفت: “پزشكانی كه به جمعیتی خدمت می‌کنند که برای درمان بیماری‌هایشان استفاده از این دستگاه‌ها استفاده می‌کنند، پاسخگویی و مسئولیت‌پذیری را ارائه می‌دهند و به سازندگان چنین دستگاه‌هایی، شناخت بهتری از كسی كه تحت درمان است، تقدیم می‌کنند و به آن‌ها کمک می‌نمایند تا تلاش هر چه بهتری در جهت از بین بردن تعصب‌ها در هوش مصنوعی داشته باشند. وی همچنین به اعضای کمیته همکار خود یادآوری کرد که اعضای گروه‌های مختلف جمعیتی یکسان نیستند.

فیلیپ رادرفورد (Philip Rutherford)، مدیر عملیات بازیابی چهره‌ها و صداها (Faces and Voices Recovery)، اظهار داشت که فقط اولویت‌بندی تنوع در مجموعه داده‌ها کافی نیست. افرادی که مسئول آموزش الگوریتم‌ها هستند نیز نباید یکسان باشند.

رادرفورد چنین افزود که: “اگر ما در داده‌های خود تنوع می‌خواهیم، باید از افراد متنوع برای جمع‌آوری داده‌ها، استفاده نماییم.”

این کمیته از FDA خواست تا در از بین بردن تعصب‌ها در هوش مصنوعی و یادگیری ماشین (ML) نقشی نیرومند داشته باشد.کانوی در پایان چنین گفت: “اگر از همان ابتدا، رهبری و مدیریت قوی وجود داشته باشد، مواردی همچون اعتبار سنجی تنوع و تعصب‌های ناخودآگاه به سادگی قابل‌حل است.”

 

 

 

 

 

لینک کوتاه شده : https://amerandish.com/B29Y8

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.