ازبینبردن تعصبها در هوشمصنوعی : FDA نیاز به رفع هرگونه تعصبی را در سامانههای هوش مصنوعی برجسته میسازد
در جلسه کمیته مشاوره مشارکت بیمار، مقامات بر ضرورت اطمینان از وجود تنوع در دادههای مورد استفاده برای آموزش الگوریتمها تاکید کردند.
سازمان غذا و داروی ایالات متحده روز پنجشنبه (23 اکتبر 2020) جلسه عمومی کمیته مشورتی مشارکت بیمار را تشکیل داد تا در مورد ضرورت از بین بردن تعصب ها در هوشمصنوعی در دستگاههای پزشکی بحث نمایند.
دکتر پاول کانوی (Dr. Paul Conway)، رییس PEAC و رییس سیاست و امور جهانی انجمن بیماران کلیوی آمریکا چنین گفت: “دستگاههایی که از فناوری هوش مصنوعی(AI) و یادگیری ماشین (ML) استفاده میکنند، با افزایش کارایی در فرآیندهای کلیدی در درمان بیماران، ارائه مراقبتهای بهداشتی را دگرگون میسازند.”
همانطور که دکتر کانوی و دیگران خاطر نشان کردند، ممکن است در سیستمهای هوش مصنوعی (AI) و یادگیری ماشین (ML) تعصبات الگوریتمی وجود داشته باشد و این سیستمها از عدم شفافیت برخوردار باشند. این امر، به نوبه خود منجر به تضعیف اعتماد بیمار به دستگاههای مربوطه میشود.
از بین بردن تعصبها در هوش مصنوعی
دستگاههای نوآورانه پزشکی با سرعت باورنکردنی در پاسخ به بحران کوید-19 افزایش یافتهاند. دکتر جف شورن (Dr. Jeff Shuren)، رییس مرکز تجهیزات و رادیولوژی، خاطرنشان کرد که 562 دستگاه پزشکی پیشتر توسط FDA مجوز استفاده اضطراری را دریافت کردهاند.
برپایه سخنان دکتر شورن، این ضروری است که نیازهای بیماران به عنوان بخشی از فرایند تولید در نظر گرفته شود. وی اینگونه ادامه داد که: “ما همچنان همه اعضای اکوسیستم مراقبتهای بهداشتی را تشویق میکنیم تا در درک دیدگاه بیماران تلاش کنند و آنها را به طور فعال در توسعه، اصلاح و ارزیابی دستگاههای پزشکی قرار دهند. بیماران واقعا الهامبخش همه کارهایی هستند که ما انجام میدهیم. لذا از بین بردن تعصبها در هوش مصنوعی امری واجب و حیاتی است.”
دکتر شورن افزود که: “با وجود چالشهای جهانی با اورژانس بهداشت عمومی درباره کوید-19 صدای بیمار قطع نخواهد شد. و در صورت وجود، دلیل بیشتری برای شنیدن آن وجود دارد.”
با این حال، پت بایرد (Pat Baird)، رئیس نظارتی استاندارد جهانی نرمافزار در شرکت فیلیپس، چنین گفت: اعتماد بیمار به دستگاهها و سیستم، به معنای تایید اهمیت مجموعه دادههای قوی و دقیق است.
برپایه سخنان دکتر بیرد (Dr. Baird): “برای کمک به حمایت از بیماران ما باید با شرایط پزشکیشان، محیطشان، نیازها و خواستههایشان بیشتر آشنا شویم تا قادر به درک بهتر عوامل بالقوه مغشوشکننده باشیم؛ و فرایندهای جمعآوری دادهها را بهتر هدایت کنیم. به همین دلیل تمرکز بر از بین بردن تعصبها در هوش مصنوعی از جمله مهمترین وظایفی است که باید به بهترین شکل ممکن انجام گردد”
وی همچنین اینگونه توضیح داد: “یک الگوریتم آموزش دیده روی یک زیر مجموعه از جمعیت ممکن است ارتباطی با زیر مجموعههای دیگر نداشته باشد.”
به عنوان مثال، اگر یک بیمارستان به دستگاهی نیاز داشته باشد که بتواند به جمعیت سالخوردگان خود در جامعه بازنشستگی فلوریدا خدماتی ارائه دهد، یک الگوریتم آموزش دیده در مورد نیازهای بهداشتی نوجوانان در ماین (Maine) هیچ کارآیی نخواهد داشت. هر جمعیتی نیازهای یکسانی نخواهد داشت.
دکتر بیرد (Dr. Baird) به سخنان خود اینگونه ادامه داد که: “این جهتگیری در دادهها برای آموزش الگوریتمها عمدی نیست و البته شناسایی آن نیز دشوار است. به همین دلیل است که از بین بردن تعصبها در هوش مصنوعی، یکی از دشوارترین چالشهای پیش روی ماست.” وی توسعه طبقهبندی انواع تعصبات گوناگون را تشویق نمود و تاکید کرد که باید نتایج حاصل، به صورت عمومی در دسترس باشد.
در نهایت، او گفت که مردم تنها از چیزهایی استفاده خواهند کرد که بدان اعتماد دارند. وی گفت: “ما باید از هوش جمعی خود برای کمک به تولید بهتر جمعیت هوش مصنوعی استفاده کنیم.”
کاپیتان تری کرنلیسون (Captain Terri Cornelison)، افسر ارشد پزشکی و مدیر بهداشت زنان در CDRH، خاطر نشان کرد که شناسههای جمعیتشناختی به دلیل ژنتیک و عوامل اجتماعی تعیینکننده سلامت، میتوانند از نظر پزشکی، اهمیت بسیار زیادی داشته باشند. از این رو از بین بردن تعصبها در هوش مصنوعی از نظر پزشکی اهمیت وصفناشدنی دارد.
کاپیتان تری کرنلیسون (Captain Terri Cornelison) چنین گفت: “علم به ما نشان میدهد که اینها فقط شناسههای ساده طبقهبندی نیستند، بلکه در واقع از نظر بالینی با یکدیگر مرتبط هستند.”
وی خاطر نشان کرد: یک مطالعه بالینی که جنسیت بیماران را شناسایی نکند، ممکن است نتایج متفاوتی برای افراد با کروموزومها مختلف را پنهان سازد.
وی گفت: “در بسیاری از موارد، دستگاه های هوش مصنوعی (AI) و یادگیری ماشین (ML) ممکن است در حال یادگیری جهانبینی باشند که در آن تمرکز باریکی بر مسائل وجود داشته باشد. این موضوع به ویژه در دادههای آموزشی موجود اهمیت خاصی پیدا میکند. اگر دادههای آموزشی موجود نشان دهنده مجموعه متنوعی از بیماران نباشد و از بین بردن تعصبها در هوش مصنوعی جز اولویتها به شمار نیاید، کارآیی این دستگاهها و سامانهها زیر سوال خواهد رفت.”
وی اینگونه سخنان خود را ادامه داد که: “به عبارت سادهتر، الگوریتمهای هوش مصنوعی (AI) و یادگیری ماشین (ML) نمیتواند نماینده هیچچیزی باشند اگر با دادههای مناسب آموزش داده نشوند.”
کورنلیسون همچنین گفت که: “پیشرفت در هوش مصنوعی سیستمهای بهداشتی، زندگی روزمره ما را دگرگون میسازد. با وجود دستاوردهای قابلتوجه در این زمینه، در بیشتر اوقات، جنسیت، سن، نژاد، ابعاد قومیتی و سهم آنها در سلامتی و بیماریهای گوناگون در افراد، نادیده گرفته میشود.”
این کمیته همچنین بررسی کرد که چگونه رضایت آگاهانه میتواند در آموزش الگوریتم تقش مهمی را بازی کند.
بنت دونلاپ (Bennet Dunlap)، مشاور ارتباطات بهداشتی، چنین گفت: “اگر رضایت خود را برای درمان توسط دستگاههای هوش مصنوعی و یادگیری ماشین اعلام كنم، من حق دارم بدانم كه آیا بیمارانی مثل من در مجموعه دادههای این دستگاهها وجود دارند یا خیر. یا به بیان دیگر، تا چه اندازه برای از بین بردن تعصبها در هوش مصنوعی تلاش شده است.”
وی ادامه داد: “من فکر می کنم FDA نباید دستگاه پزشکی را که در آموزش الگوریتم آن، بیمار هیچ مشارکتی ندارد، بپذیرد یا تایید نماید.”
وی همچنین تکرار کرد: “شما باید بدانید که از دادههای شما برای چه کاری استفاده میشود. من از امتیاز سفید برخوردار هستم. فقط میتوانم فرض كنم كه دادهها تنها با مطالعه پیرمردهای سفیدپوست به دست آمده است. همه از همانجا شروع میكنند. اما نباید اینگونه باشد.”
دکتر مونیکا پارکر (Dr. Monica Parker)، استادیار بخش اعصاب و عضو هسته آموزشی مرکز پژوهی بیماری آلزایمر گویزوئتا (Goizueta) دانشگاه اموری (Emory University)، اشاره کرد که متنوعسازی دادههای بیمار، نیاز به مراجعه به نهادهای مورد اعتماد در جوامع دارد. از این روست که از بین بردن تعصبها در هوش مصنوعی باید جز اولویتهای این نهادها قرار گیرند.
برپایه دکتر پارکر: “اگر مردم در حال توسعه این دستگاهها به دلیل علاقه به تنوع بیشتر هستند، آیا پرسشی در مورد محل آزمایش این موارد وجود دارد؟” وی مسئله آزمایش و جمعآوری داده را در مراکز درمانی دانشگاهی یا مراکز فناوری در ساحل شرقی یا غربی را در مقابل جمعآوری دادهها از بیمارستانها مطرح نمود. وی اینگونه اظهار نظر کرد که دادههای دنیای واقعی (به دست آمده از بیمارستانها) ممکن است از برخی از تغییرات دستگاهها برای روند بیماری استفاده کنند.
پاركر گفت: “پزشكانی كه به جمعیتی خدمت میکنند که برای درمان بیماریهایشان استفاده از این دستگاهها استفاده میکنند، پاسخگویی و مسئولیتپذیری را ارائه میدهند و به سازندگان چنین دستگاههایی، شناخت بهتری از كسی كه تحت درمان است، تقدیم میکنند و به آنها کمک مینمایند تا تلاش هر چه بهتری در جهت از بین بردن تعصبها در هوش مصنوعی داشته باشند. وی همچنین به اعضای کمیته همکار خود یادآوری کرد که اعضای گروههای مختلف جمعیتی یکسان نیستند.
فیلیپ رادرفورد (Philip Rutherford)، مدیر عملیات بازیابی چهرهها و صداها (Faces and Voices Recovery)، اظهار داشت که فقط اولویتبندی تنوع در مجموعه دادهها کافی نیست. افرادی که مسئول آموزش الگوریتمها هستند نیز نباید یکسان باشند.
رادرفورد چنین افزود که: “اگر ما در دادههای خود تنوع میخواهیم، باید از افراد متنوع برای جمعآوری دادهها، استفاده نماییم.”
این کمیته از FDA خواست تا در از بین بردن تعصبها در هوش مصنوعی و یادگیری ماشین (ML) نقشی نیرومند داشته باشد.کانوی در پایان چنین گفت: “اگر از همان ابتدا، رهبری و مدیریت قوی وجود داشته باشد، مواردی همچون اعتبار سنجی تنوع و تعصبهای ناخودآگاه به سادگی قابلحل است.”