آژانس حقوق بشر اتحادیه اروپا (FRA) گزارشی درباره هوش مصنوعی منتشر کرده که به بررسی نکات اخلاقی مربوط به این فناوری میپردازد. گزارش آژانس حقوق بشر اتحادیه اروپا با عنوان آینده سبز منتشر شده و در آن به برخی از مزایای بینظیر هوش مصنوعی در زندگی مانند کمک به تشخیص سرطان و حتی پیشبینی محل وقوع سرقتها میپردازد.
مایکل اوفلاهرتی، مدیر FRA در پیشگفتار این گزارش مینویسد : “امکانات و مزایای هوش مصنوعی بی پایان به نظر میرسند. اما سوال این است که چگونه میتوانیم هنگام استفاده از هوش مصنوعی استانداردهای حقوق بشر را به طور کامل رعایت کنیم؟”. FRA در تلاش برای پاسخ به این سوال با بیش از صد مقام دولتی، کارمندان شرکتهای خصوصی و طیف متنوعی از کارشناسان مصاحبه کرد.
اوفلاهرتی میگوید: “هوش مصنوعی به خودی خود خطایی ندارد، اما الگوریتمها توسط انسانها ساخته میشوند و انسانها میتوانند اشتباه کنند. به همین دلیل است که افراد باید در زمان استفاده از هوش مصنوعی از نحوه عملکرد و چگونگی تصمیمات خودکار این سیستمها آگاه باشند. اتحادیه اروپا باید نحوه اعمال قوانین موجود برای استفاده از هوش مصنوعی را روشن کند و سازمانها باید ارزیابی دقیقی داشته باشند تا فناوریهای هوش مصنوعی آنها با حقوق مردم تداخل پیدا نکند.”
وی افزود: “ما فرصتی برای شکل دادن به هوش مصنوعی داریم که نه تنها سبب احترام به حقوق اساسی بشر و انسانی ما میشود بلکه از آنها محافظت کرده و آنها را ارتقا میبخشد.”
هوش مصنوعی تقریباً در هر صنعتی به صورت مستقیم و یا به شکلی دیگر مورد استفاده قرار گرفته است و اگر هم در صنعتی حضور نداشته باشد به زودی به آن وارد خواهد شد. جهت گیری هوش مصنوعی در بعضی از موارد بسیار خطرناک است. یک مثال واضح آن در ارائه خدمات مالی است که هوش مصنوعی میتواند با سوگیری اعطای وام یا رهن به شخصی را نسبت به شخص دیگر اولویت بخشی کند که این کار نقض آشکار حقوق بشر خواهد یود.
بدون قوانین و شفافیت مناسب، این تصمیمات و تعصبات ممکن است بدون اینکه کسی از دلایل آن آگاه شود رخ دهد و این تصمیمات میتواند صرفا به این دلیل باشد که شخصی در محله دیگری بزرگ شده است. هر تصمیمگیری خودکار تأثیر بسیار زیادی بر زندگی واقعی انسانی خواهد داشت.
درخواست FRA از اتحادیه اروپا
- باید اطمینان حاصل شود که هوش مصنوعی به کلیه حقوق اساسی احترام میگذارد:
هوش مصنوعی میتواند احترام به بسیاری از حقوق را تحت تأثیر قرار دهد. نه فقط درمورد حریم خصوصی یا محافظت از دادهها بلکه درباره ایجاد تبعیض یا منع ایجاد آن. هر قانونی که در آینده برای هوش مصنوعی نوشته میشود باید این موضوع را مدنظر قرار داده و از حقوق اساسی بشر محافظت کند.
- تضمین این که افراد جامعه میتوانند تصمیمات گرفته شده توسط هوش مصنوعی را به چالش بکشند:
مردم باید بدانند که چه موقع از هوش مصنوعی استفاده میشود و چگونه از آن استفاده میشود و همچنین باید از چگونگی و محل شکایت از تصمیمات سیستمهای هوش مصنوعی آگاه باشند و سازمانهایی که از هوش مصنوعی استفاده میکنند باید در قبال تصمیم گیری سیستمهایشان پاسخگو باشند.
- ارزیابی مداوم هوش مصنوعی قبل و حین استفاده از آن برای کنترل و کاهش تأثیرات منفی:
سازمانهای خصوصی و عمومی باید به صورت مداوم سیستمهای هوش مصنوعی خود را ارزیابی کنند تا مطمئن شوند که این سیستمها به حقوق اساسی آسیب نخواهند رساند.
- میبایست در مورد قوانین مربوط به حفاظت از دادهها اطلاعات بیشتری ارائه شود:
اتحادیه اروپا باید نحوه اعمال قوانین برای حفاظت از دادهها درهنگام استفاده از هوش مصنوعی را روشنتر کند. همچنین در مورد پیامدهای تصمیم گیری خودکار و تعیین حد و مرز این تصمیم گیریها وضوح بیشتری لازم است.
- ارزیابی این مورد که آیا هوش مصنوعی تبعیض قائل میشود یا خیر:
آگاهی در مورد پتانسیل موجود برای تبعیض در هوش مصنوعی بسیار کم است. این امر نیاز به دریافت بودجه بیشتری برای تحقیق درباره تبعیض آمیز بودن هوش مصنوعی دارد.
- یک سیستم نظارت موثر ایجاد شود:
اتحادیه اروپا باید بر روی ایجاد یک سیستم نظارت سرمایهگذاری کند تا هنگام استفاده از هوش مصنوعی، شرکتها و دولتها خود را در قبال ساخت و استفاده از هوش مصنوعی مسئول بدانند. اتحادیه اروپا باید اطمینان حاصل کند که نهادهای نظارتی از منابع و مهارتهای کافی برای انجام این کار برخوردار هستند. اتحادیه اروپا در سالهای اخیر به دلیل نگرانی در مورد حریم خصوصی و سوء استفاده از موقعیت توسط شرکتهای بزرگ فناوری، نظارت خود را بر برخی از شرکتها مانند Google افزایش داده است.
AI News هفته گذشته در گزارشی خبر داد که کمپانی گوگل، تیمنیت گبرو، محقق برجسته خود که در زمینه رعایت اخلاق درهوش مصنوعی فعالیت میکرد را پس از اینکه از کارفرمای خود در یک ایمیل انتقاد کرده بود اخراج کرده است. سوندار پیچای، مدیر اجرایی گوگل در این خصوص گفت: “ما باید مسئولیت این واقعیت را بپذیریم که یک رهبر زن برجسته سیاه پوست و بسیار با استعداد، گوگل را به شکلی ناخوشایند ترک کرده است.” گبرو اخیرا مصاحبه ای با بی بی سی انجام داده که در آن گوگل و سایر شرکتهای بزرگ فناوری را متهم به نژادپرستی سازمان یافته کرده است.