اخلاق در ماشینهای هوشمند همواره یکی از موضوع پراهمیت این علم بوده است. حوزهای که نگرش افراد نسبت به تصمیمات اخلاقی اخذ شده توسط هوش مصنوعی را بررسی میکند. در آخرین مطالعات انجام شده، شرکت کنندگان روایتهای کوتاهی را خواندند که در آن دو ربات در امتداد خطوط واگن برقی با یک تصمیم اخلاقی روبرو میشوند. یکی از این رباتها کمتر شبیه به انسان بود که به iRobot معروف است و شرکتکننده دیگر رباتی با ظاهری کاملا انسانی به نام iClooney بود.
آزمایش واگن برقی چالشی است که در آن ربات میتواند یک واگن برقی را به مسیرهای مختلف هدایت کند، بدون اینکه بجز خودش کسی آن را کنترل کند. او نسبت به پنج نفر مسئولیت دارد. ربات میتواند با چرخاندن فرمان، چرخ دستی را به مسیر دیگری هدایت کند و افراد حاضر در واگن را نجات دهد اما در سایر مسیرها باید فرد دیگری را بکشد. براساس نتایج این مطالعه مشخص شد نگرش عمومی نسبت به رباتهای انسان نما منفیتر است. مردم تصمیمات گرفته شده توسط رباتهای انسان نمای iRobot و iClooney را از نظر اخلاقی کمتر از همان تصمیمی که توسط یک انسان و یک ربات با ظاهر سنتی گرفته شده اخلاقی میدانند.
Michael Laakasuo ، محقق ارشد در دانشگاه هلسینکی و سرپرست پروژه و محقق اصلی مطالعه، یافتهها را به یک اثر غیر عادی پیوند میدهد که در تحقیقات قبلی مشخص شده بود. انسانیت در هوش مصنوعی دیده نمیشود و نگرش کلی نسبت به چنین رباتهایی منفیتر از رباتهایی با ظاهر ماشینی است. این مشکل ممکن است به دلیل واکنش انسان به یک روبات انسان نما باشد زیرا انسان نمیداند که آیا این موجود یک حیوان است، یک انسان است یا یک ابزار؟
طبق گفته Laakasuo، یافتهها نشان میدهد که انسانها نظرات خود را بر اساس نتایج تصمیمات اخلاقی روباتها ثبت نمیکنند، زیرا تصمیمات گرفته شده توسط یک ربات انسان نما و یک ربات سنتی به یک اندازه قابل قبول بوده و در عوض ظاهر ربات در ارزیابی آنها تفاوت ایجاد کرده است. AILaakasuo میگوید: “تعداد ماشینهای هوشمندی که انتخابهای خود را اخلاقی انجام میدهند در جامعه رو به افزایش است، به عنوان نمونه اتومبیلهای خودران. مهم است كه بدانیم مردم چگونه به ماشینهای هوشمند نگاه میكنند و چه عواملی بر ارزیابیهای آنها تأثیر میگذارد.”
به عنوان مثال، آیا تخلفات رانندگی كه توسط یك اتومبیل شیك خودران انجام میشود متفاوت از مدلهای كلاسیکتر است؟ این تحقیقات میتواند در جهت توسعه هوش مصنوعی و رباتیک تأثیر گذار باشد و بحث سیاسی مربوط به تنظیم مقررات هوش مصنوعی را شکل دهد.
باید بدانیم که میخواهیم چه نوع رباتی در میان خود داشته باشیم. رباتهایی که پنج نفر را توسط یک چرخ دستی نجات میدهند و برای این نجات یک نفر را قربانی میکنند، یا رباتی که حتی اگر به معنای نجات چندین نفر باشد از قربانی کردن یک انسان خودداری میکند؟ آیا رباتها باید مجددا طراحی شوند؟ باید شبیه انسان شوند یا نه و آیا باید ظاهر آنها بر اخلاق و ادراکشان تأثیر بگذارد؟
بودجه این مطالعه توسط بنیاد Erkko Jane و Aatos Erkko و آکادمی هوش مصنوعی فنلاند تأمین شده است.