پیشرفتهای اخیر معماهای اخلاقی جدیدی در حوزه هوش مصنوعی ایجاد کردهاست. شاید یکی از مهمترین معماهای پیش آمده این است که آیا بشریت قادر به کنترل ماشینهای خودمختار خواهد بود یا خیر. دیدن رباتهای مجهز به هوش مصنوعی که مسئولیت کارهای خانه یا وسایل نقلیه خودران (مانند رباتهایی که در سایت آمازون به فروش میرسند) را برعهده دارند، روز به روز عادیتر میشود. در حالی که از یک سو این نوع فناوریها زندگی را آسانتر میکنند، اما از طرفی میتواند آن را پیچیدهتر کند.
یک گروه بین المللی از محققان در مورد خطرات احتمالی به وجود آوردن یک نرم افزار کاملاً قدرتمند و مستقل هشدار دادهاند. دانشمندان با استفاده از یک سری محاسبات نظری، امکان تحت کنترل گرفتن هوش مصنوعی را بررسی کردهاند. بر اساس مطالعه منتشر شده توسط پورتال تحقیقات هوش مصنوعی، محققان به این نتیجه رسیدهاند که کنترل این سیستمهای هوشمند غیرممکن خواهد بود.
Manuel Cebrian یکی از نویسندگان این مقاله خطاب به موسسه توسعه انسانی Max Planck گفته است: “اینکه یک ماشین فوقالعاده هوشمند جهان را کنترل کند به نظر شبیه داستانهای علمی تخیلی است. اما در حال حاضر ماشینهایی وجود دارند که برخی از کارهای مهم را به طور مستقل انجام میدهند، بدون اینکه برنامه نویسان کاملاً بفهمند که ماشین چگونه توانسته است آن کار را یاد بگیرد. در چنین حالتی ممکن است وضعیتی غیرقابل کنترل و حتی خطرناک برای بشریت پیش بیاید.”
دانشمندان دو روش برای کنترل هوش مصنوعی آزمایش کردهاند. یکی از این روشها به این صورت است که سیستم هوش مصنوعی را از اینترنت و سایر دستگاهها جدا کرده و ارتباط او با دنیای خارج را محدود کنید. مسئلهای که پیش میآید این است که این امر توانایی سیستم هوش مصنوعی در انجام کارهایی که برای انجام آن ایجاد شدهاست، را بسیار کاهش میدهد.
مورد دیگر طراحی “الگوریتمهای مهار نظری” بود تا مطمئن شوند که هوش مصنوعی “تحت هیچ شرایطی نتواند به انسان آسیب برساند”. با این حال، تجزیه و تحلیل الگوی محاسبات فعلی نشان داد که طراحی و پیاده سازی چنین الگوریتمی امکانپذیر نیست.
Iyad Rahwan یکی دیگر از نویسندگان این تحقیق میگوید: “اگر ما این مسئله را به قوانین اساسی محاسبات نظری تقسیم کنیم، معلوم میشود که الگوریتمی که به هوش مصنوعی دستور میدهد جهان را نابود نکند، میتواند ناخواسته عملیات خود را متوقف کند. اگر این اتفاق بیفتد، ما نمیدانیم که الگوریتم مهار به تحلیل تهدید ادامه میدهد یا اینکه هنگام مهار هوش مصنوعی مضر، متوقف میشود. در واقع این مسئله باعث میشود الگوریتم مهار غیرقابل استفاده شود.”
بر اساس این محاسبات، مسئله این است که هیچ الگوریتمی قادر به تعیین این که آیا هوش مصنوعی به دنیا آسیب میرساند یا خیر، نیست. محققان همچنین خاطر نشان كردند كه انسان حتی نمیتواند از زمان از راه رسیدن ماشینهای فوق هوشمند مطلع باشد، زیرا تصمیمگیری در مورد اینکه یك سیستم هوش مصنوعی چه زمانی از انسان باهوشتر است نیز معمایی شبیه مسئله مهار است.