ماشین‌هایی که اهداف انسان ها را بهتر درک می‌کنند!


یک الگوریتم جدید با قابلیت استنباط اهداف و برنامه‌ها می‌تواند به ماشین‌ها کمک کند تا با ماهیت ناکامل برنامه‌ریزی انسانی سازگار شوند. در یک آزمایش کلاسیک در مورد هوش اجتماعی انسان که توسط روانشناسان Felix Warnekenو Michael Tomasello انجام شده است، یک کودک نوپای 18 ماهه مردی را مشاهده می‌کند در حالی که یک دسته کتاب در دست دارد به سمت کابینتی با در بسته می‌رود. هنگامی که مرد به کابینت می‌رسد با کلافگی چندین بار تلاش می‌کند تا در کابینت را باز کند ولی موفق نمی‌شود.
سپس اتفاق قابل توجهی رخ می‌دهد: کودک پیشنهاد کمک می‌کند. استنباط هدف مرد باعث می‌شود کودک به سمت کابینت برود و در آن را باز کند تا مرد بتواند کتاب‌های خود را داخل آن قرار دهد. اما کودکی که هنوز تجربه محدودی در مورد زندگی دارد چگونه قادر به این استنباط است؟ اخیراً دانشمندان کامپیوتر این سوال را در مورد کامپیوترها پرسیده‌اند: چگونه ماشین‌ها اهداف انسان را درک کنند؟
مولفه اساسی برای مهندسی این نوع درک بدون شک همان چیزی است که ما را تبدیل به یک انسان می‌کند: اشتباهات ما. همان‌طور که کودک با دیدن شکست مرد می‌تواند هدف او را استنباط کند، ماشین‌هایی که اهداف ما را استنباط می‌کنند باید اقدامات اشتباه ما را در نظر بگیرند.
در تلاش برای به دست آوردن این هوش اجتماعی در ماشین‌ها، محققان آزمایشگاه علوم رایانه‌ای و هوش مصنوعی دانشگاه MIT با همکاری دپارتمان علوم مغزی و شناختی این دانشگاه الگوریتمی ایجاد کردند که می‌تواند اهداف و برنامه‌ها را حتی در صورت شکست این برنامه‌ها استنباط کند. این نوع تحقیقات می‌تواند سرانجام برای بهبود طیف وسیعی از فناوری‌های کمکی، ربات‌های مشارکتی یا مراقبی، و دستیارهای دیجیتالی مانند Siri و Alexa مورد استفاده قرار گیرد.
Tan Zhi-Xuan، دانشجوی دکترای دانشگاهMIT در بخش مهندسی برق و علوم کامپیوتر می‌گوید: “توانایی درنظرگرفتن اشتباهات می‌تواند برای ساخت ماشین‌هایی که علایق ما را استنباط می‌کنند و بر اساس آن عمل می‌کنند مهم باشد. وقتی که ما نمی‌توانیم به اهداف با اهمیت خود برسیم سیستم‌های هوش مصنوعی ممکن است به اشتباه استنباط کنند که این اهداف از ابتدا مورد نظر ما نبودند. ما دیده‌ایم که الگوریتم‌هایی که از استفاده واکنشی و برنامه ریزی نشده ما از رسانه های اجتماعی تغذیه می‌کنند ما را به سمت وابستگی و تضاد سوق می‌دهند اما در حالت ایده‌آل الگوریتم‌ها در آینده اشتباهات، عادت‌های بد و نامعقول ما را تشخیص می‌دهند و به ما کمک می‌کنند تا به جای تقویت این عادت‌ها، از آن‌ها جلوگیری کنیم.”
تیم تحقیقاتی برای ایجاد مدل خود از Gen، یک چارچوب برنامه نویسی هوش مصنوعی جدید که اخیراً در MIT توسعه یافته است استفاده کرد تا برنامه ریزی نمادین AI را با استنباط بیزی (Bayesian inference) ترکیب کند. استنباط بیزی یک روش بهینه برای ترکیب عقاید نامعلوم با داده‌های جدید فراهم می‌کند و به طور گسترده‌ای برای ارزیابی ریسک مالی، آزمایش تشخیصی و پیش بینی انتخابات استفاده می‌شود. مدل این تیم 20 تا 150 برابر سریعتر از مدل بیزی موجود به نام Bayesian Inverse Reinforcement Learning یا BIRL است که اهداف، ارزش‌ها یا پاداش‌های یک عامل را یاد می‌گیرد و سعی می‌کند سیاست‌ها یا برنامه‌های کامل عامل را از پیش محاسبه کند. مدل جدید در 75 درصد از مواقع در استنباط اهداف دقیق بود.
تیم تحقیقاتی از روشی متداول برای برنامه‌ریزی انسانی که عمدتاً نیمه بهینه است الهام گرفته: نیاز نیست همه چیز را از قبل برنامه‌ریزی کنید، بلکه باید فقط برنامه‌های جزئی را شکل دهید و آن‌ها را اجرا کنید و سپس دوباره از آن‌جا برنامه‌ریزی کنید. گرچه این روش می‌تواند به دلیل این‌که انسان از قبل فکر چیزی را نکرده است منجر به اشتباهاتی شود، اما همچنین باعث کاهش بار شناختی می‌شود.
الگوریتم استنباط به نام “جستجوی اهداف معکوس متوالی” (Sequential Inverse Plan Search (SIPS این توالی را دنبال می‌کند تا اهداف یک عامل را استنباط کند، به صورتی که در هر مرحله برنامه‌های جزئی ایجاد می‌کند و برنامه‌های غیرمحتمل را حذف می‌کند. از آن‌جا که این مدل فقط چند قدم جلوتر را برنامه‌ریزی می‌کند، این احتمال وجود دارد که عامل نیز همین کار را انجام دهد. در نتیجه احتمال اشتباه به دلیل برنامه‌ریزی محدود وجود دارد. با تشخیص زودهنگام این شکست‌های بالقوه تیم تحقیقاتی امیدوار است که این مدل بتواند توسط ماشین‌ها برای ارائه بهتر خدمت استفاده شود.
Vikash Mansinghka یکی از دانشمندان تحقیقاتی دانشگاه MIT گفت: “یکی از پیش زمینه‌های اولیه ما این بود که اگر می‌خواهید اهداف کسی را استنباط کنید، لازم نیست جلوتر از آن‌ها فکر کنید. ما متوجه شدیم که این کار نه تنها برای رسیدن به استنتاج هدف، بلکه همچنین برای استنتاج اهدافی که شانس دستیابی پایینی دارند مورد استفاده قرار گیرد و باعث می‌شود که ما به جای بزرگ کردن مقیاس الگوریتم‌های هوش مصنوعی دنبال راه‌هایی برای حل محدودیت‌های بنیادین سیستم‌های هوش مصنوعی باشیم. این بخشی از عملکرد خارق‌العاده ماست: مهندسی معکوس عقل سلیم کودک 18 ماهه”.
این مدل از نظر مفهومی بر روی مدلهای شناختی قبلی گروه Tenenbaum بنا شده است و نشان می‌دهد که چگونه استنتاج‌های ساده‌تری که کودکان و حتی نوزادان 10 ماهه در مورد اهداف دیگران انجام می‌دهند، می‌تواند از لحاظ کمی به عنوان شکلی از برنامه ریزی معکوس بیزی مدل‌سازی شود.
در حالی که تا به امروز محققان فرایند استنباط را فقط در برنامه‌ریزی‌های کوچک و بر اساس مجموعه‌ای از اهداف ثابت بررسی کرده‌اند، آن‌ها در آینده قصد دارند سلسله‌مراتب غنی‌تری از اهداف انسانی و برنامه‌ها را کشف کنند. با انجام این کار ممکن است در آینده ماشین‌ها قادر به استنباط اهداف بسیار گسترده‌تری باشند.
Xuan می‌گوید: “اگرچه این تحقیق تنها یک گام ابتدایی کوچک است اما امید من این است که این تحقیق زمینه‌های فلسفی و مفهومی برای ساخت ماشین‌هایی که واقعا اهداف، طرح‌ها و ارزش‌های انسانی را درک می‌کنند فراهم کند.”

لینک کوتاه شده : https://amerandish.com/Ni2Zw

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

هی الکسا، متاسفم اما گولت زدم!

سیستمی جدید تحت عنوان Text Fooler که توسط دانشگاه MIT گسترش داده شده است می‌تواند سیستم‌های پردازش زبان طبیعی شرکت Google و به طور تخصصی

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.