یک الگوریتم جدید با قابلیت استنباط اهداف و برنامهها میتواند به ماشینها کمک کند تا اهداف انسانی را درک کنند. در یک آزمایش کلاسیک در مورد هوش اجتماعی انسان توسط روانشناسان فلیکس وارنکن و مایکل توماسلو، یک کودک نوپای 18 ماهه مذکر را مشاهده میکنند که یک کتاب را به سمت یک کابینت که درب آن بسته است حمل میکند. هنگامی که او به نزدیکی کابینت میرسد، با کلافگی چندین بار کتاب را به درب کابینت میکوبد و سپس سر و صدایی مبهوت ایجاد میکند.
سپس اتفاق قابل توجهی رخ میدهد و کودک به مرد راه حل پیشنهاد میکند. کودک نوپا با استنباط از هدف مرد که گذاشتن کتاب در کابینت است، به سمت کابینت میرود و درهای آن را باز میکند و به مرد اجازه میدهد تا کتابهای خود را داخل آن قرار دهد. اما یک کودک نوپا با چنین تجربه محدودی از زندگی چگونه قادر به این استنباط است؟ اخیرا دانشمندان فعال در حوزه کامپیوتر این عملکرد را به سمت رایانهها سوق دادهاند. آنها میخواهند بدانند چگونه ماشینها میتوانند همین کار را انجام دهند.
درک اشتباهات بسیار مهم است، همانطور که کودک نوپا از نتایج شکست خود میتواند هدف مرد را استنباط کند، ماشینهایی که میخواهند اهداف ما را استنباط کنند باید اقدامات و برنامههای اشتباه ما را درک کنند. در تلاش برای به دست آوردن این هوش اجتماعی در ماشین آلات، محققان آزمایشگاه علوم رایانهای و هوش مصنوعی MIT و گروه علوم مغزی و شناختی(CSAIL) الگوریتمی را ایجاد کردند که میتواند اهداف و برنامهها را استنباط کند.
این دست تحقیقات در نهایت میتواند برای بهبود طیف وسیعی از فناوریهای کمکی مانند رباتهای مشارکتی یا مراقب و دستیارهای دیجیتالی پیشرفتهتر مانند سیری و الکسا مورد استفاده قرار گیرد. Tan Zhi-Xuan، دانشجوی دکترای گروه مهندسی برق و علوم کامپیوترMIT و نویسنده اصلی این مقاله میگوید : توانایی درک اشتباهات میتواند برای ساخت ماشینهایی که منافع ما را با استنباط از اهدافمان تامین میکنند استفاده شده و این میتواند بسیار مهم باشد.
ما قبلا دیدهایم که وقتی الگوریتمها با استفاده انعکاسی و برنامه ریزی نشده ما از رسانههای اجتماعی آموزش میبینند، ما را به سمت مسیرهای وابستگی و دو قطبی شدن سوق میدهند. در حالت ایده آل در آینده الگوریتمها اشتباهات و عادتهای بد و غیر منطقی ما را تشخیص میدهند و به ما کمک میکنند تا به جای تقویت این اشکالات از آنها جلوگیری کنیم.
تیم برای ایجاد مدل خود از Gen، یک پلت فرم جدید برنامه نویسی هوش مصنوعی که اخیراً در MIT ایجاد شده است استفاده کرد تا برنامه ریزی نمادین هوش مصنوعی را با استنباط بیزی ترکیب کند. استنباط بیزی یک روش بهینه برای ترکیب باورهای نامطمئن با دادههای جدید است و به طور گستردهای برای ارزیابی ریسک مالی، آزمایش تشخیصی و پیشبینی انتخابات استفاده میشود.
استوارت راسل، استاد مهندسی در دانشگاه کالیفرنیا میگوید : هوش مصنوعی در حال کنار گذاشتن مدل استاندارد خود است. مدلی که در آن هدف مشخص به دستگاه داده میشود. در عوض در مدلهای جدید دستگاه نمیداند که ما چه میخواهیم و این بدان معنی است که تحقیق در مورد استنباط اهداف و ترجیحات رفتار انسان به یک موضوع اصلی در هوش مصنوعی تبدیل خواهد شد. به طور خاص این یک گام بسیار بلند به سوی مدل سازی است و بدینگونه فرایند ساخت مدلها وارونه میشود. روندی که مدل از طریق درک اهداف و ترجیحات رفتار انسانها ایجاد میشود.
این سیستم چگونه کار میکند؟
در حالی که در مورد استنباط اهداف و خواستههای عوامل، پیشرفت قابل توجهی انجام شده، اما بیشتر این پیشرفتها با فرض بر این است که کاربران برای رسیدن به اهداف خود بهینه عمل میکنند. با این حال تیم از یک روش معمول برنامه ریزی انسانی که عمدتاً بهینه هم نیست الهام گرفته است. آنها میگویند : اینطور نیست که همه چیز را از قبل برنامه ریزی کنید، بلکه فقط باید برنامههای جزئی تشکیل دهید، آنها را اجرا کنید و سپس دوباره از آنجا برنامه ریزی کنید.
به عنوان مثال، تصور کنید که دوست شما در حال تهیه غذا است و شما او را تماشا میکنید و دوست دارید با دانستن اینکه چه چیزی میپزد به او کمک کنید. شما چند قدم بعدی که دوست شما میتواند بردارد را حدس میزنید. شاید پیش گرم کردن فر، تهیه یک خمیر برای پای سیب و غیره. شما فقط برنامههای جزئی را با آنچه که فکر میکنید با رفتارهای دوستتان سازگار است انجام میدهید و سپس با برنامه ریزی پیش رو فرآیند را تکرار میکنید.
هنگامی که دوست خود را مشاهده کردید که خمیر درست میکند، میتوانید احتمالات را فقط به محصولات پخته شده محدود کنید و حدس بزنید که ممکن است قدم بعدی برش زدن سیب باشد یا برای مخلوط پای سیب دانههای اسپند تهیه کنید. سرانجام، شما متوجه میشوید دوستتان در جال تهیه چه غذایی است و تمام برنامههایی که مربوط به عملکرد او نیست را حذف میکنید و فقط برنامههای احتمالی (یعنی دستورالعمل پای سیب) را حفظ میکنید و پس از اطمینان از اینکه کدام ظرف مناسب است، میتوانید با ارائه دستورالعملها به او کمک کنید.
الگوریتم استنباط تیم به نام (SIPS) quential Inverse Plan Search، این توالیها را دنبال میکند تا اهداف یک کاربر را استنباط کند، الگوریتم در هر مرحله برنامههای جزئی را دنبال میکند و برنامههای بعید را مرحله به مرحله حذف میکند. از آنجا که این مدل هر بار فقط چند قدم جلوتر را برنامه ریزی میکند، این احتمال که کاربر دقیقا همان فرایند پیشبینی شده را انجام دهد بسیار زیاد است. البته این پیشبینیها شامل احتمال اشتباهات به دلیل برنامه ریزی محدود نیز هست، برای مثال ممکن است شما ندانید قبل از باز کردن یخچال به دو دست آزاد نیاز دارید یا با یک دست قابل انجام است. با تشخیص این خرابیهای احتمالی از قبل، تیم امیدوار است که این مدل بتواند برای ارائه بهتر کمک به انسانها استفاده شود.
یکی از بینشهای اولیه ما این بود که اگر میخواهید اهداف کسی را استنباط کنید، نیازی نیست بیشتر از آنها فکر کنید. ما فهمیدیم که این میتواند نه تنها برای تسریع در استنباط هدف مفید باشد، بلکه راهی برای استنباط اهداف از اقدامات بسیار کوتاه بینانه است و ما را به سمت تغییر الگوریتمها سوق میدهد تا به بررسی روشهایی برای حل محدودیهای اساسی در سیستمهای فعلی هوش مصنوعی بپردازیم.
ویکاش منسینگهکا دانشمند اصلی تحقیقات در MIT و یکی از مشاوران تان ژی ژوان، به همراه جاشوا تننباوم، استاد MIT در علوم مغز و شناخت در مورد هدف خود میگویند : این بخشی از اهداف بزرگتر ما است. مهندسی معکوس عقل سلیم درست مانند یک کودک 18 ماهه انسان.
این کار از نظر مفهومی بر اساس مدلهای شناختی قبلی استوار است که نشان میدهد که چگونه استنتاجهای ساده تر که کودکان و حتی نوزادان 10 ماهه در مورد اهداف دیگران انجام میدهند میتواند به صورت کمی به عنوان شکلی از برنامهریزی معکوس بیزی مدل سازی شود.
در حالی که تا به امروز محققان استنباط را فقط در مسائل برنامه ریزی نسبتاً كمی نسبت به مجموعه اهداف ثابت بررسی كردهاند، آنها با كارهای آینده قصد دارند سلسله مراتب غنی تری از اهداف و برنامههای انسانی را مورد بررسی قرار دهند. با یادگیری این سلسله مراتب، ماشین آلات ممکن است اهداف بسیار گسترده تر وعمیقتری را استنباط کنند.
ژوان میگوید : اگرچه این کار فقط یک گام اولیه کوچک را نشان میدهد، اما امید من این است که این تحقیقات زمینههای فلسفی و مفهومی لازم برای ساخت ماشینهایی را فراهم کند که اهداف، برنامهها و ارزشهای انسانی را به درستی درک کنند. این رویکرد اساسی این امکان را به ما میدهد که در هنگام اشتباه گرفتن بتوانیم استنباط کنیم و شاید در نهایت به ما این امکان را بدهد که وقتی مردم باورها، پیش فرضها و اصول راهنمایی اشتباهی دارند، بتوانیم به آنها کمک کنیم.