با فرصت دورکاری پیش آمده در این تابستان، دانشجویان MIT به دنبال درک بهتر هوش انسان و پیشبرد برنامههای یادگیری ماشین رفتند. حتی در روزهای معمولی، تقاضاهای بسیاری برای اکتشافات علمی وجود دارد. وجود این بیماری همهگیر نیز بر این فشار افزوده است. در این دنیای جدید انزوای جسمی، فرصتهای خودانگیختگی و ارتباط کمتر و حواس پرتیها و حوادث کمتر در گذر زمان وجود دارد. این روزها برای همه با یک تاری بیحس کننده یکسان میگذرند.
این تابستان که همه ملزم به دورکاری بودند، دانشجویان شرکت کننده در برنامه فرصتهای پژوهشی کارشناسی MIT UROP تمام تلاش خود را برای غلبه بر این چالشها انجام دادند. آنها به کمک Zoom و Slack، ا مشاوران خود از غرب لس آنجلس، کالیفرنیا و تا شرق اسکوپیه، مقدونیه شمالی صحبت میکردند. دوازده پروژه تحت حمایت MIT Quest for Intelligence انجام شد. چهار پروژه دانشجویی در این مجموعه بسیار دیده شد.
دفاع از مدلهای AI پردازش کد در برابر حملات خصمانه
در این پروژه، مدلهای بینایی رایانهای به سادگی با ایجاد تغییرات ظریف در اشیا و تصاویری که باید تفسیر کنند تفسیر کنند، فریب خوردند. این مدلها لاک پشتها را به عنوان تفنگ و هواپیماها را به عنوان خوک طبقه بندی کردند. اما مدلهایی که کد رایانه را تجزیه و تحلیل میکنند، بخشی از تلاشهای اخیر برای ساختن ابزارهای خودکار برای طراحی کارآمد برنامهها هستند. همچنین این مدلها به نمونههای به اصطلاح خصمانه حساس هستند.
مدلهای یادگیری ماشین
آزمایشگاه Una-May O’Reilly، همراه با یک دانشمند اصلی در MIT، بر روی کشف و رفع نقاط ضعف در مدلهای پردازش کدی متمرکز شدهاند که میتواند باعث بد رفتاری آنها شود. با متداول شدن روشهای برنامه نویسی خودکار، محققان به دنبال روشهایی برای ایمن سازی بیشتر این کلاس از مدل یادگیری عمیق هستند. تامارا میتروفسکا، دانشجوی سال سوم که تابستان امسال با Shashank Srikant کار میکرد، میگوید: “حتی تغییرات کوچک مانند دادن نام متفاوت به یک متغیر در یک برنامه رایانهای میتواند نحوه تفسیر مدل را به طور کامل تغییر دهد”.
این آزمایشگاه در حال بررسی دو نوع مدل مورد استفاده برای جمع بندی بیتهای یک برنامه به عنوان بخشی از تلاش گستردهتر برای استفاده از یادگیری ماشین برای نوشتن برنامههای جدید است. یکی از این مدلها Google’s seq2seq است که در اصل برای ترجمه ماشینی ساخته شده است. مدل دوم code2seq است که نمایشهای انتزاعی برنامهها را ایجاد میکند.
آسیب پذیری مدلها
هر دو به دلیل یک اختراع ساده برنامه نویسی در برابر حملات آسیب پذیر هستند: زیرنویسهایی که به انسان اجازه می دهد که بداند یک کد کار می کند. مانند اختصاص نام به متغیرها، مهاجمان و.. و به این ترتیب راهی برای بهره برداری از مدل میدهد. به سادگی با تغییر نام متغیر در یک برنامه یا افزودن یک دستور چاپ، برنامه ممکن است به طور عادی کار کند، اما مدل را مجبور به پردازش آن میکند تا پاسخی نادرست بدهد. تابستان امسال، از خانه خود در نزدیكی اسكوپي، در مقدونیه شمالی، میترووسكا یاد گرفت كه چگونه از طریق پایگاه داده بیش از 100000 برنامه را در جاوا و پایتون غربال كند و آنها را به صورت الگوریتمی اصلاح كند تا سعی كند seq2seq و code2seq را گول بزند.
باگهای مدلهای طراحی شده
او می گوید: “اجرای این سیستمها چالش برانگیز است. یافتن کوچکترین اشکال نیز میتواند زمان قابل توجهی را به خود اختصاص دهد. اما به طور کلی، این پروژه برای من بسیار سرگرم کننده بوده است”. یکی از سو استفادههایی که وی کشف کرد این بود که با درج دستور “چاپ” در برنامههایی که پردازش میشوند، میتوان هر دو مدل را فریب داد. این بهره برداری و سایر موارد کشف شده توسط آزمایشگاه برای به روزرسانی مدلها مورد استفاده قرار میگیرد تا از قدرت بیشتری برخوردار شوند.
صفتهایی که در روزمره استفاده میکنیم چه چیزهایی را در مورد استدلال انسان به ما میگویند!
فرضیههایی در مورد جهانی که در ساده ترین کلمات نهفته است وجود دارد و معنی کلمات حتی در زبانهای نزدیک به هم نیز متفاوت است. کلمه “Biggest” را در زبان انگلیسی در نظر بگیرید. مانند دیگر اصطلاحات انگلیسی، این صفت در فرانسه یا اسپانیایی معادل ندارد. بلندگوها به سادگی از فرم مقایسه ای “بزرگتر”، در کنار کلماتی مانند grand در فرانسه یا más grande در اسپانیایی، برای تمایز بین اشیا در اندازههای مختلف استفاده می کنند.
برای درک معنای این کلمات و چگونگی کاربرد واقعی آنها، هلنا آپاریسیو، که فوق دکترای MIT را دارد و اکنون استاد دانشگاه کرنل است، مجموعهای از آزمایشات روانشناسی را با دانشیار MIT راجر لوی و استاد دانشگاه بوستون، الیزابت کاپوک، طراحی کرد. کورتیس چن، دانشجوی سال دوم MIT علاقه مند به چهار مبحثی که در آزمایشگاه Levy’s در زمینه علوم کامپیوتر، روانشناسی، زبانشناسی و علوم شناختی مورد بحث قرار داده است. وی به عنوان دانشجوی UROP به آنها پیوست.
بررسی رفتارها
از خانه خود در هیلزبورو، نیوجرسی، چن آزمایشهایی را ترتیب داد تا مشخص کند چرا انگلیسی زبانان در بعضی موارد، اصطلاحات جمع و در بعضی موارد اصطلاحات مقایسهای را ترجیح می دهند. وی دریافت که در صحنههایی با اشیا به یک اندازه، احتمال اینکه سوژههای انسانی کلمه “بزرگترین” را برای توصیف بزرگترین شی در مجموعه ترجیح دهند، بیشتر است. هنگامی که به نظر میرسد اشیا در دو گروه کاملاً مشخص قرار میگیرند، سوژهها “بزرگتر” با دقت کمتری انتخاب میشوند.
چن همچنین یک مدل هوش مصنوعی را برای شبیه سازی استنباطهای انجام شده توسط افراد انسانی خود ساخت و دریافت که این مدل یک ترجیح مشابه فوق العاده را در موقعیتهای مبهم نشان میدهد. طراحی یک آزمایش موفق میتواند چندین سال طول بکشد. برای اطمینان از سازگاری در میان اشکالی که خواسته شد تا افراد توصیف کنند، چن آنها را با استفاده از HTML Canvas و JavaScript در رایانه ایجاد کرد.
وی می گوید: “از این طریق، تفاوتهای اندازه ها دقیق بود و ما میتوانستیم به سادگی فرمول مورد استفاده برای تهیه آنها را گزارش دهیم”. پس از کشف اینکه به نظر میرسد برخی از موضوعات با اشکال مستطیل و خط اشتباه گرفته شده اند، او دایرهها را جایگزین آنها کرد. وی همچنین متوجه شد که برخی از افراد برای بعضی کارها از آن استفاده میکنند و به این ترتیب گزینه پیش فرض را در مقیاس گزارش خود حذف کرد.