فرصت‌های تحقیقاتی هوش مصنوعی که در دوران قرنطینه برای دانشجویان دانشگاه MIT پیش آمد!

با فرصت دورکاری پیش آمده در این تابستان، دانشجویان MIT به دنبال درک بهتر هوش انسان و پیشبرد برنامه‌های یادگیری ماشین رفتند. حتی در روزهای معمولی، تقاضاهای بسیاری برای اکتشافات علمی وجود دارد. وجود این بیماری همه‌گیر نیز بر این فشار افزوده است. در این دنیای جدید انزوای جسمی، فرصت‌های خودانگیختگی و ارتباط کمتر و حواس پرتی‌ها و حوادث کمتر در گذر زمان وجود دارد. این روزها برای همه با یک تاری بی‌حس کننده یکسان می‌گذرند.

این تابستان که همه ملزم به دورکاری بودند، دانشجویان شرکت کننده در برنامه فرصت‌های پژوهشی کارشناسی MIT UROP تمام تلاش خود را برای غلبه بر این چالش‌ها انجام دادند. آن‌ها به کمک Zoom و Slack، ا مشاوران خود از غرب لس آنجلس، کالیفرنیا و تا شرق اسکوپیه، مقدونیه شمالی صحبت می‌کردند. دوازده پروژه تحت حمایت MIT Quest for Intelligence انجام شد. چهار پروژه دانشجویی در این مجموعه بسیار دیده شد.


دفاع از مدل‌های AI پردازش کد در برابر حملات خصمانه

در این پروژه، مدل‌های بینایی رایانه‌ای به سادگی با ایجاد تغییرات ظریف در اشیا و تصاویری که باید تفسیر کنند تفسیر کنند، فریب خوردند. این مدل‌ها لاک پشت‌ها را به عنوان تفنگ و هواپیماها را به عنوان خوک طبقه بندی کردند. اما مدل‌هایی که کد رایانه را تجزیه و تحلیل می‌کنند، بخشی از تلاش‌های اخیر برای ساختن ابزارهای خودکار برای طراحی کارآمد برنامه‌ها هستند. همچنین این مدل‌ها به نمونه‌های به اصطلاح خصمانه حساس هستند.

 

مدل‌های یادگیری ماشین

آزمایشگاه Una-May O’Reilly، همراه با یک دانشمند اصلی در MIT، بر روی کشف و رفع نقاط ضعف در مدل‌های پردازش کدی متمرکز شده‌اند که می‌تواند باعث بد رفتاری آن‌ها شود. با متداول شدن روش‌های برنامه نویسی خودکار، محققان به دنبال روش‌هایی برای ایمن سازی بیشتر این کلاس از مدل یادگیری عمیق هستند. تامارا میتروفسکا، دانشجوی سال سوم که تابستان امسال با Shashank Srikant کار می‌کرد، می‌گوید: “حتی تغییرات کوچک مانند دادن نام متفاوت به یک متغیر در یک برنامه رایانه‌ای می‌تواند نحوه تفسیر مدل را به طور کامل تغییر دهد”.

این آزمایشگاه در حال بررسی دو نوع مدل مورد استفاده برای جمع بندی بیت‌های یک برنامه به عنوان بخشی از تلاش گسترده‌تر برای استفاده از یادگیری ماشین برای نوشتن برنامه‌های جدید است. یکی از این مدل‌ها  Google’s seq2seq است که در اصل برای ترجمه ماشینی ساخته شده است. مدل دوم code2seq است که نمایش‌های انتزاعی برنامه‌ها را ایجاد می‌کند.

آسیب پذیری مدل‌ها

هر دو به دلیل یک اختراع ساده برنامه نویسی در برابر حملات آسیب پذیر هستند: زیرنویس‌هایی که به انسان اجازه می دهد که بداند یک کد کار می کند. مانند اختصاص نام به متغیرها، مهاجمان و.. و به این ترتیب راهی برای بهره برداری از مدل می‌دهد. به سادگی با تغییر نام متغیر در یک برنامه یا افزودن یک دستور چاپ، برنامه ممکن است به طور عادی کار کند، اما مدل را مجبور به پردازش آن می‌کند تا پاسخی نادرست بدهد. تابستان امسال، از خانه خود در نزدیكی اسكوپي، در مقدونیه شمالی، میترووسكا یاد گرفت كه چگونه از طریق پایگاه داده بیش از 100000 برنامه را در جاوا و پایتون غربال كند و آن‌ها را به صورت الگوریتمی اصلاح كند تا سعی كند seq2seq و code2seq را گول بزند.

 

باگ‌های مدل‌های طراحی شده

او می گوید: “اجرای این سیستم‌ها چالش برانگیز است. یافتن کوچکترین اشکال نیز می‌تواند زمان قابل توجهی را به خود اختصاص دهد. اما به طور کلی، این پروژه برای من بسیار سرگرم کننده بوده است”. یکی از سو استفاده‌هایی که وی کشف کرد این بود که با درج دستور “چاپ” در برنامه‌هایی که پردازش می‌شوند، می‌توان هر دو مدل را فریب داد. این بهره برداری و سایر موارد کشف شده توسط آزمایشگاه برای به روزرسانی مدل‌ها مورد استفاده قرار می‌گیرد تا از قدرت بیشتری برخوردار شوند.

صفت‌هایی که در روزمره استفاده می‌کنیم چه چیزهایی را در مورد استدلال انسان به ما می‌گویند!

فرضیه‌هایی در مورد جهانی که در ساده ترین کلمات نهفته است وجود دارد و معنی کلمات حتی در زبان‌های نزدیک به هم نیز متفاوت است. کلمه “Biggest” را در زبان انگلیسی در نظر بگیرید. مانند دیگر اصطلاحات انگلیسی، این صفت در فرانسه یا اسپانیایی معادل ندارد. بلندگوها به سادگی از فرم مقایسه ای “بزرگتر”، در کنار کلماتی مانند grand در فرانسه یا más grande در اسپانیایی، برای تمایز بین اشیا در اندازه‌های مختلف استفاده می کنند.

برای درک معنای این کلمات و چگونگی کاربرد واقعی آن‌ها، هلنا آپاریسیو، که فوق دکترای MIT را دارد و اکنون استاد دانشگاه کرنل است، مجموعه‌ای از آزمایشات روانشناسی را با دانشیار MIT راجر لوی و استاد دانشگاه بوستون، الیزابت کاپوک، طراحی کرد. کورتیس چن، دانشجوی سال دوم MIT علاقه مند به چهار مبحثی که در آزمایشگاه Levy’s در زمینه علوم کامپیوتر، روانشناسی، زبانشناسی و علوم شناختی مورد بحث قرار داده است. وی به عنوان دانشجوی UROP به آن‌ها پیوست.

بررسی رفتارها

از خانه خود در هیلزبورو، نیوجرسی، چن آزمایش‌هایی را ترتیب داد تا مشخص کند چرا انگلیسی زبانان در بعضی موارد، اصطلاحات جمع و در بعضی موارد اصطلاحات مقایسه‌ای را ترجیح می دهند. وی دریافت که در صحنه‌هایی با اشیا به یک اندازه، احتمال اینکه سوژه‌های انسانی کلمه “بزرگترین” را برای توصیف بزرگترین شی در مجموعه ترجیح دهند، بیشتر است. هنگامی که به نظر می‌رسد اشیا در دو گروه کاملاً مشخص قرار می‌گیرند، سوژه‌ها “بزرگتر” با دقت کمتری انتخاب می‌شوند.

چن همچنین یک مدل هوش مصنوعی را برای شبیه سازی استنباط‌های انجام شده توسط افراد انسانی خود ساخت و دریافت که این مدل یک ترجیح مشابه فوق العاده را در موقعیت‌های مبهم نشان می‌دهد. طراحی یک آزمایش موفق می‌تواند چندین سال طول بکشد. برای اطمینان از سازگاری در میان اشکالی که خواسته شد تا افراد توصیف کنند، چن آن‌ها را با استفاده از HTML Canvas و JavaScript در رایانه ایجاد کرد.

وی می گوید: “از این طریق، تفاوت‌های اندازه ‌ها دقیق بود و ما می‌توانستیم به سادگی فرمول مورد استفاده برای تهیه آن‌ها را گزارش دهیم”. پس از کشف اینکه به نظر می‌رسد برخی از موضوعات با اشکال مستطیل و خط اشتباه گرفته شده اند، او دایره‌ها را جایگزین آن‌ها کرد. وی همچنین متوجه شد که برخی از افراد برای بعضی کارها از آن استفاده می‌کنند و به این ترتیب گزینه پیش فرض را در مقیاس گزارش خود حذف کرد.

 

 

لینک کوتاه شده : https://amerandish.com/9ZbgZ

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.