عصب‌شناسان راهی برای بهبود عملکرد مدل­‌های تشخیص اشیاء پیدا کرده‌­اند.

افزودن ماژولی که بتواند فعالیت بخشی از مغز را تقلید کند می‌­تواند از خطاهای رایج ایجاد­شده توسط مدل‌­های بینایی کامپیوتری جلوگیری کند.

عصب شناسان دانشگاه MIT با افزودن لایه جدیدی به مدل‌­های بینایی کامپیوتری که برای شبیه سازی V1 یعنی اولین مرحله از سیستم پردازش بینایی مغز طراحی شده‌­است، توانسته‌­اند راهی برای غلبه بر آسیب‌­پذیری مدل‌­های بینایی کامپیوتری در برابر “حملات خصمانه” ایجاد کنند.

مقایسه تصاویر متخاصم با قدرت آشفتگی متفاوت.

شکل بالا تجسم بسیاری از انواع مختلف تخریب تصویر رایج را نشان می‌­دهد. ردیف اول، تصویر اصلی و به دنبال آن خرابی ناشی از نویز است. ردیف دوم، خرابی ناشی از تارشدن و ردیف سوم، خرابی آب و هوا ردیف چهارم، خرابی دیجیتال را نشان می‌­دهد.

مدل­‌های بینایی کامپیوتری معروف به شبکه­‌های عصبی پیچشی را می‌­توان برای شناخت اشیاء، با همان دقتی که انسان اشیاء را تشخیص می‌­دهد، آموزش داد. با این حال این مدل‌­ها یک نقص مهم دارند: تغییرات بسیار کوچک در یک تصویر که برای یک بیننده انسانی قابل مشاهده نیستند، می‌­تواند باعث اشتباهات فاحشی مانند طبقه‌بندی یک گربه به عنوان یک درخت در ماشین‌ها شود.

تیمی از عصب‌شناس‌­های دانشگاه MIT، دانشگاه هاروارد و IBM با افزودن لایه جدیدی به مدل‌­های بینایی ماشین به منظور تقلید از اولین مرحله سیستم پردازش بینایی مغز انسان، راهی برای کاهش این آسیب‌­پذیری ایجاد کرده‌­اند. در یک مطالعه جدید، آن‌ها نشان دادند که این لایه به شدت قدرت مدل‌های بینایی ماشین را در برابر این نوع اشتباهات بهبود داده‌است.

Tiago Marques فوق‌­دکترای دانشگاه MIT و یکی از نویسندگان این مقاله پژوهشی می‌گوید: “در این مرحله از پردازش، تنها با ساخت مدل‌های شبیه به قشر بصری اولیه مغز، ما پیشرفت‌های قابل‌توجهی در تشخیص انواع مختلف اختلالات و خرابی‌­ها می‌بینیم.”

شبکه‌­های عصبی پیچشی اغلب در کاربردهای هوش مصنوعی مانند اتومبیل‌های خودران، خطوط مونتاژ خودکار و تشخیص پزشکی استفاده می‌­شوند. Joel Dapello دانشجوی تحصیلات تکمیلی دانشگاه هاروارد و نویسنده اصلی این تحقیق می‌­گوید: “اجرای رویکرد جدید ما می‌تواند این سیستم‌ها را مستعد خطای کم‌تر کند و بینایی این سیستم­‌ها را بیشتر شبیه انسان کند.”

James DiCarlo رئیس دپارتمان مغز و علوم شناختی دانشگاه MIT، محقق در مرکز مغز، ذهن‌ها، ماشین‌ها و نویسنده ارشد این مقاله می‌­گوید: “فرضیه‌­های علمی درباره چگونگی کارکرد سیستم بصری مغز، باید از نظر الگوهای عصبی داخلی و استحکام قابل توجه مغز، با آن مطابقت داشته باشد. این مطالعه نشان می‌­دهد که دستیابی به این دستاوردهای علمی مستقیماً منجر به دستاوردهای مهندسی و کاربردی می‌­شود.”

Martin Schrimpf دانشجوی کارشناسی ارشدMIT، Franziska Geigerدانشجوی بازدید کننده MIT و دیوید کاکس مدیر آزمایشگاه هوش مصنوعی AI Mats-IBM Watson نویسندگان دیگر این مطالعه هستند که در کنفرانس NeurIPS ارائه شده است.

تقلید از مغز انسان

تشخیص اشیاء یکی از عملکردهای اصلی سیستم بینایی است. تنها در کسری از ثانیه، اطلاعات بصری از طریق جریان بینایی قدامی به قشر گیجگاهی تحتانی مغز، جایی که در آن نورون‌­ها حاوی اطلاعات مورد نیاز برای طبقه­‌بندی اشیا هستند، جریان می‌­یابند. در هر مرحله از جریان قدامی، مغز انواع مختلف پردازش را انجام می‌­دهد. اولین مرحله در جریان قدامی یعنی V1، یکی از شناخته‌شده‌ترین بخش‌های مغز و شامل نورون‌هایی است که به ویژگی‌های بصری ساده مثل لبه‌ها پاسخ می‌دهند.

Marques می‌گوید: “تصور می‌شود که V1 لبه‌های موضعی و قسمت‌های کوچکی از اشیاء و بافت‌ها را شناسایی می‌­کند و نوعی تقسیم‌بندی تصاویر را در مقیاس بسیار کوچک انجام می‌دهد. از این اطلاعات بعدا برای شناسایی شکل و بافت اشیاء در جهت پایین‌دست استفاده می‌­کند. سیستم بینایی به این روش سلسله مراتبی جایی که در آن نورون‌ها در مراحل اولیه به ویژگی‌های محلی مانند لبه‌های باریک و کشیده واکنش نشان می‌دهند، ساخته شده‌است.”

سال‌هاست که محققان در تلاشند تا مدل‌هایی بسازند که بتوانند اشیاء و همچنین سیستم بینایی انسان را شناسایی کنند. امروزه سیستم‌­های بینایی کامپیوتری پیشرفته به راحتی توسط دانش فعلی ما در مورد پردازش بینایی مغز هدایت می‌شوند. با این حال عصب­‌شناسان هنوز در مورد چگونگی اتصال کل جریان بینایی قدامی برای ساخت مدلی که دقیقاً آن را تقلید می‌­کند، اطلاعات کافی ندارند. بنابراین آن‌ها روش­‌هایی را از شاخه یادگیری ماشین با هدف آموزش شبکه­‌های عصبی پیچشی بر روی مجموعه خاصی از کارها استفاده کرده‌­اند. با استفاده از این فرآیند، یک مدل می‌­تواند پس از آموزش توسط میلیون­‌ها تصویر، اشیاء را شناسایی کند.

بیشتر این شبکه­‌های پیچشی عملکرد بسیار خوبی دارند، اما در بیشتر موارد محققان دقیقاً نمی‌­دانند که شبکه چگونه یک شیء را شناسایی می‌­کند. در سال 2013، محققان آزمایشگاه DiCarlo نشان دادند که برخی از این شبکه‌­های عصبی نه تنها می­‌توانند اشیاء را به طور دقیق شناسایی کنند، بلکه همچنین می‌توانند پیش‌بینی کنند که چگونه نورون‌ها در مغز نخستی‌ها به این اشیاء بسیار بهتر از مدل‌های جایگزین موجود پاسخ می‌دهند. با این حال، این شبکه‌­های عصبی هنوز قادر به پیش­‌بینی کامل پاسخ­‌ها در طول جریان بینایی قدامی به ویژه در اولین مراحل تشخیص جسم یعنی مرحله V1 نیستند.

این مدل­‌ها همچنین در برابر حملات به اصطلاح خصمانه بسیار آسیب­‌پذیر هستند. این به این معنی است که تغییرات کوچک در یک تصویر، مانند تغییر رنگ چند نقطه می‌تواند باعث شود که مدل به طور کامل یک شی را با شی متفاوت دیگر اشتباه بگیرد. در حالی که یک بیننده انسانی این نوع اشتباه را مرتکب نمی‌­شود.

محققان به عنوان اولین گام در مطالعه خود، عملکرد 30 مدل‌ را تحلیل کردند و دریافتند که مدل‌هایی که پاسخ‌های داخلی آن‌ها بهتر با پاسخ‌های V1 مغز همخوانی دارند، نسبت به حملات خصمانه کم‌تر آسیب‌پذیر هستند. یعنی به نظر می‌­رسد داشتن V1 که بیشتر شبیه مغز انسان است، مدل را قوی‌تر کرده‌است. برای آزمایش بیشتر و بهره‌گیری از این ایده، محققان تصمیم گرفتند مدل V1 خود را بر اساس مدل‌های عصبی علمی موجود ایجاد کنند و آن را در جلوی شبکه‌­های عصبی پیچشی که قبلا برای تشخیص شیء توسعه داده شده‌بود، قرار دهند.

هنگامی که محققان لایه V1 خود را که به عنوان یک شبکه عصبی پیچشی پیاده‌­سازی شده­‌است به سه تا از مدل‌­ها اضافه کردند، دریافتند که این مدل‌­ها در برابر تشخیص اشتباه در تصاویر خراب شده ناشی از حملات خصمانه، حدود چهار برابر مقاومت بیشتری نشان دادند. همچنین این مدل‌ها نسبت به عدم تشخیص ناشی از خرابی‌های دیگر که باعث مبهم یا تحریف‌شدن عکس شده بودند، کم‌تر آسیب‌پذیر بودند.

Cox می‌گوید: “حملات خصمانه یک مشکل بزرگ برای کاربرد عملی شبکه‌های عصبی عمیق است. این واقعیت که افزودن عناصر الهام گرفته از علوم اعصاب می­‌تواند قدرت مدل را بهبود ببخشد، نشان می­‌دهد که هنوز چیزهای زیادی وجود دارد که هوش مصنوعی می‌تواند از علوم اعصاب یاد بگیرد و بالعکس.”

دفاع بهتر

در حال حاضر، بهترین دفاع در برابر حملات خصمانه، یک فرآیند بسیار پرهزینه از مدل‌های آموزشی برای تشخیص تصاویر تغییر یافته می‌باشد. یکی از مزایای مدل‌­های مبتنی بر V1 این است که به هیچ آموزش اضافی نیاز ندارد و علاوه بر حملات خصمانه، می­‌تواند طیف گسترده‌­ای از اعوجاج‌ها را نیز کنترل کند.

در حال حاضر محققان در تلاشند تا ویژگی‌­های کلیدی مدل V1 را که به آن اجازه می‌­دهد در برابر حملات خصمانه، بهتر عمل کند را شناسایی کنند. این ویژگی­‌ها می‌تواند به آن‌ها کمک کند تا مدل‌های آینده را قوی‌تر کنند. شناسایی این ویژگی‌­ها همچنین اطلاعات محققان در مورد چگونگی تشخیص اشیاء توسط مغز انسان را نیز بیشتر می­‌کند.

Dapello می‌گوید: “یک مزیت بزرگ این مدل این است که ما می‌توانیم مولفه‌های مدل را به جمعیت‌های نورونی خاص در مغز نگاشت کنیم. ما می‌­توانیم از این روش به عنوان ابزاری برای یافته‌های عصب‌شناسی استفاده کنیم و همچنین توسعه این مدل را برای بهبود عملکردش ادامه دهیم.”

بودجه این تحقیق توسط بنیاد PhRMA بنیاد PhDMA در رشته انفورماتیک، شرکت تحقیقات نیمه هادی، دارپا، انجمن تحقیقات نیروی دریایی ایالات‌متحده و آزمایشگاه هوش مصنوعی MIT-IBM Watson تامین شده‌­است.

لینک کوتاه شده : https://amerandish.com/sjmzR

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فارس آوا

تبدیل گفتار به متن

باتاوا

دستیارسازمانی - چت بات

هوشتل

اپراتورهوشمند مرکز تماس

_ مطالب مرتبط _

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.