دستگاههای دارای برنامههای هوش مصنوعی معمولا ً ماشینهای پرمصرف هستند. تحقیقات جدید نشان میدهد که چگونه میتوانیم بینایی کامپیوتری را از یک تراشه ساده و کم مصرف تولید کنیم. هوش مصنوعی با پیشرفتهای عظیمی همراه بوده است، اما دستیابی به آن اغلب مستلزم مقادیری از دادهها و قدرت کامپیوتری میباشد. اکنون برخی از پژوهشگران هوش مصنوعی بر روی کارآمد بودن این فنآوری تا حد ممکن متمرکز شدهاند.
هفته گذشته محققان نشان دادند که این امکان وجود دارد که یک الگوریتم قدرتمند بینایی کامپیوتری را بر روی یک چیپ کامپیوتری ساده که میتواند ماهها بر روی یک باتری کار کند، فشرده سازی کرد. این ترفند میتواند به ارائه قابلیتهای پیشرفته هوش مصنوعی، مانند تشخیص تصویر و صدا، لوازم خانگی و گجتهای پوشیدنی که همراه با وسایل پزشکی و سنسورهای صنعتی هستند، کمک کند. همچنین میتواند به حفظ حریم خصوصی در دادهها با کاهش نیاز به ارسال هر چیزی به فضای ابری (cloud) کمک کند.
سونگ هان، استادیار MIT که مسئول پروژه میباشد، اذعان میدارد که: “این نتیجه برای ما کاملاً هیجان انگیز است.” وی می گوید، اگرچه این کار در حال حاضر یک آزمایش آزمایشگاهی است، اما میتواند به سرعت به دستگاههای هوشمند در دنیای واقعی منتقل شود.
میکروکنترلرها تراشههای رایانهای نسبتاً ساده، کم هزینه و کم مصرف هستند که در داخل میلیاردها محصول از جمله موتور ماشین، ابزار برقی، ریموت تلویزیون و ایمپلنتهای پزشکی یافت میشوند. الگوریتمهای فوق هوشمند برای تمامی مشاغل سفارشی سازی نشدهاند، اما آنها به سرعت یاد میگیرند و هر کاری را از روشهای تشخیص پزشکی گرفته تا ارائه تبلیغات به کاربران انجام میدهند.
محققان اساسا ً روشی را برای تجزیه و تحلیل الگوریتمهای یادگیری عمیق ابداع کردند، برنامههای شبکه عصبی مصنوعی بزرگ کمابیش از روشی که نورونها در مغز متصل و تحریک میشوند تقلید میکنند. در طول دهه گذشته، یادگیری عمیق پیشرفتهای عظیمی در هوش مصنوعی را به دنبال داشتهاست و این اساس شکوفایی هوش مصنوعی است.
الگوریتمهای یادگیری عمیق معمولا ً بر روی تراشههای کامپیوتری تخصصی اجرا میشوند که محاسبات موازی مورد نیاز برای آموزش و اجرای موثر شبکه را تقسیم میکنند. آموزش مدل زبانی معروف به GPT-3، در صورت نیاز سریعا قادر به تولید یک زبان قدرتمند است که این مسئله مستلزم تراشههای پیشرفته هوش مصنوعی مطابق با جدیدترین و پیشرفتهترین تکنولوژیهای روز میباشد.
چنین کاربردهایی منجر به رونق فروش GPU ها، تراشههایی مناسب برای یادگیری عمیق و همچنین افزایش تعداد تراشههای مخصوص هوش مصنوعی برای تلفنهای هوشمند و سایر ابزارها شده است.
رویکرد تحقیقاتی جدید دو بخش دارد. در ابتدا، محققان از الگوریتمی برای کشف معماریهای احتمالی شبکه عصبی استفاده میکنند و به دنبال الگویی متناسب با محدودیتهای محاسباتی میکروکنترلر میگردند. بخش دیگر یک کتابخانه نرمافزاری متراکم و کم مصرف برای راهاندازی شبکه است. این کتابخانه برای از بین بردن افزونگی و کمبود حافظه در میکروکنترلر، هماهنگ با معماری شبکه طراحی شده است. هان میگوید: “کاری که ما انجام میدهیم مانند یافتن سوزن در انبار کاه است.”
محققان یک الگوریتم بینایی کامپیوتری را ایجاد کردند که قادر به شناسایی 1000 نوع شی در تصاویر با دقت 70 درصد بود. بهترین الگوریتمهای کم مصرف قبلی، تنها در حدود 54 درصد صحت حاصل شدند. همچنین در مقایسه با روشهای موجود به 21 درصد حافظه و تاخیر 67 درصدی نیاز دارد. این تیم عملکرد مشابهی را برای یک الگوریتم یادگیری عمیق نشان داد که به واژه ” بیدار ” در یک منبع صوتی گوش میدهد. هان میگوید که با اصلاح روشهای بکار رفته پیشرفتهای بیشتری باید امکانپذیر باشد . جائه سون سو، دانشیار دانشگاه ایالتی آریزونا که در زمینه یادگیری ماشین با محدودیت منابع کار میکند، میگوید: “این در حقیقت بسیار تاثیرگذار است.” سئو میگوید: “برنامههای تجاری میتوانند شامل عینکهای هوشمند، دستگاههای واقعیت افزوده كه به طور مداوم قابلیت تشخیص اشیا را دارند و دستگاههای لبه (Edge) با قابلیت تشخیص گفتار روی دستگاه بدون اتصال به فضای ابر باشند.”
جان کوهن، محقق گروه تحقیقاتی MIT-IBM Watson AI و بخشی از تیم عامل این پژوهش، میگوید برخی مشتریان IBM علاقمند به استفاده از این فنآوری هستند. او میگوید یک کاربرد آشکار از حسگرهایی است که برای پیشبینی مشکلات ماشینآلات صنعتی طراحی شدهاند. در حال حاضر، این سنسورها باید بصورت بیسیم شبکه دار شوند تا محاسبات از راه دور در یک سیستم قدرتمندتر انجام شود .
یک کاربرد مهم دیگر میتواند در دستگاههای پزشکی باشد. هان میگوید کار با همکارانش در MIT را روی دستگاه هایی آغاز کرده است که از یادگیری ماشین برای نظارت مداوم بر فشار خون استفاده میکنند.