سنسورهای دوربین تلفن‌های هوشمند مجهز به تراشه‌های هوش مصنوعی خواهند شد

امروزه داده‌­های تصویری به طور عظیمی رشد کرده‌­اند. هوش مصنوعی با سرعتی بی­‌سابقه مقادیر بسیار زیادی از تصویر و ویدیو را به اطلاعات با ارزش و عملی تبدیل می‌­کند. دوربین‌های هوش مصنوعی لبه­‌ای (Edge) دستگاه‌­های تلفن هوشمند، خودرو، محاسبات، صنعتی و اینترنت اشیا را قادر می‌سازند تا روش پردازش، بازیابی، بهبود، تجزیه و تحلیل و جستجو و اشتراک ویدیو و تصاویر را دوباره تعریف کنند.

تراشه­‌های پردازشگر سنسور دوربین‌های هوش مصنوعی با داشتن قدرت پردازش بالا و حافظه داخلی تعبیه شده اجازه می‌دهند تا برنامه‌­های بینایی ماشین و بینایی انسان سریع‌تر، کارآمدتر، مقرون ‌به ‌صرفه‌تر و بدون ارسال هیچ اطلاعاتی به سرورهای راه دور عمل کنند. طی چند سال گذشته، دوربین­‌های قابل حمل با کیفیت در دستگاه‌­های مختلف نظیر تلفن­‌های هوشمند، دستگاه­‌های نظارتی و وسایل نقلیه رباتیکی مانند اتومبیل‌­های خودمختار استفاده شده­‌اند.

تمام این پیشرفت‌­ها در نتیجه تلفیق هوش مصنوعی و پردازش تصویر به وجود آمده‌­اند. یادگیری ماشین نه تنها برای بالا بردن کیفیت فیلم و عکس گرفته شده توسط دوربین­‌ها، بلکه همچنین برای درک مطالب ویدئویی مانند یک انسان استفاده می‌­شوند. یعنی با هدف اینکه ماشین­‌ها مانند یک انسان بتوانند اشیا، وقایع و حتی اتفاق‌­ها را در یک قاب شناسایی، تشخیص و طبقه‌­بندی کنند. برنامه‌­های بینایی ماشین و بینایی انسانی مبتنی بر هوش مصنوعی لبه­‌ای بیشتر توسط تلفن­‌های هوشمند، وسایل نقلیه رباتیک، خودرو، لوازم الکترونیکی مصرفی، سیستم عامل­‌های تلفن همراه و بازارهای مشابه سرور لبه­‌ای استفاده می­‌شوند.

تلفن­‌های هوشمند و خودرو به دلیل رشد سریع و داشتن بیشترین حجم درآمد و خرید و فروش، بیشتر از سایر بخش‌­ها در محاسبات بینایی ماشین لبه‌­ای تاثیر گذارند. OMDIA  TRACTICAپیش‌بینی می­‌کند که تلفن­‌های همراه به تنهایی بیش از 50٪ از بازار جهانی تراشه­‌های هوش مصنوعی در سال 2025 را به خود اختصاص دهد.

پردازش سیگنال تصویر (ISP)

تولیدکنندگانی مانند سون، گوگل، اپل، سامسونگ، هواوی، آنر، شیائومی، ویوو، اوپو و دیگران هنگام عرضه گوشی‌­های هوشمند جدیدشان به بازار آن‌ها را با سنسور دوربین مجهز به هوش مصنوعی ادغام می­‌کنند. در ساخت دوربین‌­های مجهز به هوش مصنوعی از فن‌آوری‌­های سنتی پردازش سیگنال تصویر و بینایی کامپیوتری مدرن و شبکه­‌های یادگیری ماشین عمیق استفاده می‌­شود. ISPها معمولاً کیفیت تصویر را بهبود می‌­بخشند و همچنین مولفه تک رنگ به ازای هر پیکسل خروجی در تصویر خام را به تصاویر RGB یا YUV که معمولاً در جاهای دیگر سیستم استفاده می‌شوند، تبدیل می­‌کنند.

یک ISP در ترکیب با پردازنده بینایی ماشین مبتنی بر هوش مصنوعی، می­‌تواند تصویر قوی‌­تر و قابل پردازش بیش­تری را نسبت به ISP مستقل ارائه دهد. به طور سنتی، ISPها برای پردازش تصاویر با هدف شبیه­‌سازی بینایی انسان پیاده­‌سازی شده‌­اند. با این حال هنگام اداره برنامه­‌های کاربردی که هم از برنامه بینایی ماشین و هم از بینایی انسان استفاده می‌­کنند، برای اجرای کارآمد و موثر الگوریتم بینایی کامپیوتری مبتنی بر یادگیری سنتی و یادگیری عمیق، نیاز به یک تغییر عملکرد است.

امروزه بسیاری از برنامه‌­های دوربین مبتنی بر هوش مصنوعی به ارسال تصاویر و فیلم‌­ها به فضای ابری برای تجزیه و تحلیل متکی هستند و این کار باعث می‌­شود پردازش داده­‌ها کند شود و امنیت کمتری داشته باشد. علاوه بر این، تولید کنندگان باید برای انجام محاسبات، پردازنده‌های تخصصی یا GPU را بر روی دستگاه‌ها نصب کنند. یک راه حل ساده‌تر برای انجام محاسبات بینایی ماشین لبه‌ای، استفاده از تراشه‌های پردازنده هوش مصنوعی اختصاصی، کم‌مصرف و با عملکرد بالا است که قادر به مدیریت الگوریتم­‌های یادگیری عمیق برای افزایش کیفیت تصویر و تجزیه و تحلیل هستند. یکی از این راه حل­‌ها تراشه­‌های پردازنده مشترک Gyrfalcon Technology AI هستند.

حواس شبیه انسان

هدف نهایی یک دوربین بر پایه هوش مصنوعی، تقلید از چشم و مغز انسان و درک آنچه دوربین از طریق هوش مصنوعی تصور می‌کند است. ماژول­‌های دوربین مجهز به هوش مصنوعی با ثبت تصاویر پیشرفته و همچنین آنالیز تصویر، آگاهی از محتوا، شناسایی الگو و رویدادها مزایای متمایزی را نسبت به دوربین‌های استاندارد ارائه می‌دهند. دوربین‌­های مجهز به هوش مصنوعی تصاویر فوری گوشی‌­های هوشمند شما را به عکس‌­هایی با کیفیت DSLR تبدیل می‌­کنند.

امروزه نیاز به استفاده از هوش مصنوعی در دستگاه‌­هایی که پردازش تصاویر را خودشان انجام می‌­دهند بر هیچ کس پوشیده نیست و رقابت برای طراحی تراشه­‌های پردازش لبه‌ای یکپارچه و بهینه‌­سازی شده، آغاز شده­‌است. پردازش لبه‌ای در هوش مصنوعی به ویژه محاسبات بینایی ماشین، ضمن افزایش سرعت، از بین بردن نیاز به پهنای باند، کم کردن تأخیر، پایین آوردن مصرف برق و هزینه‌­های محاسبات ابری، توانسته است نگرانی‌­های مربوط به حریم خصوصی را نیز از بین ببرد. از آنجا که فروش دستگاه­‌های مجهز به هوش مصنوعی برای انجام سریعتر محاسبات به سرعت در حال افزایش است، نیاز به تراشه­‌های شتاب دهنده در پردازش لبه‌ای هوش مصنوعی بیشتر شده است.

دوربین‌­های موبایل مجهز به هوش مصنوعی اکنون می‌­توانند تصاویری ثبت کنند که قابل رقابت با دوربین­‌های پیشرفته DSLR هستند. با این وجود، به دلیل اندازه و فاکتورهای پردازش لبه‌ای تلفن­‌های هوشمند، موبایل­‌ها قادر به حمل سنسورهای تصویری یا لنزهای بزرگ نیستند. این چالش تولیدکنندگان را مجبور می­‌کند تا با هدف افزایش کیفیت تصویر تکنولوژی‌­های ضبط تصویر، بازسازی تصویر و تجزیه و تحلیل تصویر را تلفیق کرده و فناوری‌­های پردازش تصویر را توسعه دهند. ورود هوش مصنوعی و یادگیری عمیق توانسته است یک استراتژی پردازش تصویر جایگزین را برای افزایش کیفیت تصویر و برنامه‌­های بینایی ماشین نظیر تشخیص و شناسایی اشیا، تجزیه و تحلیل و جستجوی محتوا و… فراهم کند.

یادگیری عمیق

یادگیری عمیق شاخه‌ای از الگوریتم های یادگیری ماشین است که هدف از آن یادگیری نمایش سلسله مراتبی داده‌ها است. یادگیری عمیق برتری خود را نسبت به دیگر الگوریتم‌های یادگیری ماشین در بسیاری از حوزه‌های هوش مصنوعی مانند بینایی ماشین، تشخیص گفتار و پردازش زبان طبیعی نشان داده‌است. به طور کلی، توانایی بالای یادگیری عمیق برای پردازش داده‌های ساختار نیافته به سه عامل نسبت داده می‌شود: (۱)توسعه سخت‌افزار محاسباتی کارآمد (۲)در دسترس بودن مقادیر انبوه داده و (۳) توسعه الگوریتم‌های پیچیده.

تصاویر گرفته شده به دلیل رزولوشن پایین، تجهیزات غیر دقیق یا شرایط جوی و محیطی نامناسب، دارای کیفیت پایین و نویز هستند و حالت موزاییکی دارند. به منظور افزایش کیفیت تصویر الگوریتم‌های پویای شبکه عصبی از یک تراشه هوش مصنوعی با کارایی بالا، مقرون ‌به ‌صرفه و موثر استفاده می­‌شود. در نتیجه رویه‌­هایی با هدف افزایش رزولوشن و دامنه دینامیکی (HDR) و از بین بردن حالت موزاییکی تصویر و نویز به CMOS دستگاه‌ها افزوده می­‌شوند.

یک سنسور تصویر هوشمند در یک دوربین هوش مصنوعی می‌تواند پردازش، بهبود، بازسازی و تجزیه و تحلیل تصاویر و فیلم‌های ضبط‌ شده را به صورت لبه‌ای و با ترکیب یک موتور ISP سنتی با شبکه‌های بینایی ماشین مبتنی بر یادگیری عمیق را انجام دهد.

یک تراشه شتاب‌دهنده شبکه عصبی با عملکرد بالا گزینه مناسبی برای ترکیب با توابع پردازش سیگنال تصویر است که پیش از این توسط یک ISP مستقل اداره می­‌شدند. خروجی سنسور CMOS را می­‌توان ابتدا توسط یک ISP به منظور اصلاح اعوجاج لنز، تصحیح پیکسل و رنگ و از بین بردن نویز پردازش کرد و سپس برای انجام پردازش‌­های بیشتر آن را به به یک پردازنده تصویر یادگیری عمیق هدایت کرد. این سنسورهای هوشمند نو ظهور نه تنها نور را ثبت می‌کنند بلکه جزئیات، معنا، درک صحنه و اطلاعات مرتبط با نور مقابل خود را نیز ثبت می‌کنند.

پردازش لبه‌ای مشترک

یک دوربین مجهز به هوش مصنوعی با استفاده از یک تراشه پردازنده مشترک اختصاصی مانند Gyrfalcon و با داشتن الگوریتم­‌های نوآورانه یادگیری عمیق، می­‌تواند یک راه حل مبتنی بر بینایی ماشین برای حسگرهای CMOS هوشمند تلفن‌های هوشمند و خودرو ارائه دهد. خط لوله پیچیده ISP را می‌­توان با یک مدل یادگیری عمیق بدون هیچ‌گونه دانش قبلی در مورد سنسور و اپتیک مورد استفاده در یک دستگاه خاص، جایگزین کرد.

بسته به نوع برنامه‌­های هدف و نیازهای عملکردی، یک تراشه پردازنده تصویر هوش مصنوعی به همراه معماری یادگیری عمیق شبکه‌­های عصبی پیشرفته و قابلیت‌­های چند وجهی وضوح فوق العاده (SR) می­‌تواند از گزینه‌های مختلف فاکتورهای ارتقا و اندازه تصویر پشتیبانی کند در حالی که می‌­تواند در حالت‌های مختلف بهبود تصویر نیز کار کند. برخی از این قابلیت‌­ها می‌­توانند شامل زوم با کیفیت بالا، تفکیک‌پذیری، محدوده دینامیکی بالا (HDR) چند حالته، الگوریتم­‌های کاهش نویز مبتنی بر هوش مصنوعی باشند.

یک ماژول دوربین مجهز به هوش مصنوعی با تراشه یکپارچه پردازنده تصویر، می‌­تواند تصاویر 4K فوق‌العاده با کیفیت (UHD) با فریم‌ریت بالا و PSNR پیشرفته، کیفیت بصری زیاد و هزینه کم در مقایسه با پردازنده­‌های مرسوم SR مبتنی بر شبکه­‌های عصبی کامپیوتری تولید کند.

هدف حسگرهای CMOS هوشمند در حال ظهور ادغام عملکرد ISP و پردازنده شبکه یادگیری عمیق در یک پردازنده مشترک هوش مصنوعی است. یک پردازنده مشترک تصویر هوش مصنوعی می‌­تواند مستقیما از داده‌­های خام خروجی سنسور برای ایجاد تصاویر با کیفیتی شبیه تصاویر دوربین‌­های DSLR استفاده کند و همچنین نتایج بسیار دقیق بینایی کامپیوتری را در یک ماژول دوربین ادغام کند. وجود یک پردازنده تصویر هوش مصنوعی بر روی دستگاه مزایای بی­‌شماری از جمله افزایش کیفیت بینایی ماشین، عملکرد بالاتر، بهبود حریم خصوصی، کاهش پهنای باند و تأخیر، کاهش بار محاسباتی پردازنده، استفاده بهینه از انرژی را به همراه دارد. در نتیجه می‌­توان همیشه و در همه جا بدون نیاز به اینترنت از این دستگاه­‌ها استفاده کرد.

لینک کوتاه شده : https://amerandish.com/yMptR

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

دیف‌بات
مقالات

دیف‌بات (diffbot)، هوش مصنوعی باهوش‌تر

دیف‌بات (Diffbot) برای ایجاد یک هوش مصنوعی باهو‌ش‌تر تلاش می‌کند که تفاوت میان حقیقت و اطلاعات غلط را دریابد انتظار می‌رود دیف‌بات (Diffbot) با خواندن

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.