همکاری غول تحقیقاتی هوش مصنوعی

هوش مصنوعی (AI)

سه شرکت اینتل(Intel)، آوست (Avast) و بورستا (Borsetta) در زمینه‌های پژوهش‌ درباره هوش مصنوعی (AI) ، همکاری‌هایی مشترکی را آغاز کردند. این سه شرکت در حال راه اندازی یک موسسه تحقیقاتی جدیدی در زمینه هوش مصنوعی هستند که هدف اصلی آن‌ها تقویت حریم خصوصی و افزایش اعتماد برای هوش مصنوعی غیرمتمرکز است.

انستیتوی تحقیقاتی همكاری هوش مصنوعی خصوصی كه در ابتدا توسط دفتر تحقیق و همکاری دانشگاه اینتل (URC) تاسیس شده بود، در پروژه‌ای مشترک با دو شرکت خدمات سخت‌افزاری محاسبات ایمن با نام‌های آوست (Avast) و بورستا (Borsetta)، اقدام به تولید و راه‌اندازی محصولاتی در زمینه امنیت دیجیتال و حفظ حریم خصوصی داده‌های کاربران کرده است.

میشال پژوچک (Michal Pechoucek)، مدیر ارشد فناوری در شرکت آوست (Avast) چنین گفت: “همچنان‌که هوش مصنوعی در حال رشد و افزایش دامنه فعالیت‌های خود است، به مرحله‌ای رسیده‌ایم که گفت‌وگو در این زمینه دیگر ارزشی نداشته و انجام اقدامات لازم، ضروری است.” وی چنین ادامه داد که: “ما خوشحالیم که می‌توانیم با اینتل (Intel) و بورستا (Borsetta) همکاری‌هایی نزدیک داشته باشیم تا از توانایی‌های بالقوه هوش مصنوعی برای حفظ امنیت افراد و داده‌هایشان رونمایی کنیم.”

این شرکت‌ها قصد دارند تا از حریم خصوصی و امنیت کاربران و داده‌هایشان با استفاده از قابلیت تمرکز زدایی هوش مصنوعی، محافظت نمایند. به همین منظور تصمیم دارند تا داده‌های غیر قابل‌دسترس را از دیتاست‌های خود آزاد کرده تا به این سبب کارایی را حفظ و بهبود بخشند. این سه شرکت اعلام کردند که آموزش متمرکز می‌تواند به راحتی با تغییر داده‌ها در هر نقطه بین مجموعه و ابر مورد حمله سایبری قرار گیرد. یکی دیگر از مشکلات امنیتی کنونی پیرامون هوش مصنوعی ناشی از محدودیت‌های یادگیری ماشین(ML) است، روشی که برای آموزش الگوریتم در چندین دستگاه لبه غیرمتمرکز استفاده می‎شود.

نکته: شایان ذکر است که دستگاه‌های لبه (edge device)، دستگاهی است که نقطه ورود به شبکه اصلی شرکت یا ارائه‌دهنده خدمات فراهم می‌آورد. به عنوان مثال، می‌توان به روترها، سوییچ‌های مسیریابی، دستگاه‌های دسترسی یکپارچه (IADs)، مالتی‌ پلکسرها (multiplexers) و انواع دسترسی به شبکه‌های شهری (MAN) و دستگاه‌های دسترسی به شبکه‌های گسترده (WAN) اشاره کرد. در حالی‎که هوش مصنوعی امروزی می‎تواند به داده‎ها در لبه دسترسی پیدا کند. تیم پشتیبان این موسسه تحقیقاتی راه‌اندازی شده، چنین اعلام داشت که روش‎های کنونی و در دسترس نمی‎تواند به طور هم‎زمان دقت، حریم خصوصی و امنیت را تضمین کنند.

ریچارد اوهلیگ (Richard Uhlig)، همیار ارشد اینتل (Intel) و معاون رئیس و مدیر آزمایشگاه‎های اینتل چنین گفت که: “پژوهش‎ها در مورد هوش مصنوعی مسئولانه، ایمن و خصوصی برای تحقق پتانسیل واقعی آن بسیار مهم و ضروری است.” شرکت بورستا (Borsetta) خاطر نشان کرد که از همکاری‌های مشترک بین شرکت‌ها (که پیش‌تر انجام شده) الهام گرفته تا با یک اعتقاد قوی در ایجاد چارچوبی برای حفظ و امنیت حریم خصوصی برای پشتیبانی از دستگاه‌های مبتنی بر هوش مصنوعی که در آینده‌ای نه چندان دور به صورت گسترده‌ای مورد استفاده قرار خواهند گرفت، گام بردارد.

پاملا نورتون (Pamela Norton)، مدیرعامل بورستا (Borsetta) چنین گفت که: “ماموریت انستیتوی خصوصی و مشارکتی هوش مصنوعی کاملا با دیدگاه ما در حوزه تامین پایدار امنیت آینده مطابقت دارد، جایی‌که داده‎ها با خدمات محاسباتی لبه (edge computing services) کاملا قابل اعتماد محافظت می‎شوند.” نورتون سخنان خود را این‌گونه ادامه داد که: “اعتماد در حقیقت همان واحد پول ارزش‌دار در آینده خواهد بود. ما باید سیستم‌های لبه‌ تعبیه شده قابل اعتماد، شفاف و امنی را طراحی کنیم؛ در عین‌حال وظیفه داریم تا در طراحی آن‌ها ارزش‌های انسان محور را در نظر گیریم.”

فراخوان پیشنهادهای پژوهشی که در اوایل سال جاری صادر شد منجر به انتخاب 9 پروژه تحقیقاتی در هشت دانشگاه بلژیک، کانادا، آلمان، سنگاپور و ایالات متحده برای دریافت پشتیبانی موسسه شده است.

 

 

لینک کوتاه شده : https://amerandish.com/UYXoS

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فارس آوا

تبدیل گفتار به متن

باتاوا

دستیارسازمانی - چت بات

هوشتل

اپراتورهوشمند مرکز تماس

_ مطالب مرتبط _

تولید کابوس توسط AI
اخبار هوش مصنوعی

ابجاد کابوس به وسیله هوش مصنوعی

ایجاد کابوس به وسیله هوش مصنوعی توسط گوگل: Google با استفاده از ابزار مبتنی در وب، Chimera painter، موجودات ترسناک خلق می‌کند گوگل با استفاده

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.