مشکل اعتبار هوش مصنوعی در جامعه استرالیا

مشکل اعتبار هوش مصنوعی، یکی از مهم‌ترین مشکلات عصر حاضر است. مطابق با گزارش جدید منتشر شده دانشگاه کوئینزلند (UQ) و KPMG، از هر سه استرالیایی فقط یک نفر تمایل به استفاده و اعتماد به این فناوری رو به رشد را دارد.

این گزارش همچنین نشان داد که کمتر از نیمی از استرالیایی‌ها از به اشتراک گذاشتن داده‌های شخصی خود با یک سیستم هوش مصنوعی راحت هستند.

مشکل اعتبار هوش مصنوعی

هوش مپصنوعی به عنوان روندی برای تماشا توسط بنیان‌گذار و مشاور سابق Cisco ANZ CTO، کوین بلاخ (kevin Bloch) در سخنرانی اصلی خود درکنفرانس اتصال مجدد خط‌لوله (Pipelibe Reconnected 2020) عنوان شد.

بلوخ گفت که از بزرگ‌ترین روندها در سال 2020 و پس از آن، هوش مصنوعی و چگونگی تعامل آن با انسان است. وی این‌گونه توضیح داد که: هوش مصنوعی یک علم رایانه‌ای غیر خطی است که باعث می‌شود سرعت آن (نسبت به محاسبات سنتی) بسیار سریع‌تر باشد.

بلاخ در ادامه به مشکل اعتبار هوش مصنوعی و جزییات چگونگی استفاده از این فناوری پرداخت. وی از آن به عنوان “یادگیری تقویت” یاد کرد، درست به همان روشی که مغز انسان از دوپامین استفاده می‌کند، پاسخ پاداش لذت در روان انسان.

وی چنین اظهارنظر کرد که:”در مورد پتانسیلی که قبلا در بازار سهام برای بررسی الگوها، تشخیص سرطان و در بررسی‌های انجام شده برای ساخت واکسن ویروس کرونا استفاده شده، اندکی فکر کنید.”

بلاخ همچنین توسعه GPT3، یک مدل هوش مصنوعی زبان پیش‌بینی کننده نسل سوم با استفاده از حداکثر 175 میلیارد پارامتر برای وارد کردن داده‌ها را به عنوان شاهدی از بلوغ و پتانسیل این فناوری در آینده نزدیک عنوان کرد.

محقق ارشد این مطالعه همچنین از مزایای این فناوری حمایت کرد و اعلام داشت که مشکل اعتبار هوش مصنوعی باید به گونه‌ای مناسب حل گردد.

نیکول گیلسپی (Nicol Gillespie)، استاد دانشکده مدیریت UQ، در بیانیه‌ای چنین گفت: “مزایا و نویدهای هوش مصنوعی برای جامعه و تجارت غیرقابل‌انکار است.”

برپایه سخن‌های نیکول گیلسپی: “هوش مصنوعی به افراد کمک می‌کند تا پیش‌بینی‌ها و تصمیم‌های آگاهانه‌تری داشته باشند، نوآوری را امکان‌پذیر می‌سازد، می‌تواند باعث افزایش بهره‌وری شده و آن را بهبود بخشد و هزینه‌های کمتری به همراه داشته باشد. از طریق اقداماتی همچون کشف تقلب با کمک هوش مصنوعی، به محافظت از امنیت جسمی و مالی کمک می‌کند و مبارزه جهانی امروز در برابر کوید-19 را تسهیل می‌سازد.”

با توجه به نتیجه نهایی این مطالعه، نمایان شد که 42% از شرکت‌کنندگان گرچه این فناوری را “قبول” می‌کنند، ولی مشکل اعتبار هوش مصنوعی برای آنان هچنان حل‌نشده باقی می‌ماند. تنها 25 درصد از شرکت‌کنندگان اعلام داشتند که این فناوری را تایید کرده و یا از آن استقبال می‌کنند.

با این‌حال، گیلسپی اذعان داشت با آن‌که مزایای کنونی و آینده این فناوری کاملا روشن و امیدوار کننده است، طرفداران این هوش، تا پذیرش گسترده آن در بین توده مردم راه طولانی را در پیش دارند.

روشن است که پرُسمان‎هایی همچون امانت‌داری و مقررات هوش مصنوعی، باعث نگرانی‌های عمومی و ایجاد پرسش‌های همگانی شده است.

بیشتر شرکت‌کنندگان در این مطالعه (86 درصد) گفتند که آنها تمایل به دانستن اطلاعات بیشتر در مورد فناوری‌های هوش مصنوعی دارند و نزدیک به 96 درصد از آنان اعلام داشتند چنین انتظار دارند که در آینده نزدیک، تمامی صنایع با توجه به این فناوری تنظیم خواهد شد.

گیلسپی اعلام نمود كه قبل از استفاده موثر و کارای كشور از فرصت‌های ارایه شده توسط هوش مصنوعی، آموزش و اطلاع‌رسانی بهتر لازم است تا بتوان بر مشکل اعتبار هوش مصنوعی بین توده مردم، فایق آمد.

برپایه سخنان وی: اگر این مشکل برطرف نشود (عدم اعتماد مردم به این فناوری)، ممکن است باعث مختل شدن استفاده و جذب این فناوری در جامعه استرالیا درست در زمانی شود که برای تحقق مزیت‌های مالی و اجتماعی بیشتر، سرمایه‌گذاری‌ها در زمینه هوش مصنوعی در حال انجام است.

در ادامه این گزارش چهار “محرک‌های اصلی” برای ایجاد اعتماد به سیستم‌های هوش مصنوعی را مقررات مناسب، تحصیلات، تاثیرات اجتماعی و تاثیرات آن بر شغل افراد توصیف کردند.

 

 

لینک کوتاه شده : https://amerandish.com/L5wB0

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

پردازش زبان طبیعی کوانتومی
اخبار هوش مصنوعی

فناوری پردازش زبان طبیعی کوانتومی

پردازش زبان طبیعی کوانتومی (QNLP) : تیم محاسبات کوانتومی دانشگاه کمبریج مقاله‎ای درباره “معنای آگاهانه QNLP” منتشر کرد. ویژگی‌های اساسی کوانتوم در فناوری پردازش زبان

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.