پنج خطر هوش مصنوعی برای آینده بشر

هوش مصنوعی  یکی از بزرگ‌ترین ابزارهای پیشرفت دنیای امروز ما است. این دستاورد، انقلاب و تحولی در همه صنایع ایجاد کرده و چاره بسیاری از دشواری‌های پیش روی بشر است. ولی با همه این دستاوردها، هوش مصنوعی هنوز نخستین گام‌های رشد و بالندگی خود را برمی‌دارد. این دستاورد که برای آسانی هر چه بهتر زندگی بشر برپا شده، در صورت نبود مدیریت و گرداننده درست، می‌تواند پیامدهای بزرگی در پی داشته باشد. هوش مصنوعی در صورت استفاده نادرست، در زمینه‌های زیادی می‌تواند برای بشر دشواری ‌آفرین شود، پس بهتر است که در مورد پیامدها و خطر هوش مصنوعی، هم اکنون گفتگو شود تا از نتایج بررسی خطرات، برای مدیریت و پیش‌بینی در آینده بهره‌برداری گردد.

پیامدهای هوش مصنوعی در آینده چه می‌تواند باشد؟

به گفته فیزیکدان شهیر، استفان هاوکینگ، پیروزی در آفرینش هوش مصنوعی می‌تواند بزرگ‌ترین دستاورد تمدن بشر یا بدترین آن باشد. اکنون به درستی نمی‌دانیم که این دستاورد ما را به قله‌های شگفت‌انگیز کام‌یابی‌های بیشتری رهنمون خواهد ساخت و یا در پایان بدست باعث ایجاد خطرات دهشناکی خواهد شد. این گفتار استفان هاوکنیگ در کنفرانس مطبوعاتی وابسته به هوش مصنوعی جای بسی ژرف‌نگری دارد. با عامر اندیش همراه باشید تا با 5 خطر هوش مصنوعی که ممکن است پیامدهای سنگینی برای آینده بشر داشته باشد، را بررسی کنیم.

1- تازش و چنگ‌اندازی به حریم خصوصی

حریم خصوصی از ابتدایی‌ترین حقوق بشر است که هرکس سزاوار آن است. با این وجود، ممکن است چنین مفهومی، در آینده‌ای نه چندان دور، به دلیل استفاده نادست از این فناوری کاملا پایمال شود. امروزه، به لطف پیشرفت‌ در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است. با فناوری‌ تشخیص چهره (facial recognition)، بازشناسایی شما در انبوهی از جمعیت به سادگی امکان‌پذیر است و تمامی دوربین‌های امنیتی به این فناوری مجهز هستند. توانایی گردآوری داده‌های هوش مصنوعی این امکان را برای وب‌سایت‌های فراهم‌‌آورنده و شبکه‌های مختلف اجتماعی به وجود می‌آورد که یک جدول زمانی از فعالیت‌های روزانه شما را در اختیار داشته باشند.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

 امروزه، چین با استفاده از هوش مصنوعی، بر روی سیستم اعتبار اجتماعی به شدت تمرکز کرده است. در این سامانه هر شهروند چینی بر پایه رفتار و کرداری که دراد، برای جامعه ارزش و اعتبار خواهد داشت. برخی رفتارهای ناسالم در سامانه اعتبار اجتماعی چین دربرگیرنده نکته‌های زیر است:

  • زیر بار بدهی بودن
  • نواختن موسیقی با آوای بلند در مترو
  • سیگار کشیدن در مکان‌ها ممنوعه
  • بازی بیش از اندازه با گیم‌های ویدئویی

داشتن تراز پایین به معنای جایگاه اجتماعی پایین‌تر و حتی تبعید شدن به مکان‌های دیگر و … خواهد شد.

2- جنگ‌افزار‌های ناوابسته

جنگ‌افزار‌های ناوابسته یا ربات‌های کشنده، ربات‌های سربازی هستند که می‌توانند مطابق با برنامه از پیش تعیین ‌شده هدف خود را جست‌وجو کرده و یا به صورت کاملا مستقل عملیات  هدف‌گذاری را انجام دهند. کمابیش، تولید چنین ربات‌هایی در دستور کار همه کشورهای پیشرفته قرار گرفته است. برپایه گفته‌های یک مقام ارشد نظامی چینی، جنگ‌های آینده به دست انسان انجام نمی‌شود، بلکه گرداننده آن‌ها ربات‌های سرباز خواهد بود.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

به کارگیری چنین جنگ‌افزارهایی، از دیگر نگرانی‌های موجود در مورد هوش مصنوعی می‌باشد. چه می‌شود اگر این ربات‌ها سرکشی کنند و کارهای خطرآفرینی انجام دهند. یا اگر نتوانند میان اهداف خود و افراد بی‌گناه تمیز قایل شوند. در این حالت، چه کسی پاسخگو این دشامد خواهد بود؟

3- مشاغل انسان‌ها

با پیشرفت روزافزون هوش مصنوعی، از سیستم‌های در پیشه‌هایی استفاده خواهند شد که پیش‌تر به دست انسان‌ها انجام می‌شد. برابر با گزارش منتشر شده توسط سازمان جهانی Mckinsey، پیرامون 800 میلیون کار و پیشه در سراسر جهان تا سال 2030 توسط هوش مصنوعی اتوماسیون خواهند شد. حال پرسش بنیادین اینجاست چه بر سر انسان‌هایی خواهد آمد که پیشه خود را از دست داده‌اند؟ برخی از مردم بر این باورند که پیشه‌های جدید بسیاری به سبب وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل به وجود آمده بایجاد می‌شود. این افرادبر این باورند که پیشه‌هایی که نیاز به قدرت بدنی و انجام فرآیندهای تکراری دارند به سوی پیشه‌هایی حرکت خواهند کرد که نیازمند اندیشه‌گری خلاقانه و تفکری راهبرد محور می‌باشد. بنابراین، مردم به جای انجام پیشه‌های زمان‌بر و سخت، زمان بیشتری را برای انجام کارهای مهم و گذراندن وقت با دوستان و خانواده‌هایشان خواهند داشت.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

4- استفاده تروریستی از هوش مصنوعی!

درحالیکه هوش مصنوعی می‌تواند تا اندازه چشم‌گیری در انجام کارهای سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل می‌تواند در دست افراد بی صلاحیت قرار بگیرد و کمک بزرگی برای تروریست‌ها برای انجام حملات دهناک باشند. هم اکنون، برخی از بنگاه‌های تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیماهای بدون سرنشین بهره‌برداری می‌کنند.  ISIS (داعش) نخستین حمله پهبادی موفق خود را در سال 2016 انجام داد که تنها منجر به کشته شدن 2 نفر در عراق شد. این مسئله اهمیت وضع قوانینی سخت‌گیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر می‌کند.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

5- وارد کردن تعصبات کورکورانه در آموزش‌های هوش مصنوعی

حقیقت تلخی وجود دارد که گه‌گاه آدمی نسبت به یک مذهب، باور، ملت یا نژاد تعصباتی خشمگیانه و گاهی بی‌رحمانه‌ای دارد. چنین تعصباتی کاملا ناآگاهانه نیز می‌تواند توسط افرادی متعصب به سامانه‌های هوش مصنوعی (که به دست انسان گسترش داده می‌شوند) وارد شود و باعث سوگیری‌های نادرستی شود. چنین خشک‌اندیشی‌هایی به دلیل داده‌های ناقصی است که به‌دست انسان آفریده شده و به سامانه‌های هوش مصنوعی رخنه کرده است. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است. این الگوریتم با توجه به شمار زیادی رزومه کاری کارمندان استخدام شده در 10 سال گذشته  آموزش آموزش داده و طراحی شده است. از آنجایی که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردها ارزشمندتر از زنان در نظر گرفته شده‌اند.

در پیش‌آمد دیگری، گوگل با به کارگیری فناوری پردارش تصویر، عکس‌های دو فرد با نژاد آفریقایی-آمریکایی را با تگ “گوریل” ذخیره کرده است. این امر یک نشانه واضح از تعصب و خشک‌اندیشی نژادی است که باعث شناسایی نادرست آن الگوریتم هوش مصنوعی شده است. بنابراین پرسش بنیادین اینجاست که “چگونه باید در برابر این چنین خشک‌اندیشی‌هایی می‌توان رویارویی کرد؟”

به درستی بهترین راهکار این مسئله، آن خواهد بود که سازندگان هوش مصنوعی در هنگام گسترش و آموزش سامانه‌های وابسته، خشک‌اندیشی را از داده‌های خود به طور کامل بزدایند.

4.7/5 - (3 امتیاز)
لینک کوتاه شده : https://amerandish.com/C48T8

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فارس آوا

تبدیل گفتار به متن

باتاوا

دستیارسازمانی - چت بات

هوشتل

اپراتورهوشمند مرکز تماس

_ مطالب مرتبط _

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.