هوش مصنوعی یکی از بزرگترین ابزارهای پیشرفت دنیای امروز ما است. این دستاورد، انقلاب و تحولی در همه صنایع ایجاد کرده و چاره بسیاری از دشواریهای پیش روی بشر است. ولی با همه این دستاوردها، هوش مصنوعی هنوز نخستین گامهای رشد و بالندگی خود را برمیدارد. این دستاورد که برای آسانی هر چه بهتر زندگی بشر برپا شده، در صورت نبود مدیریت و گرداننده درست، میتواند پیامدهای بزرگی در پی داشته باشد. هوش مصنوعی در صورت استفاده نادرست، در زمینههای زیادی میتواند برای بشر دشواری آفرین شود، پس بهتر است که در مورد پیامدها و خطر هوش مصنوعی، هم اکنون گفتگو شود تا از نتایج بررسی خطرات، برای مدیریت و پیشبینی در آینده بهرهبرداری گردد.
پیامدهای هوش مصنوعی در آینده چه میتواند باشد؟
به گفته فیزیکدان شهیر، استفان هاوکینگ، پیروزی در آفرینش هوش مصنوعی میتواند بزرگترین دستاورد تمدن بشر یا بدترین آن باشد. اکنون به درستی نمیدانیم که این دستاورد ما را به قلههای شگفتانگیز کامیابیهای بیشتری رهنمون خواهد ساخت و یا در پایان بدست باعث ایجاد خطرات دهشناکی خواهد شد. این گفتار استفان هاوکنیگ در کنفرانس مطبوعاتی وابسته به هوش مصنوعی جای بسی ژرفنگری دارد. با عامر اندیش همراه باشید تا با 5 خطر هوش مصنوعی که ممکن است پیامدهای سنگینی برای آینده بشر داشته باشد، را بررسی کنیم.
1- تازش و چنگاندازی به حریم خصوصی
حریم خصوصی از ابتداییترین حقوق بشر است که هرکس سزاوار آن است. با این وجود، ممکن است چنین مفهومی، در آیندهای نه چندان دور، به دلیل استفاده نادست از این فناوری کاملا پایمال شود. امروزه، به لطف پیشرفت در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است. با فناوری تشخیص چهره (facial recognition)، بازشناسایی شما در انبوهی از جمعیت به سادگی امکانپذیر است و تمامی دوربینهای امنیتی به این فناوری مجهز هستند. توانایی گردآوری دادههای هوش مصنوعی این امکان را برای وبسایتهای فراهمآورنده و شبکههای مختلف اجتماعی به وجود میآورد که یک جدول زمانی از فعالیتهای روزانه شما را در اختیار داشته باشند.
امروزه، چین با استفاده از هوش مصنوعی، بر روی سیستم اعتبار اجتماعی به شدت تمرکز کرده است. در این سامانه هر شهروند چینی بر پایه رفتار و کرداری که دراد، برای جامعه ارزش و اعتبار خواهد داشت. برخی رفتارهای ناسالم در سامانه اعتبار اجتماعی چین دربرگیرنده نکتههای زیر است:
- زیر بار بدهی بودن
- نواختن موسیقی با آوای بلند در مترو
- سیگار کشیدن در مکانها ممنوعه
- بازی بیش از اندازه با گیمهای ویدئویی
داشتن تراز پایین به معنای جایگاه اجتماعی پایینتر و حتی تبعید شدن به مکانهای دیگر و … خواهد شد.
2- جنگافزارهای ناوابسته
جنگافزارهای ناوابسته یا رباتهای کشنده، رباتهای سربازی هستند که میتوانند مطابق با برنامه از پیش تعیین شده هدف خود را جستوجو کرده و یا به صورت کاملا مستقل عملیات هدفگذاری را انجام دهند. کمابیش، تولید چنین رباتهایی در دستور کار همه کشورهای پیشرفته قرار گرفته است. برپایه گفتههای یک مقام ارشد نظامی چینی، جنگهای آینده به دست انسان انجام نمیشود، بلکه گرداننده آنها رباتهای سرباز خواهد بود.
به کارگیری چنین جنگافزارهایی، از دیگر نگرانیهای موجود در مورد هوش مصنوعی میباشد. چه میشود اگر این رباتها سرکشی کنند و کارهای خطرآفرینی انجام دهند. یا اگر نتوانند میان اهداف خود و افراد بیگناه تمیز قایل شوند. در این حالت، چه کسی پاسخگو این دشامد خواهد بود؟
3- مشاغل انسانها
با پیشرفت روزافزون هوش مصنوعی، از سیستمهای در پیشههایی استفاده خواهند شد که پیشتر به دست انسانها انجام میشد. برابر با گزارش منتشر شده توسط سازمان جهانی Mckinsey، پیرامون 800 میلیون کار و پیشه در سراسر جهان تا سال 2030 توسط هوش مصنوعی اتوماسیون خواهند شد. حال پرسش بنیادین اینجاست چه بر سر انسانهایی خواهد آمد که پیشه خود را از دست دادهاند؟ برخی از مردم بر این باورند که پیشههای جدید بسیاری به سبب وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل به وجود آمده بایجاد میشود. این افرادبر این باورند که پیشههایی که نیاز به قدرت بدنی و انجام فرآیندهای تکراری دارند به سوی پیشههایی حرکت خواهند کرد که نیازمند اندیشهگری خلاقانه و تفکری راهبرد محور میباشد. بنابراین، مردم به جای انجام پیشههای زمانبر و سخت، زمان بیشتری را برای انجام کارهای مهم و گذراندن وقت با دوستان و خانوادههایشان خواهند داشت.
4- استفاده تروریستی از هوش مصنوعی!
درحالیکه هوش مصنوعی میتواند تا اندازه چشمگیری در انجام کارهای سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل میتواند در دست افراد بی صلاحیت قرار بگیرد و کمک بزرگی برای تروریستها برای انجام حملات دهناک باشند. هم اکنون، برخی از بنگاههای تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیماهای بدون سرنشین بهرهبرداری میکنند. ISIS (داعش) نخستین حمله پهبادی موفق خود را در سال 2016 انجام داد که تنها منجر به کشته شدن 2 نفر در عراق شد. این مسئله اهمیت وضع قوانینی سختگیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر میکند.
5- وارد کردن تعصبات کورکورانه در آموزشهای هوش مصنوعی
حقیقت تلخی وجود دارد که گهگاه آدمی نسبت به یک مذهب، باور، ملت یا نژاد تعصباتی خشمگیانه و گاهی بیرحمانهای دارد. چنین تعصباتی کاملا ناآگاهانه نیز میتواند توسط افرادی متعصب به سامانههای هوش مصنوعی (که به دست انسان گسترش داده میشوند) وارد شود و باعث سوگیریهای نادرستی شود. چنین خشکاندیشیهایی به دلیل دادههای ناقصی است که بهدست انسان آفریده شده و به سامانههای هوش مصنوعی رخنه کرده است. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است. این الگوریتم با توجه به شمار زیادی رزومه کاری کارمندان استخدام شده در 10 سال گذشته آموزش آموزش داده و طراحی شده است. از آنجایی که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردها ارزشمندتر از زنان در نظر گرفته شدهاند.
در پیشآمد دیگری، گوگل با به کارگیری فناوری پردارش تصویر، عکسهای دو فرد با نژاد آفریقایی-آمریکایی را با تگ “گوریل” ذخیره کرده است. این امر یک نشانه واضح از تعصب و خشکاندیشی نژادی است که باعث شناسایی نادرست آن الگوریتم هوش مصنوعی شده است. بنابراین پرسش بنیادین اینجاست که “چگونه باید در برابر این چنین خشکاندیشیهایی میتوان رویارویی کرد؟”
به درستی بهترین راهکار این مسئله، آن خواهد بود که سازندگان هوش مصنوعی در هنگام گسترش و آموزش سامانههای وابسته، خشکاندیشی را از دادههای خود به طور کامل بزدایند.