پنج خطر هوش مصنوعی برای آینده بشریت

هوش مصنوعی  یکی از بزرگ‌ترین ابزارهای پیشرفت دنیای امروز ما است. این دستاورد، انقلاب و تحولی در همه صنایع ایجاد کرده و چاره بسیاری از دشواری‌های پیش روی بشر است. ولی با همه این دستاوردها، هوش مصنوعی هنوز نخستین گام‌های رشد و بالندگی خود را برمی‌دارد. این دستاورد که برای آسانی هر چه بهتر زندگی بشر برپا شده، در صورت نبود مدیریت و گرداننده درست، می‌تواند پیامدهای بزرگی در پی داشته باشد. هوش مصنوعی در صورت استفاده نادرست، در زمینه‌های زیادی می‌تواند برای بشر دشواری ‌آفرین شود، پس بهتر است که در مورد پیامدها و خطر هوش مصنوعی، هم اکنون گفتگو شود تا از نتایج بررسی خطرات، برای مدیریت و پیش‌بینی در آینده بهره‌برداری گردد.

خطرات هوش مصنوعی چیست

پیامدهای هوش مصنوعی در آینده چه می‌تواند باشد؟

به گفته فیزیکدان شهیر، استفان هاوکینگ، پیروزی در آفرینش هوش مصنوعی می‌تواند بزرگ‌ترین دستاورد تمدن بشر یا بدترین آن باشد. اکنون به درستی نمی‌دانیم که این دستاورد ما را به قله‌های شگفت‌انگیز کام‌یابی‌های بیشتری رهنمون خواهد ساخت و یا در پایان بدست باعث ایجاد خطرات دهشناکی خواهد شد. این گفتار استفان هاوکنیگ در کنفرانس مطبوعاتی وابسته به هوش مصنوعی جای بسی ژرف‌نگری دارد. با عامر اندیش همراه باشید تا با 5 خطر هوش مصنوعی که ممکن است پیامدهای سنگینی برای آینده بشر داشته باشد، را بررسی کنیم.

1- تازش و چنگ‌اندازی به حریم خصوصی

حریم خصوصی از ابتدایی‌ترین حقوق بشر است که هرکس سزاوار آن است. با این وجود، ممکن است چنین مفهومی، در آینده‌ای نه چندان دور، به دلیل استفاده نادست از این فناوری کاملا پایمال شود. امروزه، به لطف پیشرفت‌ در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است. با فناوری‌ تشخیص چهره (facial recognition)، بازشناسایی شما در انبوهی از جمعیت به سادگی امکان‌پذیر است و تمامی دوربین‌های امنیتی به این فناوری مجهز هستند. توانایی گردآوری داده‌های هوش مصنوعی این امکان را برای وب‌سایت‌های فراهم‌‌آورنده و شبکه‌های مختلف اجتماعی به وجود می‌آورد که یک جدول زمانی از فعالیت‌های روزانه شما را در اختیار داشته باشند.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

 امروزه، چین با استفاده از هوش مصنوعی، بر روی سیستم اعتبار اجتماعی به شدت تمرکز کرده است. در این سامانه هر شهروند چینی بر پایه رفتار و کرداری که دراد، برای جامعه ارزش و اعتبار خواهد داشت. برخی رفتارهای ناسالم در سامانه اعتبار اجتماعی چین دربرگیرنده نکته‌های زیر است:

  • زیر بار بدهی بودن
  • نواختن موسیقی با آوای بلند در مترو
  • سیگار کشیدن در مکان‌ها ممنوعه
  • بازی بیش از اندازه با گیم‌های ویدئویی

داشتن تراز پایین به معنای جایگاه اجتماعی پایین‌تر و حتی تبعید شدن به مکان‌های دیگر و … خواهد شد.

2- جنگ‌افزار‌های ناوابسته

جنگ‌افزار‌های ناوابسته یا ربات‌های کشنده، ربات‌های سربازی هستند که می‌توانند مطابق با برنامه از پیش تعیین ‌شده هدف خود را جست‌وجو کرده و یا به صورت کاملا مستقل عملیات  هدف‌گذاری را انجام دهند. کمابیش، تولید چنین ربات‌هایی در دستور کار همه کشورهای پیشرفته قرار گرفته است. برپایه گفته‌های یک مقام ارشد نظامی چینی، جنگ‌های آینده به دست انسان انجام نمی‌شود، بلکه گرداننده آن‌ها ربات‌های سرباز خواهد بود.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

به کارگیری چنین جنگ‌افزارهایی، از دیگر نگرانی‌های موجود در مورد هوش مصنوعی می‌باشد. چه می‌شود اگر این ربات‌ها سرکشی کنند و کارهای خطرآفرینی انجام دهند. یا اگر نتوانند میان اهداف خود و افراد بی‌گناه تمیز قایل شوند. در این حالت، چه کسی پاسخگو این دشامد خواهد بود؟

3. از بین رفتن مشاغل با گسترش اتوماسیون هوش مصنوعی

پیشرفت سریع هوش مصنوعی در حوزه‌هایی مانند: تولید، بازاریابی، خدمات مالی و بهداشت باعث شده است که ساختار بازار کار جهانی به‌طور اساسی دگرگون شود. گزارش‌های مختلف از جمله تحقیقات مؤسسه مک‌کینزی نشان می‌دهند که تا سال 2030، حدود 30 درصد از ساعات کاری مشاغل فعلی در آمریکا به‌طور کامل به الگوریتم‌ها هوش مصنوعی واگذار و خودکار شوند. این تحول به‌ویژه برای گروه‌های آسیب‌پذیر مانند کارگران نگران‌کننده است چرا که بیشتر در معرض خطر بیکاری قرار دارند. اگرچه برخی بر این باورند که هوش مصنوعی می‌تواند منجر به ایجاد میلیون‌ها شغل جدید شود، واقعیت این است که بسیاری از نیروی کار فعلی، مهارت‌های لازم برای ورود به این مشاغل فنی را ندارند. در نتیجه اگر این گذار بدون آموزش، برنامه‌ریزی و سرمایه‌گذاری روی مهارت‌آموزی انجام شود، شکاف‌های طبقاتی و فقر ساختاری در جوامع می‌تواند شدت بگیرد.

خطر هوش مصنوعی در آینده

‌‍
علاوه بر مشاغل خدماتی یا فیزیکی حتی حرفه‌هایی که سابقاً از امنیت شغلی بالایی برخوردار بودند مانند: وکالت و حسابداری نیز در معرض تهدید هستند. به‌عنوان مثال وکلا که برای سال‌ها وظیفه بررسی اسناد حقوقی را بر عهده داشتند، اکنون ممکن است جای خود را به الگوریتم‌هایی بدهند که با دقت بیشتر، سرعت بالاتر و بدون خستگی همان وظایف را انجام می‌دهند. با این حال، برخی متخصصان معتقدند که این تحول لزوماً تهدید نیست و می‌تواند به فرصت تبدیل شود. به‌زعم آن‌ها، نیروی کار از انجام وظایف تکراری و فیزیکی فاصله گرفته و به سمت مشاغلی خواهد رفت که نیازمند خلاقیت، تفکر راهبردی و مهارت‌های تحلیلی است. این تغییر می‌تواند به انسان‌ها اجازه دهد تا وقت بیشتری را صرف کارهای معنادار و خلاقانه کنند.

4- استفاده تروریستی از هوش مصنوعی!

درحالیکه هوش مصنوعی می‌تواند تا اندازه چشم‌گیری در انجام کارهای سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل می‌تواند در دست افراد بی صلاحیت قرار بگیرد و کمک بزرگی برای تروریست‌ها برای انجام حملات دهناک باشند. هم اکنون، برخی از بنگاه‌های تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیماهای بدون سرنشین بهره‌برداری می‌کنند.  ISIS (داعش) نخستین حمله پهبادی موفق خود را در سال 2016 انجام داد که تنها منجر به کشته شدن 2 نفر در عراق شد. این مسئله اهمیت وضع قوانینی سخت‌گیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر می‌کند.

خطر هوش مصنوعی در آینده
خطر هوش مصنوعی در آینده

5- وارد کردن تعصبات کورکورانه در آموزش‌های هوش مصنوعی

حقیقت تلخی وجود دارد که گه‌گاه آدمی نسبت به یک مذهب، باور، ملت یا نژاد تعصباتی خشمگیانه و گاهی بی‌رحمانه‌ای دارد. چنین تعصباتی کاملا ناآگاهانه نیز می‌تواند توسط افرادی متعصب به سامانه‌های هوش مصنوعی (که به دست انسان گسترش داده می‌شوند) وارد شود و باعث سوگیری‌های نادرستی شود. چنین خشک‌اندیشی‌هایی به دلیل داده‌های ناقصی است که به‌دست انسان آفریده شده و به سامانه‌های هوش مصنوعی رخنه کرده است. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است. این الگوریتم با توجه به شمار زیادی رزومه کاری کارمندان استخدام شده در 10 سال گذشته  آموزش آموزش داده و طراحی شده است. از آنجایی که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردها ارزشمندتر از زنان در نظر گرفته شده‌اند.

در پیش‌آمد دیگری، گوگل با به کارگیری فناوری پردارش تصویر، عکس‌های دو فرد با نژاد آفریقایی-آمریکایی را با تگ “گوریل” ذخیره کرده است. این امر یک نشانه واضح از تعصب و خشک‌اندیشی نژادی است که باعث شناسایی نادرست آن الگوریتم هوش مصنوعی شده است. بنابراین پرسش بنیادین اینجاست که “چگونه باید در برابر این چنین خشک‌اندیشی‌هایی می‌توان رویارویی کرد؟”

6. دستکاری اجتماعی از طریق الگوریتم‌های هوش مصنوعی

الگوریتم‌های پلتفرم‌هایی مانند TikTok ،Facebook و YouTube توانسته‌اند محتوا را با توجه به علایق کاربر به‌گونه‌ای تنظیم کنند که باعث تقویت افراط‌گرایی، قطبی‌سازی سیاسی و نشر اطلاعات غلط شود. در انتخابات فیلیپین ۲۰۲۲ استفاده از ارتش ربات‌های مجازی در TikTok برای جذب آرای جوانان نشان داد که چگونه AI به‌راحتی ابزار دستکاری افکار عمومی شده است. این پدیده کنترل روایت رسانه‌ای را از دست روزنامه‌نگاران و منابع معتبر خارج کرده و به دست الگوریتم‌هایی سپرده است که صرفاً به دنبال افزایش نرخ کلیک و تعامل هستند.

هوش مصنوعی و کاربرد آن در دستکاری افکار عمومی و شبکه اجتماعی


با ترکیب فناوری‌های دیگری مانند: دیپ‌فیک‌ها، مبدل‌های صوتی و مدل‌های زبانی قدرتمند مرز میان حقیقت و دروغ به شدت تضعیف شده است. تصاویر و ویدیوهای جعلی می‌توانند افراد را در موقعیت‌های جعلی نمایش دهند و مخاطب را به‌طور کامل فریب دهند. همان‌طور که Martin Ford هشدار داده: “ما دیگر نمی‌توانیم به چشم‌ها و گوش‌های خود اعتماد کنیم.” در چنین فضایی اعتبار علمی و رسانه‌ای به چالش کشیده شده و پایه‌های دموکراسی دچار لرزش شده است.

4/5 - (4 امتیاز)
لینک کوتاه شده : https://amerandish.com/C48T8

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

تاریخچه مراکز تماس

تاریخچه مرکز تماس

پیشرفت فناوری و تکنولوژی بر بسیاری از کسب و کارها تاثیر گذاشته است؛ مرکز تماس مانند تمامی کسب و کارهای امروزی در طول زمان دچار

دیف‌بات
اخبار هوش مصنوعی

دیف‌بات (diffbot)، هوش مصنوعی باهوش‌تر

دیف‌بات (Diffbot) برای ایجاد یک هوش مصنوعی باهو‌ش‌تر تلاش می‌کند که تفاوت میان حقیقت و اطلاعات غلط را دریابد انتظار می‌رود دیف‌بات (Diffbot) با خواندن

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.