طبق آزمایشهای صورتگرفته، الگوریتمهای هوش مصنوعی میتوانند روی تصمیمگیری فرد در رأی دادن به نامزدهای سیاسی و انتخاب شریک زندگی تأثیرگذار باشند.
محققان تأکید دارند در مورد تأثیر الگوریتمها نیاز به آموزش عمومی است. خانمها Ujué Agudo و Helena Matute از محققان دانشگاه Universidad de Deusto بیلبائو، اسپانیا، این یافتهها را در تاریخ 21 آوریل 2021 در مجله PLOS ONE ارائه دادهاند. بسیاری از افراد هر روز از شبکههای اجتماعی مانند فیسبوک تا نتایج موتور جستجوی گوگل، با الگوریتمهای هوش مصنوعی روبرو میشوند. شرکتهای خصوصی در حال انجام تحقیقات گسترده در مورد دادههای کاربران خود هستند و دادههایی را در مورد رفتار انسان بررسی میکنند که در دسترس عموم نیست. تحقیقات علوم اجتماعی دانشگاهی از تحقیقات بخش خصوصی کندتر است و فاقد نتایج تأثیرگذار درمورد دانش الگوریتمهای هوش مصنوعی در این زمینه برای عموم مردم است.
پژوهشگران برای رسیدن به نتایج شفافتر، تحقیقاتی انجام دادهاند و تأثیر الگوریتمهای هوش مصنوعی را در زمینههای مختلف آزمایش کردند. آنها افرادی را برای تعامل با الگوریتمهای هوش مصنوعی استفاده کردند که عکسهایی از نامزدهای سیاسی ساختگی یا نامزدهایی که همسریابیهای آنلاین ارائه میدهند. سپس از شرکتکنندگان خواستند که اعلام کنند به کدام نامزد رأی یا پیام خواهند داد. الگوریتمها برخی از نامزدها را به طور مستقیم یا غیرمستقیم با دقت 90٪ ، به روشهایی مانند نشاندادن عکس برخی بیش از دیگران، ترویج و تبلیغ میکردند. بهطورکلی، آزمایشها نشان داد که این الگوریتمها تأثیر قابلتوجهی در تصمیمگیری شرکتکنندگان در مورد اینکه به چه کسی رأی دهند یا پیام ارسال کنند، دارند. برای تصمیمات سیاسی، دستکاری صریح به طور قابلتوجهی بر تصمیمگیری تأثیر میگذارد در حالی که دستکاری پنهانی مؤثر نبود. در زمینه تصمیمات همسریابی خلاف این نتیجه صادق بود.
در مقاله دیگر با نام “همسریابی به کمک هوش مصنوعی” به معرفی طرح کشور ژاپن برای کمک به شهروندان خود در یافتن همسر با کمک هوش مصنوعی پرداختیم.
محققان بر این باورند، این نتایج بیانگر این است که ترجیح افراد در مورد موضوعات ذهنی از جمله دوستیابی بر توصیههای صریح انسان است، در حالی که در زمینه تصمیمات سیاسی، توصیههای الگوریتمی را ترجیح میدهند.
نویسندگان با توجه به یافتههای خود، از ابتکاراتی که به دنبال بالابردن قابلیت اطمینان هوش مصنوعی هستند مانند دستورالعملهای اخلاقی کمیسیون اروپا و برنامه دارپا (DARPA) و فرآیندی که نتایج آن در هوش مصنوعی برای انسان قابلدرک و شفاف است (xplainableAI)، حمایت میکنند. آنها هنوز هم هشدار میدهند که برای درک آسیبپذیری انسان در برابر الگوریتمها، به تحقیقات بیشتری نیاز است. در همین حال، محققان خواستار تلاش برای آموزش مردم در مورد خطرات اعتماد کورکورانه به توصیههای الگوریتمها هستند. آنها همچنین به بحث پیرامون مالکیت دادههایی که این الگوریتمها را هدایت میکنند، تأکید دارند.
نویسندگان اضافه میکنند: «اگر یک الگوریتم ساختگی و ساده مانند الگوریتم ما میتواند بدون پروفایلهای سفارشی شده از شرکتکنندگان و استفاده از همان عکسها به چنین سطحی از رضایت دست یابد، یک الگوریتم پیچیدهتر مانند الگوریتمهایی که افراد با آنها در زندگی روزمره خود تعامل دارند، مطمئناً باید تأثیر بسیار قویتری داشته باشند.»
اگر این مطلب را دوست داشتید، ما یک مقاله در مورد ساخت الگوریتمی برای تفکر و تصمیم گیری رباتها همانند تفکر انسانی هم داریم که میتوانید آن را مطالعه کنید.
منبع: sciencedaily