نگارش متون و ارائه نظرات با کیفیت، مانند همتای انسانی، توسط هوش مصنوعی

یک دانشجوی هاروارد نظرات جعلی نوشته شده توسط هوش مصنوعی را به سازمان Medicaid ارسال کرد و مشخص شد که سیستم نمی‌تواند آنها را از آنچه توسط انسان نوشته شده تشخیص دهد. تقریباً 1000 نظر ثبت شد اما نیمی از آنها از طریق شهروندان نگارش نشده بود. آنها توسط هوش مصنوعی تولید شده بودند و یک مطالعه نشان داد که سیستم نمی‌تواند نظرات واقعی را از نظرات جعلی تشخیص دهد. این پروژه توسط ماکس ویس، دانشجوی دانشگاه هاروارد انجام شد، اما در آن زمان توجه چندانی به این پژوهش نشد. اکنون و با پیشرفت سریع سیستم‌های تشخیص زبان بر پایه هوش مصنوعی برخی می‌گویند دولت و شرکت‌های اینترنتی باید بر چگونگی و نوع استفاده از سیستم‌های هوش مصنوعی قانون وضع کنند و برای جلوگیری از دستکاری متنون‌ و سایر تداخلات توسط هوش مصنوعی تجدید نظر کنند.

Latanya Sweeney، استاد دانشکده هاروارد می‌گوید این مشکلات فراتر از خدمات دولتی است اما ضروری است که آژانس‌های دولتی برای رفع مشکل راه حلی پیدا کنند. او می‌گوید: “هوش مصنوعی می‌تواند محدوده‌ی گفتار انسان‌ها را تصرف کند. وب سایت‌های دولتی باید هرچه سریع‌تر تغییر کنند. مراکز خدمات مدیکر و مدیکید می‌گویند که در پاسخ به مطالعه ویس ابزارهای جدیدی را به سیستم نظرات عمومی خود اضافه کرده‌اند، اما همچنان از بحث در مورد جزئیات خودداری می کنند.”

  • نکته: مدیکر یک برنامه ملی بیمه اجتماعی است که توسط دولت فدرال ایالات متحده آمریکا از ۱۹۶۵ مدیریت می‌شود و دسترسی بیمه درمانی را برای آمریکاییان بالای ۶۵ سال و افراد جوان‌تر دارای ناتوانی و نیز افراد دارای مشکل دیالیز تضمین می‌کند. مدیکید برنامه بهداشتی آمریکا برای خانواده‌ها و افراد با منابع و درآمد کم است. انجمن بیمه درمانی آمریکا مدیکید را «یک برنامهٔ بیمهٔ دولتی برای افرادی از همه سنین که درآمد و منابع کافی برای پرداخت مراقبت بهداشتی را ندارند» توصیف می‌کند.

ویس می‌گوید که اداره خدمات عمومی ایالات متحده که در حال تهیه نسخه جدیدی از وب سایت دولت فدرال برای انتشار مقررات و نظرات است در مورد راه‌های محافظت بهتر از آن در برابر نظرات جعلی با وی تماس گرفته است. سیستم‌های دولتی پیش از این نیز هدف کمپین‌های نفوذ خودکار و هکرها قرارگرفته بودند. در سال‌های گذشته محققان کشف کردند که بیش از یک میلیون نظر ارسالی به کمیسیون ارتباطات فدرال در مورد برخی از  قوانین به طور خودکار تولید شده و با عبارات خاصی کپی و در پیام‌های مختلف جایگذاری شده‌اند.

پروژه ویس یک تهدید کاملا جدی را برجسته می‌کند. طی چند سال گذشته پیشرفت چشمگیری در استفاده از هوش مصنوعی برای تشخیص زبان به وجود آمده است. وقتی الگوریتم‌های قدرتمند یادگیری ماشین با مقدار عظیمی از داده‌ها به صورت کتاب و متن موجود در وب تغذیه می‌شوند می‌توانند متن قانع‌کننده‌ای تولید کنند که کاملا با اصول دستور زبان همخوانی داشته باشد. اما علاوه بر تولید بی‌شمار متون مفید، این احتمال هم بوجود می‌اید که انواع پیام‌های اینترنتی، نظرات و پست‌ها به راحتی و با قابلیت تشخیص کمتر جعل شوند.

سوینی می‌گوید: “هرچه فناوری بیشتر پیشرفت می‌کند گفتار انسانی بیشتر دستکاری می‌شود، حتی بدون آن‌که بشر از وقوع آن آگاهی داشته باشد.” ویس در تابستان 2019 در یک سازمان ارائه دهنده خدمات و مراقبت‌های بهداشتی مشغول به کار بود و در آن زمان در مورد روند بازخورد عمومی لازم برای ایجاد تغییرات در Medicaid اطلاعات کسب کرد. ویس با دانستن اینکه نظرات عمومی برنامه‌های ایالتی Medicaid را تحت تأثیر قرار می‌دهد، به دنبال ابزاری بود که بتواند به صورت خودکار نظرات را ایجاد کند. او می‌گوید: “وقتی دیدم كه چیزی جز دكمه ارسال نمی‌تواند مانع از ارسال نظر شما برای تبدیل شدن به بخشی از سوابق عمومی شود، كمی شوكه شدم.”

ویس نرم‌افزار GPT-2 را انتخاب کرد که اوایل همان سال توسط OpenAI، یک شرکت هوش مصنوعی در سانفرانسیسکو منتشر شده بود و متوجه شد که این زبان می‌تواند نظرات جعلی را به گونه‌ای که کاملا غیر قابل تشخیص باشند نگارش کند. ویس می‌گوید: “من از آسان بودن نحوه رابط کاربری GPT-2 شوکه شدم.” سپس ویس نرم‌افزاری را برای ارسال خودکار نظرات ساخت. وی همچنین آزمایشی را ترتیب داد که در آن از داوطلبان خواسته شد بین نظرات تولید شده توسط هوش مصنوعی و نظرات نوشته شده توسط انسان تفاوت قائل شوند اما داوطلبان چیزی بیشتر از حدس تصادفی برای ارائه نداشتند.

ویس پس از ارسال نظرات، این امر را به مراکز خدمات مدیکر و مدیكید اطلاع داد. او چند کاراکتر اضافه کرده بود تا شناسایی نظرات جعلی را آسان کند. وی گفت، حتی با وجود این نشانه‌ها همچنان فعالیت هوش مصنوعی برای چندین ماه در اینترنت ادامه داشت و نظرات ارسال شده‌ی آن ثبت می‌شد. OpenAI در ژوئن گذشته نسخه توانمندتری از برنامه تولید متن خود را با نام GPT-3 منتشر کرده است. این برنامه تاکنون فقط در دسترس تعداد کمی از محققان و شرکت‌های هوش مصنوعی قرار گرفته است و برخی شرکت‌ها برنامه‌های مفیدی از این سیستم تولید کرده‌اند که پیام‎‌های الکترونیکی تولید می‌کند.

هنگام انتشار GPT-3 ، شرکت OpenAI در یک مقاله گفت که علائمی مبنی بر سواستفاده از GPT-2 را مشاهده نکرده است و این در شرایطی بود که آنها از نتایج تحقیقات ویس مطلع بوده‌اند. تاکنون OpenAI و سایر توسعه‌دهندگان ابزارهای کمی را برای شناسایی متن تولید شده توسط هوش مصنوعی منتشر کرده‌اند. ابزارهای موجود از الگوریتم‌های هوش مصنوعی برای مشخص کردن نشانه‌ها در متن استفاده می‌کنند تا مشخص کنند که متن توسط انسان نگارش شده یا الگوریتم. مشخص نیست که آیا کسی از این ابزارها برای محافظت از سیستم‌های آنلاین استفاده می‌کند یا خیر.

فیس بوک از گفتن اینکه آیا از چنین ابزاری استفاده می‌کند یا خیرخودداری کرد و گوگل و توییتر به سوال‌های در این خصوص پاسخ ندادند. همچنان مشخص نیست که آیا هنوز از ابزارهای پیشرفته هوش مصنوعی برای ایجاد محتوای جعلی استفاده می‌شود یا خیر. در ماه آگوست محققان گوگل جزئیات آزمایشی را منتشر کردند که در آن با استفاده از یک ابزار تشخیص متن که بر پایه هوش مصنوعی استوار بود برای مشخص کردن متون واقعی از ساختگی بیش از 500 میلیون صفحه وب را تجزیه و تحلیل کردند. آن‌ها دریافتند که ابزارهای موجود می‌توانند صفحاتی که متن خودکار و هرزنامه تولید می‌کنند را شناسایی کنند. اما مشخص نبود که آیا این مطالب با استفاده از ابزاری هوش مصنوعی مانند GPT-2 ساخته شده است یا خیر.

رنه دی رستا، مدیر تحقیق در رصدخانه اینترنتی استنفورد که سواستفاده‌های آنلاین را ردیابی می‌کند می‌گوید که انتظار دارد سایت‌های دولتی بیشتری توسط متن جعلی هدف قرار بگیرند. او می‌گوید: “هر زمان که شما فناوری جدیدی داشته باشید، در واقع ابزاری در دست بعضی‌ها و سلاحی را در دست دیگران قرار داده‌اید.” امروزه اطلاعات غلط سیاسی به موضوعی مهم در سیاست‌های آمریکا تبدیل شده است.

Joan Donovan، مدیر تحقیقاتی مرکز رسانه‌ها و سیاست عمومی در هاروارد هشدار می‌دهد که ممکن است برای از بین بردن درک مردم نسبت به واقعیت نیازی به هوش مصنوعی پیشرفته نباشد. او می‌گوید: “احساسات مردم ضعیف است و این باعث می‌شود آنها نسبت به توضیحات راحت نسبت به حقیقت‌های دشوار بسیار آسیب پذیر باشند.”

لینک کوتاه شده : https://amerandish.com/IFMtv

به اشتراک بگذارید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

_ مطالب مرتبط _

درخواست شما با موفقیت ارسال شد.

ضمن تشکر بابت ارسال پیام، در سریع‌ترین زمان ممکن کارشناسان شرکت عامراندیش درخواست شما را بررسی خواهند نمود.