یک دانشجوی هاروارد نظرات جعلی نوشته شده توسط هوش مصنوعی را به سازمان Medicaid ارسال کرد و مشخص شد که سیستم نمیتواند آنها را از آنچه توسط انسان نوشته شده تشخیص دهد. تقریباً 1000 نظر ثبت شد اما نیمی از آنها از طریق شهروندان نگارش نشده بود. آنها توسط هوش مصنوعی تولید شده بودند و یک مطالعه نشان داد که سیستم نمیتواند نظرات واقعی را از نظرات جعلی تشخیص دهد. این پروژه توسط ماکس ویس، دانشجوی دانشگاه هاروارد انجام شد، اما در آن زمان توجه چندانی به این پژوهش نشد. اکنون و با پیشرفت سریع سیستمهای تشخیص زبان بر پایه هوش مصنوعی برخی میگویند دولت و شرکتهای اینترنتی باید بر چگونگی و نوع استفاده از سیستمهای هوش مصنوعی قانون وضع کنند و برای جلوگیری از دستکاری متنون و سایر تداخلات توسط هوش مصنوعی تجدید نظر کنند.
Latanya Sweeney، استاد دانشکده هاروارد میگوید این مشکلات فراتر از خدمات دولتی است اما ضروری است که آژانسهای دولتی برای رفع مشکل راه حلی پیدا کنند. او میگوید: “هوش مصنوعی میتواند محدودهی گفتار انسانها را تصرف کند. وب سایتهای دولتی باید هرچه سریعتر تغییر کنند. مراکز خدمات مدیکر و مدیکید میگویند که در پاسخ به مطالعه ویس ابزارهای جدیدی را به سیستم نظرات عمومی خود اضافه کردهاند، اما همچنان از بحث در مورد جزئیات خودداری می کنند.”
- نکته: مدیکر یک برنامه ملی بیمه اجتماعی است که توسط دولت فدرال ایالات متحده آمریکا از ۱۹۶۵ مدیریت میشود و دسترسی بیمه درمانی را برای آمریکاییان بالای ۶۵ سال و افراد جوانتر دارای ناتوانی و نیز افراد دارای مشکل دیالیز تضمین میکند. مدیکید برنامه بهداشتی آمریکا برای خانوادهها و افراد با منابع و درآمد کم است. انجمن بیمه درمانی آمریکا مدیکید را «یک برنامهٔ بیمهٔ دولتی برای افرادی از همه سنین که درآمد و منابع کافی برای پرداخت مراقبت بهداشتی را ندارند» توصیف میکند.
ویس میگوید که اداره خدمات عمومی ایالات متحده که در حال تهیه نسخه جدیدی از وب سایت دولت فدرال برای انتشار مقررات و نظرات است در مورد راههای محافظت بهتر از آن در برابر نظرات جعلی با وی تماس گرفته است. سیستمهای دولتی پیش از این نیز هدف کمپینهای نفوذ خودکار و هکرها قرارگرفته بودند. در سالهای گذشته محققان کشف کردند که بیش از یک میلیون نظر ارسالی به کمیسیون ارتباطات فدرال در مورد برخی از قوانین به طور خودکار تولید شده و با عبارات خاصی کپی و در پیامهای مختلف جایگذاری شدهاند.
پروژه ویس یک تهدید کاملا جدی را برجسته میکند. طی چند سال گذشته پیشرفت چشمگیری در استفاده از هوش مصنوعی برای تشخیص زبان به وجود آمده است. وقتی الگوریتمهای قدرتمند یادگیری ماشین با مقدار عظیمی از دادهها به صورت کتاب و متن موجود در وب تغذیه میشوند میتوانند متن قانعکنندهای تولید کنند که کاملا با اصول دستور زبان همخوانی داشته باشد. اما علاوه بر تولید بیشمار متون مفید، این احتمال هم بوجود میاید که انواع پیامهای اینترنتی، نظرات و پستها به راحتی و با قابلیت تشخیص کمتر جعل شوند.
سوینی میگوید: “هرچه فناوری بیشتر پیشرفت میکند گفتار انسانی بیشتر دستکاری میشود، حتی بدون آنکه بشر از وقوع آن آگاهی داشته باشد.” ویس در تابستان 2019 در یک سازمان ارائه دهنده خدمات و مراقبتهای بهداشتی مشغول به کار بود و در آن زمان در مورد روند بازخورد عمومی لازم برای ایجاد تغییرات در Medicaid اطلاعات کسب کرد. ویس با دانستن اینکه نظرات عمومی برنامههای ایالتی Medicaid را تحت تأثیر قرار میدهد، به دنبال ابزاری بود که بتواند به صورت خودکار نظرات را ایجاد کند. او میگوید: “وقتی دیدم كه چیزی جز دكمه ارسال نمیتواند مانع از ارسال نظر شما برای تبدیل شدن به بخشی از سوابق عمومی شود، كمی شوكه شدم.”
ویس نرمافزار GPT-2 را انتخاب کرد که اوایل همان سال توسط OpenAI، یک شرکت هوش مصنوعی در سانفرانسیسکو منتشر شده بود و متوجه شد که این زبان میتواند نظرات جعلی را به گونهای که کاملا غیر قابل تشخیص باشند نگارش کند. ویس میگوید: “من از آسان بودن نحوه رابط کاربری GPT-2 شوکه شدم.” سپس ویس نرمافزاری را برای ارسال خودکار نظرات ساخت. وی همچنین آزمایشی را ترتیب داد که در آن از داوطلبان خواسته شد بین نظرات تولید شده توسط هوش مصنوعی و نظرات نوشته شده توسط انسان تفاوت قائل شوند اما داوطلبان چیزی بیشتر از حدس تصادفی برای ارائه نداشتند.
ویس پس از ارسال نظرات، این امر را به مراکز خدمات مدیکر و مدیكید اطلاع داد. او چند کاراکتر اضافه کرده بود تا شناسایی نظرات جعلی را آسان کند. وی گفت، حتی با وجود این نشانهها همچنان فعالیت هوش مصنوعی برای چندین ماه در اینترنت ادامه داشت و نظرات ارسال شدهی آن ثبت میشد. OpenAI در ژوئن گذشته نسخه توانمندتری از برنامه تولید متن خود را با نام GPT-3 منتشر کرده است. این برنامه تاکنون فقط در دسترس تعداد کمی از محققان و شرکتهای هوش مصنوعی قرار گرفته است و برخی شرکتها برنامههای مفیدی از این سیستم تولید کردهاند که پیامهای الکترونیکی تولید میکند.
هنگام انتشار GPT-3 ، شرکت OpenAI در یک مقاله گفت که علائمی مبنی بر سواستفاده از GPT-2 را مشاهده نکرده است و این در شرایطی بود که آنها از نتایج تحقیقات ویس مطلع بودهاند. تاکنون OpenAI و سایر توسعهدهندگان ابزارهای کمی را برای شناسایی متن تولید شده توسط هوش مصنوعی منتشر کردهاند. ابزارهای موجود از الگوریتمهای هوش مصنوعی برای مشخص کردن نشانهها در متن استفاده میکنند تا مشخص کنند که متن توسط انسان نگارش شده یا الگوریتم. مشخص نیست که آیا کسی از این ابزارها برای محافظت از سیستمهای آنلاین استفاده میکند یا خیر.
فیس بوک از گفتن اینکه آیا از چنین ابزاری استفاده میکند یا خیرخودداری کرد و گوگل و توییتر به سوالهای در این خصوص پاسخ ندادند. همچنان مشخص نیست که آیا هنوز از ابزارهای پیشرفته هوش مصنوعی برای ایجاد محتوای جعلی استفاده میشود یا خیر. در ماه آگوست محققان گوگل جزئیات آزمایشی را منتشر کردند که در آن با استفاده از یک ابزار تشخیص متن که بر پایه هوش مصنوعی استوار بود برای مشخص کردن متون واقعی از ساختگی بیش از 500 میلیون صفحه وب را تجزیه و تحلیل کردند. آنها دریافتند که ابزارهای موجود میتوانند صفحاتی که متن خودکار و هرزنامه تولید میکنند را شناسایی کنند. اما مشخص نبود که آیا این مطالب با استفاده از ابزاری هوش مصنوعی مانند GPT-2 ساخته شده است یا خیر.
رنه دی رستا، مدیر تحقیق در رصدخانه اینترنتی استنفورد که سواستفادههای آنلاین را ردیابی میکند میگوید که انتظار دارد سایتهای دولتی بیشتری توسط متن جعلی هدف قرار بگیرند. او میگوید: “هر زمان که شما فناوری جدیدی داشته باشید، در واقع ابزاری در دست بعضیها و سلاحی را در دست دیگران قرار دادهاید.” امروزه اطلاعات غلط سیاسی به موضوعی مهم در سیاستهای آمریکا تبدیل شده است.
Joan Donovan، مدیر تحقیقاتی مرکز رسانهها و سیاست عمومی در هاروارد هشدار میدهد که ممکن است برای از بین بردن درک مردم نسبت به واقعیت نیازی به هوش مصنوعی پیشرفته نباشد. او میگوید: “احساسات مردم ضعیف است و این باعث میشود آنها نسبت به توضیحات راحت نسبت به حقیقتهای دشوار بسیار آسیب پذیر باشند.”