به نظر میرسد که فیلم و صوتی که توسط هوش مصنوعی ساخته شده باشد، بسیار بد است. نوشتن و محصولی که توسط هوش مصنوعی ساخته شدهاست، بسیار غیرقابل کشف و به مراتب بدتر از تولیدات انسانی است. محققان سعی کردهاند که با جمعآوری دادهها حدس بزنند که کمپینهای دستکاری شده که با کمک هوش مصنوعی طراحی شدهاند چه تهدیداتی را در سالهای ۲۰۱۸ و ۲۰۲۰ بوجود آوردهاند.
جالب است بدانید که در صدر این تحقیقات، فیلمهای تولید شده هوش مصنوعی گمراه کنندهای وجود دارند! البته همه ما میدانیم که این تکنولوژی در آغاز کار است و فناوریهای در حال ظهور آن، ممکن است که در ابتدای کار دچار ایرادات و تهدیداتی باشند که اگر به صورت صحیح به آنها بها داده شود، مشکلات بسیار زیادی را حل میکند.
متنهای عمیق یا Deepfake Text در واقع خطرناکترین نوع محتوای متنی هستند که توسط هوش مصنوعی تولید میشوند. شناسایی سخت این نوع محتواها، امکان دستکاری آنها و … باعث شدهاست که در فضای اینترنت استفاده از این نوع محتواهای متنی کمی ترسناک به نظر برسد و اطلاعات غلطی را به کاربران بدهد که حقیقت ندارند!
معرفی GPT-3 و شروع حاشیههای جدید در محتوای متنی تولید شده توسط هوش مصنوعی
هوش مصنوعی قادر است که جملاتی با صدای انسان ایجاد کند که خروجی آن و تشخیص دروغ بودن آن بسیار دشوار باشد. فرض کنید که در این زمینه اطلاعاتی توسط سران کشورهای مختلف تولید شود که هر کدام ادعای خاصی دارند، اما در حقیقت هیچکس بیانه ای صادر نکردهاست. به نظر شما در دنیایی که نحوه واکنش به رسانهها بسیار سریع است و نمیتوان اطلاعات صحیح را تشخیص داد، چه مشکلاتی ممکن است که بوجود آید؟
هنگامی که برای اولین بار از ابزارهای طراحی گرافیکی شرکت Adobe مانند فتوشاپ و افترافکت، برای تولید شایعها استفاده شد، پتانسیل و قدرت رسانهها برای تغییر مسیر تاریخی بشر به نمایش گذاشته شد. حالا با استفاده از هوش مصنوعی و تولید محتواهایی که شما نمیتوانید به راحتی تشخیص دهید که صحت دارند یا خیر، این موضوع کمی دشوارتر به نظر میرسد.
البته نباید انکار کرد که استفاده صحیح از رسانهها و دادههای آنها، کمک بسیار زیادی به بهبود و توسعه جامعه میکند، اما نباید خطر سودجویان را هم در نظر نگرفت. این روزها که سواد رسانه در بین مردم افزایش پیدا کردهاست و هر عکسی توسط آنها قابل قبول نیست، شاید بتوان با کمک راهبردهایی جلوی فساد محتواهای عمیق تولید شده توسط هوش مصنوعی و تهدیدات آنها را گرفت.
برای این که بهتر متوجه اهمیت این موضوع شوید، بگذارید یک مثال کاربردی برای شما بزنیم:
احتمالاً شما هم تبلیغات شرکتهای تولیدکننده خمیردندان و یا مسواک را مشاهده کردهاید که در آنها یک فرد با ظاهری جذاب، دندانهای سفیدی دارد که معمولاً بعد از استفاده از آن برند خمیر دندان یا مسواک به آن دست پیدا کردهاست. در نگاه اول همه ما تصور میکنیم که این تأثیر خمیردندان یا مسواک است، اما حقیقت چیز دیگری است. در واقع نرمافزارهای گرافیکی، آن دندانهای سفید را به نمایش میگذارند و این شیوه تبلیغاتی ما را فریب میدهد.
در بحث محتوای متنی، صدا و فیلم تولید شده توسط هوش مصنوعی هم، چنین موضوعی به چشم میخورد. تکنولوژی به راحتی میتواند، چهرههای رهبران جهان، افراد تأثیرگذار و … را به صورتی بازسازی کند که مانند واقعیت باشد. این موضوع بار سنگینی را برای رسانهها بوجود میآورد که قبل از انتشار هر محتوایی در مورد صحت آن، مطمئن باشند.
ارتباطات اجتماعی ما به وسبله متن تولید شده توسط هوش مصنوعی پیچیده میشود!
برای جلوگیری از این موضوع لازم است که روشهایی برای شناسایی و صحت اطلاعات وجود داشته باشد چرا که طبق گزارشهای موجود، محتوای متنی قادر است که جزئیات کاملی از حرکات صورت، زیورآلات مورد استفاده فرد و لحن او را بازسازی کند. خوشبختانه در این زمینه نرمافزارهای و ترفندهایی در حال ابداع و اختراع است که به ما در کشف حقیقت کمک میکند.
به نظر شما چه تکنولوژیهای دیگری ممکن است امنیت اطلاعاتی هر جامعه را به خطر بیندازد و یا باعث شروع جنگ شود؟ چه راههایی برای مقابله با این موضوع وجود دارد؟ در بخش نظرات، میتوانید تجربیات، سوالات و دانستههای خود را در این زمینه با ما و دیگر افراد به اشتراک بگذارید.