متن تولید شده توسط هوش مصنوعی، ترسناکترین نوع متن است!
۱۳۹۹-۰۵-۱۲ 0

به نظر می‌رسد که فیلم و صوتی که توسط هوش مصنوعی ساخته شده باشد، بسیار بد است. نوشتن و محصولی که توسط هوش مصنوعی ساخته شده‌است، بسیار غیرقابل کشف و به مراتب بدتر از تولیدات انسانی است. محققان سعی کرده‌اند که با جمع‌آوری داده‌ها حدس بزنند که کمپین‌های دستکاری شده که با کمک هوش مصنوعی طراحی شده‌اند چه تهدیداتی را در سال‌های ۲۰۱۸ و ۲۰۲۰ بوجود آورده‌اند.

جالب است بدانید که در صدر این تحقیقات، فیلم‌های تولید شده هوش مصنوعی گمراه کننده‌ای وجود دارند! البته همه ما می‌دانیم که این تکنولوژی در آغاز کار است و فناوری‌های در حال ظهور آن، ممکن است که در ابتدای کار دچار ایرادات و تهدیداتی باشند که اگر به صورت صحیح به آن‌ها بها داده شود، مشکلات بسیار زیادی را حل می‌کند.

متن‌های عمیق یا Deepfake Text در واقع خطرناک‌ترین نوع محتوای متنی هستند که توسط هوش مصنوعی تولید می‌شوند. شناسایی سخت این نوع محتواها، امکان دستکاری آن‌ها و … باعث شده‌است که در فضای اینترنت استفاده از این نوع محتواهای متنی کمی ترسناک به نظر برسد و اطلاعات غلطی را به کاربران بدهد که حقیقت ندارند!

معرفی GPT-3 و شروع حاشیه‌های جدید در محتوای متنی تولید شده توسط هوش مصنوعی

هوش مصنوعی قادر است که جملاتی با صدای انسان ایجاد کند که خروجی آن و تشخیص دروغ بودن آن بسیار دشوار باشد. فرض کنید که در این زمینه اطلاعاتی توسط سران کشورهای مختلف تولید شود که هر کدام ادعای خاصی دارند، اما در حقیقت هیچ‌کس بیانه ای صادر نکرده‌است. به نظر شما در دنیایی که نحوه واکنش به رسانه‌ها بسیار سریع است و نمی‌توان اطلاعات صحیح را تشخیص داد، چه مشکلاتی ممکن است که بوجود آید؟

هنگامی که برای اولین بار از ابزارهای طراحی گرافیکی شرکت Adobe مانند فتوشاپ و افترافکت، برای تولید شایع‌ها استفاده شد، پتانسیل و قدرت رسانه‌ها برای تغییر مسیر تاریخی بشر به نمایش گذاشته شد. حالا با استفاده از هوش مصنوعی و تولید محتواهایی که شما نمی‌توانید به راحتی تشخیص دهید که صحت دارند یا خیر، این موضوع کمی دشوارتر به نظر می‌رسد.

البته نباید انکار کرد که استفاده صحیح از رسانه‌ها و داده‌های آن‌ها، کمک بسیار زیادی به بهبود و توسعه جامعه می‌کند، اما نباید خطر سودجویان را هم در نظر نگرفت. این روزها که سواد رسانه در بین مردم افزایش پیدا کرده‌است و هر عکسی توسط آن‌ها قابل قبول نیست، شاید بتوان با کمک راهبردهایی جلوی فساد محتواهای عمیق تولید شده توسط هوش مصنوعی و تهدیدات آن‌ها را گرفت.

برای این که بهتر متوجه اهمیت این موضوع شوید، بگذارید یک مثال کاربردی برای شما بزنیم:

احتمالاً شما هم تبلیغات شرکت‌های تولیدکننده خمیردندان و یا مسواک را مشاهده کرده‌اید که در آن‌ها یک فرد با ظاهری جذاب، دندان‌های سفیدی دارد که معمولاً بعد از استفاده از آن برند خمیر دندان یا مسواک به آن دست پیدا کرده‌است. در نگاه اول همه ما تصور می‌کنیم که این تأثیر خمیردندان یا مسواک است، اما حقیقت چیز دیگری است. در واقع نرم‌افزارهای گرافیکی، آن دندان‌های سفید را به نمایش می‌گذارند و این شیوه تبلیغاتی ما را فریب می‌دهد.

در بحث محتوای متنی، صدا و فیلم تولید شده توسط هوش مصنوعی هم، چنین موضوعی به چشم می‌خورد. تکنولوژی به راحتی می‌تواند، چهره‌های رهبران جهان، افراد تأثیرگذار و … را به صورتی بازسازی کند که مانند واقعیت باشد. این موضوع بار سنگینی را برای رسانه‌ها بوجود می‌آورد که قبل از انتشار هر محتوایی در مورد صحت آن، مطمئن باشند.

ارتباطات اجتماعی ما به وسبله متن تولید شده توسط هوش مصنوعی پیچیده می‌شود!

برای جلوگیری از این موضوع لازم است که روش‌هایی برای شناسایی و صحت اطلاعات وجود داشته باشد چرا که طبق گزارش‌های موجود، محتوای متنی قادر است که جزئیات کاملی از حرکات صورت، زیورآلات مورد استفاده فرد و لحن او را بازسازی کند. خوشبختانه در این زمینه نرم‌افزارهای و ترفندهایی در حال ابداع و اختراع است که به ما در کشف حقیقت کمک می‌کند.

به نظر شما چه تکنولوژی‌های دیگری ممکن است امنیت اطلاعاتی هر جامعه را به خطر بیندازد و یا باعث شروع جنگ شود؟ چه راه‌هایی برای مقابله با این موضوع وجود دارد؟ در بخش نظرات، می‌توانید تجربیات، سوالات و دانسته‌های خود را در این زمینه با ما و دیگر افراد به اشتراک بگذارید.

نظر بدهید

چت بات

چت بات
گفتار به نوشتار
تشخیص چهره
اپراتور هوشمند